AI AGENTS EMERGENCY DEBATE: These Jobs Won’t Exist In 24 Months! Containment Has Failed, We Must Prepare For What’s Coming!

中文
Tiếng Việt
AI transcript
0:00:05 I think a lot of people don’t realize how massive the positive impact AI is going to have on their life.
0:00:12 Well, I would argue that the idea that this AI disruption doesn’t lead us to human catastrophe is optimistic.
0:00:15 For example, people are going to be unemployed in huge numbers.
0:00:16 You agree with that, don’t you?
0:00:21 Yes. If your job is as routine as it comes, it’s gone in the next couple of years.
0:00:25 But it’s going to create new opportunities for wealth creation.
0:00:31 Let me put it to you this way. We’ve created a new species, and nobody on Earth can predict what’s going to happen.
0:00:37 We are joined by three leading voices to debate the most disruptive shift in human history, the rise of AI.
0:00:40 And they’re answering the questions you’re most cared about.
0:00:43 This technology is going to get so much more powerful.
0:00:48 And yes, we’re going to go through a period of disruption, but at the other end, we’re going to create a fair world.
0:00:51 It’s enabling people to run their businesses, make a lot of money.
0:00:55 And you can solve meaningful problems such as the breakthroughs in global health care and education.
0:00:59 It will be phenomenal, and you can live an incredibly fulfilling existence.
0:01:02 Well, I would just say on that front, this has always been the fantasy of technologists.
0:01:05 To do marvelous things with our spare time, but we end up doom scrolling.
0:01:06 Loneliness epidemic.
0:01:08 Right, falling birth rates.
0:01:12 So the potential for good here is infinite, and the potential for bad is ten times.
0:01:16 For example, there’s war, undetectable beat fakes, and scams.
0:01:20 So people don’t understand how many different ways they are going to be robbed.
0:01:24 Look, I don’t think blaming technology for all of it is the right thing.
0:01:25 All these issues, they’re already here.
0:01:27 They’re all fathers here.
0:01:28 So what are you saying to your children?
0:01:29 Well, first of all…
0:01:36 I find it incredibly fascinating that when we look at the back end of Spotify and Apple
0:01:41 and our audio channels, the majority of people that watch this podcast haven’t yet hit the
0:01:44 follow button or the subscribe button, wherever you’re listening to this.
0:01:45 I would like to make a deal with you.
0:01:49 If you could do me a huge favor and hit that subscribe button, I will work tirelessly from
0:01:53 now until forever to make the show better and better and better and better.
0:01:56 I can’t tell you how much it helps when you hit that subscribe button.
0:01:59 The show gets bigger, which means we can expand the production, bring in all the guests you
0:02:02 want to see, and continue to do this thing we love.
0:02:05 If you could do me that small favor and hit the follow button, wherever you’re listening
0:02:06 to this, that would mean the world to me.
0:02:08 That is the only favor I will ever ask you.
0:02:10 Thank you so much for your time.
0:02:22 The reason why I wanted to have this conversation with all of you is because the subject matter
0:02:29 of AI, but more specifically AI agents, has occupied my free time for several weeks in a row.
0:02:35 And actually, Amjad, when I started using Replit, for me, it was a paradigm shift.
0:02:39 There was two paradigm shifts in a row that happened about a week apart.
0:02:43 ChatGPT released that image generation model where you could create any image.
0:02:46 It was incredibly detailed with text and all those things.
0:02:47 That was a huge paradigm shift.
0:02:52 And then in the same week, I finally gave in to try and figure out what this term AI agent
0:02:53 was that I was hearing all over the internet.
0:02:54 I heard Vibe coding.
0:02:55 I heard AI agent.
0:02:57 I was like, I will give it a shot.
0:03:03 And when I used Replit, 20 minutes in to using Replit, my mind was blown.
0:03:06 And I think that night I stayed up till 3 or 4 a.m. in the morning.
0:03:12 For anyone that doesn’t know, Replit is a piece of software that allows you to create
0:03:16 software and pretty much any software you want.
0:03:22 So someone like me with absolutely no coding skills was able to build a website, build in
0:03:28 Stripe, take payment, integrate AI into my website, add Google login to the front of my website,
0:03:30 and do it within minutes.
0:03:34 I then got the piece of software that I had built with no coding skills, sent it to
0:03:36 my friends, and one of my friends put his credit card in and paid.
0:03:40 So I just launched a SaaS company with no coding skills.
0:03:47 To demonstrate an AI agent in a very simple way, I used an online AI agent called Operator
0:03:50 to order us all some water from a CVS around the corner.
0:03:54 The AI agent did everything end to end, and people will be watching it on the screen.
0:03:58 It put my credit card details in, it picked the water for me, it gave the person a tip,
0:03:59 it put some delivery notes in.
0:04:01 At some point, a guy is going to walk in.
0:04:03 He has not interacted with a human.
0:04:05 He’s interacted with my AI agent.
0:04:09 And I just, the reason I use this as an example is, again, it was a paradigm shift moment
0:04:13 for me when I heard about agents about a month ago, and I went on and I ordered a bottle
0:04:14 of electrolytes.
0:04:18 And when my doorbell rang, I freaked out.
0:04:19 I freaked out.
0:04:21 But Amjad, who are you?
0:04:23 And what are you doing?
0:04:27 So I started programming at a very young age.
0:04:31 You know, I built my first business when I was a teenager.
0:04:34 I used to go to internet cafes and program there.
0:04:38 And I realized that they don’t have software to manage the business.
0:04:39 I was like, oh, why didn’t you create accounts?
0:04:40 Why don’t I have a server?
0:04:43 It took me two years to build that piece of software.
0:04:49 And that sort of embedded in my mind, this idea that, hey, like, you know, there’s a lot
0:04:54 of people in the world with really amazing ideas, especially in the context where they live in,
0:04:57 that allows them to build businesses.
0:05:13 However, the main source of friction between an idea and software, or call it an idea, and wealth creation, is infrastructure, is physical infrastructure, is meaning a computer in front of you.
0:05:16 It is an internet connection.
0:05:20 It is the set of tools and skills that you need to build that.
0:05:27 If we make it so that anyone who has ideas, who wants to solve problems, will be able to do it.
0:05:41 I mean, imagine the kind of world that we could live in where no one can be, anyone who has merit, anyone who can think clearly, anyone who can generate a lot of ideas can generate wealth.
0:05:43 I mean, that’s an amazing world to live in, right?
0:05:44 Anywhere in the world.
0:05:51 So with Replit, the company that I started in 2016, the idea was like, okay, coding is difficult.
0:05:52 How do we solve coding?
0:05:58 And we built every part of the process, the hosting, the code editor.
0:06:02 The only missing thing was the, you know, the AI agent.
0:06:15 And so over the past two years, we’ve been working on this AI agent that you can just, you know, similar, since ChatGPT, you know, this revolution with Gen.AI, and you can just speak your ideas into existence.
0:06:17 I mean, this starts, you know, sounding religious.
0:06:23 Like, this is like the, you know, the gods, you know, the myths that humans have created.
0:06:28 They used to imagine a world where you can be everywhere and anywhere at once.
0:06:32 That’s sort of the internet, and you can also speak your ideas into existence.
0:06:35 And, you know, it’s still early.
0:06:41 I think Replit agent is a fantastic tool, and I think this technology is going to get so much more powerful.
0:06:44 Specifically, what is an AI agent?
0:06:52 I’ve got this graph, actually, here, which I don’t need to pass to any of you to be able to see the growth of AI agents.
0:06:54 But this graph is Google search trend data.
0:06:56 This also resembles our revenue, too.
0:06:58 Oh, okay, right.
0:07:00 The water has arrived.
0:07:00 Hello.
0:07:02 Thank you.
0:07:03 You can come on in.
0:07:04 Can I have a go, please?
0:07:06 Yes, it’s 3951.
0:07:07 Great.
0:07:09 Thank you so much.
0:07:09 Thank you.
0:07:09 Thank you.
0:07:13 This is like a supernatural kind of power.
0:07:15 You conjured water.
0:07:17 I conjured water from my mind.
0:07:17 Yeah.
0:07:19 And it’s shown up here with us.
0:07:20 And it clearly thinks we need a lot.
0:07:21 Yeah.
0:07:26 But just to define the term AI agent for someone that’s never heard the term before.
0:07:27 Yeah.
0:07:27 Yeah.
0:07:32 So I assume most of the audience now are familiar with ChatGPT, right?
0:07:34 You can go in and you can talk to an AI.
0:07:36 It can search the web for you.
0:07:38 It has a limited amount of tools.
0:07:43 Maybe it can call a calculator to do some additional subtraction for you.
0:07:44 But that’s about it.
0:07:46 It’s a request-response style.
0:07:54 Agents are when you give it a request, and they can work indefinitely until they achieve
0:07:57 a goal, or they run into an error and they need your help.
0:08:01 It’s an AI bot that has access to tools.
0:08:07 Those tools are access to a web browser, like Operator, access to a programming environment,
0:08:12 say like Replit, access to credit cards.
0:08:15 The more tools you give the agent, the more powerful it is.
0:08:19 Of course, there’s all these considerations around security and safety and all of that stuff.
0:08:26 But the most important thing is that AI agent will determine when it’s finished executing.
0:08:33 Today, AI agents can run for anywhere between 30 seconds to 30 minutes.
0:08:40 There’s a recent paper that came out that’s showing that every seven months, the number
0:08:43 of minutes that the agent can run for is doubling.
0:08:46 So we’re at like 30 minutes now.
0:08:48 In seven months, we’re going to be at an hour.
0:08:50 Then two hours.
0:08:52 Pretty soon, we’re going to be at days.
0:08:57 And at that point, AI agent is doing labor, is doing kind of human-like labor.
0:09:03 And actually, OpenAI’s new model, O3, beat the expectation.
0:09:09 So it sort of doubled coherence over long-horizon tasks in just three or four months.
0:09:16 So we’re in this massive, and I mean, this looks, this exponential graph, you know, that shows
0:09:18 you the massive trend we’re on.
0:09:22 Brett, give us a little bit of your background.
0:09:25 But also, I saw you writing some notes there.
0:09:28 There was a couple of words used there that I thought were quite interesting, especially
0:09:30 considering what I know about you.
0:09:31 The word God was used a few times.
0:09:36 Well, let me just say, I’m an evolutionary biologist.
0:09:51 One of the things that I believe is true about AI is that this is the first time that we have
0:09:58 built machines that have crossed the threshold from the highly complicated into the truly complex.
0:10:08 And I will say I’m listening to this conversation with a mixture of profound hope and dread,
0:10:18 because it seems to me that it is obvious that the potential good that can come from this technology
0:10:20 is effectively infinite.
0:10:23 But I would say that the harm is probably 10 times.
0:10:25 It’s a bigger infinity.
0:10:32 And the question of how we are going to get to a place where we can leverage the obvious power
0:10:36 that is here to do good and dodge the worst harms, I have no idea.
0:10:38 I know we’re not prepared.
0:10:44 So I hear you talking about agents, and I think that’s marvelous.
0:10:49 We can all use such a thing right away, and the more powerful it is, the better.
0:10:54 The idea of something that can solve problems on your behalf while you’re doing something else
0:10:55 is marvelous.
0:11:04 But of course, that is the precondition for absolute devastation to arise out of a miscommunication.
0:11:05 Right?
0:11:12 To have something acting autonomously to accomplish a goal, you damn well better understand what the
0:11:17 goal really is and how to pull back the reins in the event that it starts accomplishing
0:11:24 something that wasn’t the goal, the potential for abuse is also utterly profound.
0:11:35 You know, you can imagine, just pick your dark mirror fantasy dystopia where something has been
0:11:36 told to hunt you down until you’re dead.
0:11:41 And it sees that as a technical challenge.
0:11:50 So I don’t know quite how to balance a discussion about all of the things that can clearly come
0:11:52 from this that are utterly transcendent.
0:11:59 I mean, I do think it is not inappropriate to be invoking God or biblical metaphors here.
0:12:04 You know, you’re producing water seemingly from thin air.
0:12:06 I believe that does have an exact biblical parallel.
0:12:11 So any case, the power is here.
0:12:16 But so too is the need for cautionary tales, which we don’t have.
0:12:21 That’s the problem is that there is no body of myth that will warn us properly of this tool
0:12:29 because we’ve just crossed a threshold that is similar in its capacity to alter the world as
0:12:31 the invention of writing.
0:12:33 I really think that’s where we are.
0:12:39 We’re talking about something that is going to fundamentally alter what humans are with no
0:12:41 plan.
0:12:45 You know, writing alters the world slowly because the number of people who can do it is tiny at
0:12:51 first and remain so for thousands of years, this is changing things weekly.
0:12:56 And that’s an awful lot of power to just simply have dumped on a system that wasn’t well regulated
0:12:57 to begin with.
0:12:59 Dan.
0:13:01 Yeah, so I’m an entrepreneur.
0:13:04 I’ve been building businesses for the last 20 plus years.
0:13:08 I’m completely well positioned between the two of you here.
0:13:12 The excitement of the opportunity and the terror of what could go on.
0:13:21 There’s this image that I saw of New York City in 1900 and every single vehicle on the street
0:13:21 is a horse and cart.
0:13:28 And then 13 years later, the same photo from the same vantage point and every single vehicle
0:13:29 on the street is a car.
0:13:34 And in 13 years, all the horses had been removed and cars had been put in place.
0:13:41 And if you had have interviewed the horses in 1900 and said, how do you feel about your level
0:13:43 of confidence in the world?
0:13:48 The horses would have said, well, we’ve been part of humanity for, you know, horse in hoof,
0:13:52 hand in hoof for many, many years, for thousands of years.
0:13:54 There’s one horse for every three humans.
0:13:55 Like, how bad could it be?
0:13:57 You know, we’ll always have a special place.
0:14:00 We’ll always be part of society.
0:14:06 And little did the horses realize that that was not the case, that the horses were going to
0:14:09 be put out of business very, very rapidly.
0:14:14 And to reason through analogy, you know, there’s a lot of us who are now sitting there going,
0:14:17 hey, wait a second, does this make me a horse in 1900?
0:14:22 I think a lot of people don’t realize how massive these kind of technologies are going to have
0:14:22 as an impact.
0:14:26 You know, one minute we’re ordering water and that’s cute.
0:14:29 And the next minute, it can run for days.
0:14:33 And in your words, it doesn’t stop until it achieves its goal.
0:14:37 And it comes up with as many different ways as it could possibly come up with to achieve its goal.
0:14:41 And in your words, it better know what that goal is.
0:14:48 I’m thinking a lot, Amjad, as Daniel’s speaking about the vast application of AI agents and where are the bounds.
0:14:55 Because if this thing is going to get incrementally smarter, well, incrementally might be an understatement.
0:14:58 It’s going to get incredibly smart, incredibly quick.
0:15:03 And we’re seeing this AI race where all of these large language models are competing for intelligence with one another.
0:15:10 And if it’s able to traverse the internet and click things and order things and write things and create things,
0:15:14 and all of our lives run off the internet today, what can’t it do?
0:15:15 It’s going to be smarter than me.
0:15:17 No doubt.
0:15:18 It already is.
0:15:21 And it’s going to be able to take actions across the internet,
0:15:24 which is pretty much where most of my professional life operates.
0:15:25 It’s like how I build my businesses.
0:15:29 Even this podcast is an internet product at the end of the day.
0:15:32 Because you can create, we’ve done experiments now,
0:15:34 and I can show the graphs on my phone to make AI podcasts.
0:15:38 And they have, we’ve just managed to get it to have the same retention as the driver’s CEO.
0:15:40 Now, with the image generation model.
0:15:42 Retention as in viewer retention?
0:15:46 The percentage of people that get to one hour is the same now.
0:15:49 So we can make the video, we can publish it, we can script it.
0:15:51 You can synthesize my voice.
0:15:52 Sounds like me.
0:15:55 So what is it going to be able to do?
0:15:59 And can you give me the variety of use cases
0:16:02 that the average person might not have intuitively conceived?
0:16:02 Yeah.
0:16:05 So I tend to be an optimist.
0:16:10 And part of the reason is because I try to understand the limits of the technology.
0:16:13 What can it do is anything that we can,
0:16:16 any sort of set of human data that we can train it on.
0:16:22 What can it not do is anything that humans don’t know what to do,
0:16:24 because we don’t have the training data.
0:16:29 Of course, it’s super smart because it integrates massive amount of knowledge
0:16:31 that you wouldn’t be able to read, right?
0:16:32 It also much faster.
0:16:35 It can run through massive amount of computation
0:16:39 that, you know, your brain, you can’t even comprehend.
0:16:41 Because of all of that, they’re smart.
0:16:43 They can take actions.
0:16:47 But we know the limits of what they can do because we train them.
0:16:50 They’re able to simulate what a human can do.
0:16:54 So the reason you were able to order the water there
0:16:56 is because it was trained NSF data.
0:17:00 That includes clicking on DoorDash and ordering water.
0:17:04 I applaud your optimism, and I like the way you think about these puzzles,
0:17:11 but I think I see you making a mistake that we are about to discover is very commonplace.
0:17:15 So we have several different categories of systems.
0:17:16 We have simple systems.
0:17:19 We have complicated systems.
0:17:21 We have complex systems.
0:17:23 And then we have complex adaptive systems.
0:17:31 To most of us, a highly complicated system appears like a complex system.
0:17:32 We don’t understand the distinction.
0:17:37 Technologists often master highly complicated systems.
0:17:40 And they know, you know, for example, a computer.
0:17:43 It’s a perfectly predictable system inside.
0:17:45 It’s deterministic.
0:17:47 But to most of us, it functions.
0:17:51 It is mysterious enough that it feels like a complex system.
0:17:57 And if you’re in the position of having mastered highly complicated systems,
0:18:00 and you look at complex systems, and you think it’s a natural extension,
0:18:05 you fail to anticipate just how unpredictable they are.
0:18:12 So even if it is true that today there are limits to what these machines can do
0:18:19 based on their training data, I think the problem is to see what’s going to happen,
0:18:23 you really want to start thinking of this as the evolution of a new species
0:18:25 that will continue to evolve.
0:18:30 It will partially be shaped by what we ask it to do, the direction we lead it.
0:18:33 And it will partially be shaped by things we don’t understand.
0:18:37 So how does this computer that we have work?
0:18:41 Well, one of the things that it does is we plug them into each other.
0:18:47 Using language, it’s almost as if you’ve plugged an Ethernet cable in between human minds.
0:18:54 And that means that the cognitive potential exceeds the sum of the individual minds in question.
0:18:57 Your AIs are going to do that.
0:19:02 And that means that our ability to say what they are capable of does not come down to,
0:19:04 well, we didn’t train it on that data.
0:19:10 As they begin to interact, that feedback is going to take them to capabilities we don’t anticipate
0:19:13 and may not even recognize once they become present.
0:19:14 That’s one of my fears.
0:19:19 This is an evolving creature, and it’s not even an animal.
0:19:23 If it were an animal, you could say something about what the limits of that capability are.
0:19:32 But this is a new type of biological creature, and it will become capable of things that we don’t even have names for.
0:19:37 Even if it didn’t do that, even if it just stayed within the boundaries that you’re talking about,
0:19:40 you mentioned about it having median level intelligence.
0:19:46 Well, that by definition means 50% of the people on the planet are less intelligent than AI.
0:19:53 You know, to a degree, it’s almost as if we’ve just invented a new continent of remote workers.
0:19:55 There’s billions of them.
0:19:56 They’ve all got a master’s or a PhD.
0:19:58 They all speak all the languages.
0:20:07 Anything that you could call someone or ask someone over the internet to do, they’re there 24-7 and they’re 25 cents an hour, if that.
0:20:15 So, like, if that really happened, like, if we really did just discover that there were a billion extra people on the planet
0:20:21 who all had PhDs and were happy to work for almost free, that would have a massive disruptive impact on society.
0:20:26 Like, society would have to rethink how everyone lives and works and gets meaning.
0:20:30 So, like, and that’s if it just stays at a median level of intelligence.
0:20:32 Like, it’s pretty profound.
0:20:34 I still think it’s a tool.
0:20:39 It’s this power that is there to be harnessed by entrepreneurs.
0:20:43 You know, I think that the world is going to get disrupted, right?
0:20:51 And, you know, this post-war world that we created where you go through life, you go through 12 years of education,
0:20:56 you get to college, and you just check the boxes, you get a job.
0:20:59 We can already see the fractures of that.
0:21:03 It is, you know, this American dream is perhaps no longer there.
0:21:05 And so, I think the world has already changed.
0:21:08 And so, but, like, what are the opportunities?
0:21:09 Obviously, there are downsides.
0:21:14 The opportunities is for the first time, access to opportunity is equal.
0:21:17 And I do think there’s going to be more inequality.
0:21:24 And the reason for this inequality is because, actually, Steve Jobs, you know, made this analogy.
0:21:32 It’s like the best taxi driver in New York is, like, 20% better than the, you know, the average taxi driver.
0:21:35 The best programmer can be 10x better.
0:21:37 You know, we say the 10x engineer.
0:21:43 Now, the variance will be in the 1,000x, right?
0:21:49 Like, the best entrepreneur that can leverage those agents could be better.
0:21:58 It could be 1,000 times better than someone who doesn’t have the grit, doesn’t have the skill, doesn’t have the ambition, right?
0:21:59 So, that will create a world.
0:22:05 Yes, there’s massive access to opportunity, but there are people who will take, you know.
0:22:08 Seize it and then there’ll be people who don’t.
0:22:11 I imagine it almost like a marathon race.
0:22:13 And AI has two superpowers.
0:22:18 One superpower is to distract people, such as TikTok algorithm.
0:22:18 That’s right.
0:22:21 And the other superpower is to make you hyper-creative.
0:22:23 So, you become a hyper-consumer or a hyper-creator.
0:22:30 And in this marathon race, the vast majority of people have got their shoes tied together because AI is distracting them.
0:22:33 Some people are running traditional race.
0:22:35 Some people have got a bicycle.
0:22:37 And some people have got a Formula 1 vehicle.
0:22:45 And it’s going to be very confronting when the results go on the scoreboard and you say, oh, wait a second.
0:22:48 There’s a few people who finished this marathon in about 30 minutes.
0:22:53 And there’s a lot of us who finished in, like, 18 hours because we had our shoes tied together.
0:23:00 And I can’t understand if we’ve got equal opportunity why there’s so much disparity between how fast, you know.
0:23:07 And, you know, I’m using an analogy but this idea that, you know, someone like a lot of people are going to start earning a million dollars a month.
0:23:11 And a lot of people are going to say, hey, I can’t even get a job for $15 an hour.
0:23:14 There’s going to be this kind of interesting wedge.
0:23:25 Well, but I hear in what both of you are saying a kind of assumption that this will all be done on the up and up.
0:23:30 And I do want to just – I am not a doomer.
0:23:36 I agree that the doomers are likely incorrect, that their fears are misplaced.
0:23:40 But I do think we have a question of a related rates problem.
0:23:48 You know, I said the potential for good here is infinite and the potential for bad is 10 times, right?
0:24:06 And what I mean is there are lots of ways in which this obviously empowers people to do things that they were going to be otherwise stuck in the mundane process of learning to code and then figuring out how to make the code work and bring it to market and all of that.
0:24:09 And this solves a lot of those problems, and that’s obviously a good thing.
0:24:15 Really, what we should want is the wealth creation object as quickly as we can get there.
0:24:28 But the problem is, you know, as much as it – that hyper-creative individual is empowered to make wealth, the person who is interested in stealing may be even more empowered.
0:24:32 And I’m concerned about that at a pretty high level.
0:24:39 The abuse cases may outnumber the use cases, and we don’t have a plan for what to do about that.
0:24:45 Can I give you a quick, like, introduction here, like the optimistic view?
0:24:50 OpenAI invented – the first version of GPT came out in 2019.
0:24:53 2020 was GPT-2.
0:25:01 And so OpenAI, you know, now they get a lot of criticism and lawsuit from Elon Musk that they’re no longer open source, right?
0:25:01 Right.
0:25:02 They used to be.
0:25:20 The reason is, in GPT-2, they said, we are no longer going to open source this technology because it’s going to create opportunities for abuse such as, you know, influencing elections, you know, stealing, you know, grandma’s credit card and so on and so forth.
0:25:27 Wouldn’t you say, Brett, that it is kind of surprising how little abuse we’ve seen so far?
0:25:31 I don’t know how much abuse we’ve seen so far.
0:25:32 I don’t know how any of us do.
0:25:44 And I also – even the example that you suggest where ChatGPT is no longer open source to prevent abuse, I’m taking their word for it that that’s the motivation.
0:26:01 Where as a systems theorist, I would say, well, if you had a technology that was excellent at enhancing your capacity to wield power, then open sourcing it is a failure to capitalize on that.
0:26:15 And that the most remunerative use is to keep it private and then either sell the ability to manipulate elections to people who want to do so or sell the ability to have it kept off the table for people who don’t.
0:26:18 And I would expect that that’s probably what’s going on.
0:26:31 There’s no – if you have a technology as transformative as this, giving it away for free is counterintuitive, which leaves those of us in the public more or less at the mercy of the people who have it.
0:26:36 And I don’t see the reason for comfort there.
0:26:53 We are at the dawn of this radical transformation of humans that by its very nature as a truly complex and emergent innovation, nobody on earth can predict what’s going to happen.
0:26:55 We can – we’re on the event horizon of something.
0:27:02 And the problem is, you know, we can talk about the obvious disruptions, the job disruption, and that’s going to be massive.
0:27:10 And does that lead some group of elites to decide, oh, well, suddenly we have a lot of useless eaters and what are we going to do about that?
0:27:13 Because that conversation tends to lead somewhere very dark very quickly.
0:27:22 But I think that’s just the beginning of the various ways in which this could go wrong without the Doomer scenarios coming into play.
0:27:28 This is an uncontrolled experiment in which all of humanity is downstream.
0:27:38 So I was trying to make the point that OpenAI has been sort of wrong about the sort of how big of a potential for harm it is.
0:27:46 Like, you know, I think we would have heard about it in the news, like the sort of how much harm it’s done.
0:27:48 Maybe, you know, some of it is working in the shadows.
0:27:59 But, like, the few incidents that we’ve heard about where, you know, the cause of LLMs, large language models, the technology that’s powering ChatGPT, has been huge headliners.
0:28:10 Like, New York Times talked about this kid that was, you know, perhaps goaded by some kind of chat software that, you know, helps teenagers to be less lonely into suicide, which is tragic.
0:28:16 And, obviously, these are the kind of safety and abuse issues that we want to worry about.
0:28:19 But these are kind of these isolated incidents.
0:28:23 And we do have open source large language models.
0:28:25 Obviously, the thing that everyone talks about is DeepSeq.
0:28:28 DeepSeq is coming from China.
0:28:30 So what is DeepSeq’s incentive?
0:28:36 You know, perhaps the incentive is to destroy the AI industry in the U.S.
0:28:42 You know, when they released DeepSeq, you know, the market tanked, the market for NVIDIA, the market for AI, and all of that.
0:28:44 But there is an incentive to open source.
0:28:46 Meta is open sourcing LLAMA.
0:28:49 LLAMA is another AI similar to ChatGPT.
0:28:57 The reason they’re open sourcing LLAMA, and Zuckerberg just says that out loud, is basically they don’t want to be beholden to open AI.
0:29:00 They don’t sell AI as a service.
0:29:02 They use it to build products.
0:29:06 And there’s this concept in business called commoditize your complement.
0:29:13 Because you need AI as a technology to run your service, the best strategy to do is to open source it.
0:29:20 So these market forces are going to create conditions that I think are actually beneficial.
0:29:22 So I’ll give you a few examples.
0:29:29 One is, first of all, the AI companies are motivated to create AI that is safe so that they can sell it.
0:29:38 Second, there are security companies investing in AIs that allows them to protect from the sort of malicious acting of AI.
0:29:40 And so you have the free market.
0:29:41 And we’ve always had that, you know.
0:29:50 But generally, as humanity, we’ve been able to leverage the same technology to protect against the sort of abuse.
0:29:53 So I don’t really understand this.
0:30:02 And maybe this is actually, this is the exact discussion that you would expect between somebody at the frontier of the highly complicated, staring at a complex system,
0:30:08 and a biologist who comes from the land of the complex and is looking back at highly complicated systems.
0:30:13 In game theory, we have something called a collective action problem.
0:30:26 And in the market that you’re describing, an individual company has no capacity to hold back the abuses of AI.
0:30:28 The most you can do is not participate in them.
0:30:34 You can’t stop other people from programming LLMs in some dangerous way.
0:30:40 And you can limit your own ability to earn based on your own limitations of what you’re willing to do.
0:30:44 And then effectively what happens is the technology gets invented anyway.
0:30:47 It’s just that the dollars end up in somebody else’s pocket.
0:30:54 So the incentive is not to restrain yourself so that you can at least compete and participate in the market that’s going to be opened.
0:31:02 And so the number of ways in which you can abuse this technology, let’s take a couple.
0:31:18 What is to stop somebody from training LLMs on an individual’s creative output and then creating an LLM that can outcompete that individual,
0:31:23 can effectively not only produce what they would naturally produce over the course of a lifetime,
0:31:28 but can extrapolate from it and can even hybridize it with the insights of other people.
0:31:37 So that effectively those who have the LLM can train it on the creativity of others, not cut them in on the use of that insight.
0:31:46 You can effectively end up putting yourself out of business by putting your creative ideas in the world where they get sucked up as training data for future LLMs.
0:31:50 That is unscrupulous, but it’s effectively guaranteed.
0:31:51 In fact, it’s already happened.
0:31:53 So that’s a problem.
0:32:04 And likewise, what would stop somebody from interacting with an individual and training an LLM to become like a personalized con artist,
0:32:06 something that would play exactly to your blind spots?
0:32:07 Well, that does happen.
0:32:08 That is starting to happen.
0:32:16 People get phone calls and it sounds like their daughter and I’ve lost my phone and I’m borrowing a friend’s phone and all of that sort of stuff.
0:32:20 What’s interesting is that I think you make a really good point.
0:32:23 I worry about the impact on society.
0:32:33 And yet when I look at every single individual who uses AI regularly, it almost has nothing but profoundly positive impact on their life.
0:32:48 I look at people like I was just spending some time with my parents-in-law who are in their 70s and early 80s and they use AI regularly for all sorts of things that they find incredibly valuable and that improves the quality of their life.
0:32:58 I personally did an M&A, a mergers and acquisitions deal where I bought a company last year and the AI was so powerful at helping that process.
0:33:07 The conversations were transcribed and they were turned into letters of intent and then press releases and legal documents.
0:33:17 And we probably shaved $100,000 worth of costs and we sped up the whole process and it was pretty magical to see how it could happen.
0:33:23 With that said, you know, there’s all of these like, well, $100,000 worth of lawyers didn’t get paid, right?
0:33:29 Well, what I want to know, yeah, I can all agree that’s all right.
0:33:42 But if we look back at the invention of the cell phone or the invention of the social media platforms, there would be every reason to have exactly the same perspective, right?
0:33:55 I remember the idea that suddenly the process that used to afflict people where you would just lose touch with most of the people who had been important to you, that was not something that needed to happen anymore.
0:34:04 You could just retain them permanently as a part of a diffuse social grouping that just simply grew and value was added.
0:34:13 There’s no end to how much good that did, but what it did to us was profound and not evident in the first chapter.
0:34:27 Say the same thing about the cell phones and the dopamine traps and the way this has disconnected us from each other, the way it has disconnected us from nature, the way it has altered the very patterns with which we think.
0:34:32 It has altered every classroom.
0:34:40 And those things, I think, are going to turn out to have been sort of minor foreshadowings of the disruption that AI will produce.
0:34:42 So I agree with you.
0:34:46 Today, the amount you can do with AI is a tremendous amount of good.
0:34:47 There’s a little bit of harm.
0:34:48 Maybe that’s something we need to worry about.
0:35:01 But as this develops, as we get to peer over the edge of this cliff that we’re headed to, I think we’re going to discover that we can’t yet detect the nature of the alteration that’s coming.
0:35:11 I just wanted to add some context to that because, Amjad, I saw the interview you did in a newsletter in 2023 where you said, I wouldn’t prepare for AGI in the same way that I wouldn’t prepare for the end of days.
0:35:20 It’s effectively the end of days if the vision of AGI that some of these companies have comes to bear because it’s called a singularity moment because you can’t really predict what happens after that.
0:35:23 And so, like, how would you even prepare for that?
0:35:36 And you want to prepare for the more likely world and that world that you can actually predict is a world where, yes, there’s like a massive improvements of technology and there’s like insane compounding effects of technology and it’s pretty hard to keep up.
0:35:44 From that, it appeared that in 2023, you were saying a similar thing to Brett in terms of we can’t see around the corner here because it is a singularity.
0:35:49 So you also used AGI, Artificial General Intelligence.
0:35:52 It’d be interesting to know what your definition of AGI is so that.
0:35:52 Yeah.
0:36:18 So what I was saying there is, even if I’m wrong, that you can actually create a unbounded, seemingly conscious artificial intelligence that can entirely replace humans and can act autonomously in a way that even humans can’t act and can’t coordinate across different AIs, different data centers to take over the world.
0:36:31 So the definition of AGI is artificial general intelligence, meaning that AI can acquire new skills efficiently in the same way that humans can acquire skills.
0:36:33 Right now, AIs don’t acquire skills efficiently.
0:36:40 You know, they acquire a massive amount of energy and compute, entire data center of compute to acquire these skills.
0:36:46 And I think there’s, again, I think there’s a limit on how general intelligence can get.
0:36:54 I think for most of the time, it will be lagging in terms of what humans are capable of doing.
0:36:59 The singularity is based on this concept of intelligence explosion.
0:37:13 So once you create an AGI, once you create an artificial general intelligence, that intelligence will be able to modify its own source code and create the next version that is much more intelligent.
0:37:19 And the next version creates the next version and the next, you know, for infinity, right?
0:37:20 Within a week.
0:37:21 Within a week.
0:37:23 Perhaps within milliseconds at some point, right?
0:37:28 Because it might invent new computing substrate and all of that.
0:37:30 Perhaps it will use quantum computing.
0:37:39 And so then you have this intelligence explosion in a way that is impossible to predict how the world is going to be.
0:37:45 And what I’m saying is, this is sort of like an end of time story.
0:37:47 Like, how would you even prepare for that?
0:37:54 So if that’s coming, like, why would I spend my time preparing for, I think it’s unlikely to happen.
0:37:56 Can’t see around the corner.
0:37:59 Yeah, but I’d rather prepare what I was saying there.
0:38:11 I’d rather prepare for the more likely world in which we have access to tremendous power, but the world is not ending, and humans are still important.
0:38:16 I don’t know why you say more likely.
0:38:19 I mean, I think the structure of your argument is sound.
0:38:24 You would prepare for the world that might happen for which you can prepare.
0:38:29 There’s literally no point in trying to prepare for a world you can’t predict at all.
0:38:34 The only thing you can do is just sort of upgrade your own skills and pay attention.
0:38:50 But if I have one message for the technologists, it’s that your confidence about what this can and cannot do is misplaced because you have, without noticing, stepped into the realm of the truly complex.
0:38:58 In the truly complex, your confidence should drop to near zero that you know what’s going on.
0:38:59 Are these things conscious?
0:39:01 I don’t know.
0:39:02 But will they be?
0:39:07 Highly likely they will become conscious and that we will not have a test to tell us whether that has happened.
0:39:18 Elon Musk predicts that by 2029, we will have AI with us, AGI, that surpasses the combined intelligence of all humans.
0:39:32 And Sam Altman actually wrote a blog three months ago that I read where he said, we are confident now, Sam Altman being the founder of Open Hour, which created ChatGPT, we are confident now that we know how to build AGI as we have traditionally understood it.
0:39:53 When I put these things together, I go back to the central question of what role do humans have in this sort of professional output and GDP creation if it’s smarter than all humans combined, if Elon Musk is correct there, and it’s able to take actions across the internet and continue to learn.
0:39:57 This is like a central question that I’m hoping I can answer today, which is like, where do we go?
0:39:59 Yeah.
0:40:02 I mean, in my vision of the world, we’re in the creative seat.
0:40:11 We’re sitting there where we are controlling swarms of intelligent being to do our job.
0:40:16 You know, the way you run your business, for example, you’re sitting at a computer, you have an hour to work.
0:40:25 And you’re going to launch like a thousand SDR, you know, sales, you know, representative to go like grab as many leads as possible.
0:40:30 And you’re generating a new update on Replit for your website here.
0:40:41 And then on this side, you’re actually, you have an AI that’s crunching data about your existing business to figure out how to improve it.
0:40:44 And then these AIs are kind of somehow all coordinating together.
0:40:48 And I am trying to privilege the human.
0:40:52 Like, this is my mission is to build tools for people.
0:40:55 I’m not building tools for agents.
0:40:56 And agents are a tool.
0:41:05 And so ultimately, not only do I think that humans have a privileged position in the world and in the universe,
0:41:08 we don’t know where consciousness is coming from.
0:41:11 We don’t really have the science to explain it.
0:41:14 I think humans are special.
0:41:19 That’s one side is my belief that humans are special in the world.
0:41:25 And another side, which I understand that the technology today, and I think for the foreseeable future,
0:41:29 is going to be a function of us training data.
0:41:34 So there was this whole idea of like, what if ChatGPT generates pathogens?
0:41:36 Well, have you trained it on pathogens?
0:41:38 They were doing that kind of stuff in Wuhan, no?
0:41:44 I mean, a lot of the biotech companies are essentially using artificial intelligence.
0:41:48 Like, I can think of Abselera, I think it’s Abselera, in Canada.
0:41:56 Their whole business is using AI to create new vaccines, using artificial intelligence and bigger data sets than we’ve never had before.
0:42:00 And I know because I was very close to one of the founders of people involved in Abselera.
0:42:02 So that work is going on anyway.
0:42:07 And if we think about Wuhan, that’s, I mean, it’s quite probably well known now that it came out of a lab and people working in a lab.
0:42:11 And in that scenario, that had a huge impact and shut down the world.
0:42:19 What I’m, the central question I’d love to answer before I throw it back open to the room is, what jobs, because I know that you have this perspective,
0:42:25 what jobs are going to be made redundant in a world where I am sat here as a CEO with a thousand AI agents?
0:42:30 I was thinking of all the names of the people in my company who are currently doing those jobs.
0:42:35 I was thinking about my CFO when you talked about processing business data, my graphic designers, my video editors, et cetera.
0:42:38 So what jobs are going to be impacted?
0:42:39 Yeah, all of those.
0:42:41 So I think-
0:42:41 And what do they do?
0:42:44 You know, maybe this is useful for the audience.
0:42:51 I think if your job is as routine as it comes, your job is gone in the next couple of years.
0:43:05 So meaning if you, in those jobs, for example, quality assurance jobs, data entry jobs, you’re sitting in front of a computer and you’re supposed to click and type things in a certain order.
0:43:12 Operator and those technologies are coming to the market really quickly and those are going to displace a lot of labor.
0:43:13 Accountants?
0:43:14 Accountants.
0:43:14 Lawyers.
0:43:15 Yes.
0:43:23 I mean, I’ve just pulled a ligament in my foot and they did an MRI scan and I had to wait a couple of days for someone to look at the MRI scan and tell me what it meant.
0:43:24 Yeah.
0:43:25 I’m guessing that’s gone.
0:43:26 Yeah.
0:43:31 I think the healthcare ecosystem is hard to predict because of regulation.
0:43:35 And again, there’s so many limiting factors on how this technology can permeate.
0:43:40 It’s the economy because of regulations and people’s willingness to take it.
0:43:47 But, you know, things, unregulated jobs that are purely text in, text out.
0:43:53 If your job, you know, you get a message and you produce some kind of artifact that’s like probably text or images.
0:43:56 That job is at risk.
0:44:01 So just to give you some stats here as well, about 50% of Americans who have a college degree currently use AI.
0:44:06 The stats are significantly lower for Americans without a college degree.
0:44:13 So you can see how a splinter might emerge there and that crack will widen because people like us at this table are all messing around with it.
0:44:17 But my mum and dad in Plymouth in the southwest, rural England, haven’t got it.
0:44:18 Like they just figured out iPhones.
0:44:20 So like I got them an iPhone and now they’re like texting me back.
0:44:22 AI is a million miles away.
0:44:26 And if I start running off with my AGI and my agents, that gap is going to widen.
0:44:30 Women are disproportionately affected by automation, which is what you were talking about there.
0:44:37 With about 80% of working women in an at-risk job compared to just over 50% of men, according to the Harvard Business Review.
0:44:47 And jobs requiring only a high school diploma have an automation risk of 80%, while those requiring a bachelor’s degree have an automation risk of just 20%.
0:44:51 So we can see again how this will cause a sort of inequality.
0:45:00 It’s also a huge risk with business process outsourcing, which is essentially Western countries sending jobs to India, to the Philippines.
0:45:08 Like at the moment, millions of people have been lifted out of poverty through the ability to do those kind of business process outsourcing jobs.
0:45:09 And those are all going to go.
0:45:12 But they’re going to have 1,000 employees.
0:45:17 But also, these people are actually already transitioning to training AIs.
0:45:21 So there’s going to be a massive industry around training AIs.
0:45:22 Until they’re trained.
0:45:24 Well, no.
0:45:26 You have to continuously acquire new skills.
0:45:27 And this is what I’m talking about.
0:45:31 This is, again, if AI is a function of its data, then you need increasingly more data.
0:45:33 And by the way, we ran out of internet data.
0:45:40 I was actually thinking, interestingly, that this might not be great for the United States or the UK, the Western world, because it is going to be a leveler.
0:45:48 When our kid in India doesn’t need a Silicon Valley office and $7 million in investment to throw up a software company, basically.
0:45:48 Yeah.
0:45:54 My belief is that – so I have a more broad definition of AGI and the singularity.
0:46:03 And for me, AGI is do we have artificial general intelligence in terms of, generally speaking, can AI just do stuff that humans used to be able to do?
0:46:05 And we’ve already crossed that point.
0:46:07 We have this general intelligence that we can now all access.
0:46:11 And 800 million people a week are now using ChatGPT.
0:46:14 It’s exploded in the last three months.
0:46:22 And then, to me, a singularity, when the first tractor went out onto a farm, for me, that was a singularity moment.
0:46:26 Because everyone who worked in farming – it used to take 100 people to plough a field.
0:46:32 And now a tractor comes along and two guys with the tractor can now plough the field in just as much time.
0:46:35 And now 98 people out of 100 are completely out of a job.
0:46:39 We also always underestimate a technology.
0:46:47 If it does go on to change history, when you look back through cars, horses, planes, the Wright brothers just thought of a plane as being something the army could use.
0:46:49 We had no idea of the application.
0:46:55 So someone said to me recently, they said, when it does change the world, we underestimate the impact that it will change the world.
0:47:01 And I see people now, with their estimations of AI and AI agents, already incredibly optimistic.
0:47:06 And so if history holds here, we are undershooting the impact it’s going to have.
0:47:12 And I think this is the first time in my life where the industrial revolution analogies seem to fall a little bit short.
0:47:18 Because we’ve never seen intelligence – that’s like you could – I could think of this as a – I’m not an intelligent person on this.
0:47:21 But I could see that as like the disruption of muscles.
0:47:24 Whereas this is the disruption of intelligence.
0:47:35 That’s exactly the thing, is that what makes human beings special is our cognitive capacity and very specifically our ability to plug our minds into each other.
0:47:40 So that the sum is – or the whole is greater than the sum of the parts.
0:47:42 That’s what makes human cognition special.
0:47:55 And what we are doing is we are creating a – something that can technologically surpass it without any of the preconditions that make that a safe process.
0:47:58 So, yes, we’ve revolutionized the world how many different times.
0:47:59 It’s innumerable.
0:48:03 But, you know, we’ve made farming vastly more efficient.
0:48:10 That’s different than taking our core competency as a species and surpassing ourselves with the product of our labor.
0:48:13 I think your question is a good one.
0:48:15 Then what does become –
0:48:16 Well, we only have one thing left.
0:48:20 We have our muscles, which we got rid of in the industrial revolution.
0:48:23 And then we have our intellect, which is this digital revolution.
0:48:25 Now we’re left with emotions and agency.
0:48:33 So we essentially – the agency idea – I think we used to judge people on IQ and now IQ is the big leveler.
0:48:40 And now going forward for the next 10 years, we’re going to look at are you a high agency person or a low agency person?
0:48:44 Do you have the ability to get things done and coordinate agents?
0:48:49 Do you have the ability to start businesses or give orders to digital armies?
0:48:59 You know, and essentially these high agency people are going to thrive in this new world because they have this other thing that’s been bubbling under the surface, which is really interesting.
0:49:06 When you said agency is going to remain as an important thing, we’re sat here talking about AI agents.
0:49:12 And the crazy thing in a world of AI agents that have super intelligence is I can just tell my agent, listen, I’m going on holiday.
0:49:18 Please build me a SaaS company that spots a market opportunity, throw up the website, post it on my social media channel.
0:49:19 I’ll be in Hawaii.
0:49:27 And this new agentic world is stealing that too because now it can take action in the same way that I can browse the internet.
0:49:33 I can call Domino’s Pizza, speak to their agentic agent, organize my pizza to be there before I even wake up.
0:49:40 And in fact, predictability, you know, OpenAI now learns and Sam Altman said that they’ve expanded the memory feature.
0:49:43 So it knows every, it’s knowing more and more and more and more about me.
0:49:45 It’ll almost be able to predict what I want when I want it.
0:49:56 It’ll know Steve’s calendar, he’s arriving at the studio, make sure his cadence is on the side, make sure his iPad has the brief on it, do the brief, do the research for me and everything else.
0:49:58 So I’ll remember Brett’s birthday.
0:49:59 So when I arrive, there’ll be something.
0:50:02 In fact, it’s removing my need for any agency.
0:50:09 And, you know, again, I don’t know how to make this point so that it occurs to people what I’m really suggesting.
0:50:13 But today, maybe it’s not conscious.
0:50:16 But, well, let me put it to you this way.
0:50:22 If you’re conscious, you started out as a child that wasn’t.
0:50:28 And although this may not fully encapsulate it, you are effectively an LLM, right?
0:50:33 You go from an unconscious infant to a highly conscious adult.
0:50:44 And the process by which you do that has a lot to do with being trained effectively on words and other things in an environment in exactly the way that we now train these AIs.
0:50:52 So the idea that we can take consciousness off the table, it won’t be there until we figure out how to program it in and we’re safe because we don’t know how consciousness works.
0:50:54 I take the opposite lesson.
0:50:58 We’ve created the exact thing that will produce that phenomenon.
0:51:03 And then we can have philosophers debate whether it’s real consciousness or it just behaves exactly as if it were.
0:51:05 And the answer is those aren’t different.
0:51:05 Doesn’t matter.
0:51:08 And the same thing is true for agency.
0:51:15 You know, especially if you’ve created an environment in which these AIs are de facto competitors.
0:51:21 What you’re effectively doing is creating an evolutionary environment in which they will evolve to fill whatever niches are there.
0:51:23 And we didn’t spell out the niches.
0:51:31 So I have the sense we have created something that truly is going to function like a new kind of life.
0:51:35 And it’s especially troubling because it speaks our language.
0:51:39 So that leads us to believe it’s more like us than it is.
0:51:41 And it’s actually potentially quite different.
0:51:44 By the way, he’s the optimist here.
0:51:51 Like, he’s so optimistic about LLMs and how they’re going to evolve.
0:51:53 Yes, it’s amazing.
0:51:54 It’s amazing technology.
0:51:58 Like, I think it raised global IQ, right?
0:51:59 Like, 800 million people.
0:52:04 Like, 800 million people are that much more intelligent and emotionally intelligent as well.
0:52:10 Like, I know people who previously were very coarse and they kind of robbed people the wrong way.
0:52:14 They would say things in a not-so-polite way.
0:52:23 And then suddenly they started putting their, you know, what they’re saying through ChatGPT in order to kind of make it kinder and nicer.
0:52:24 And they’re more liked now.
0:52:31 And so not only is it making us more intelligent, but also it allows us to be the best version of ourselves.
0:52:35 And the scenario that you’re talking about, I don’t think, I don’t know what’s wrong with that.
0:52:40 Like, you know, I would want less agency in certain places.
0:52:46 Like, I would want something to help me not, you know, open up a peanut butter jar at night.
0:52:48 Right?
0:52:59 You know, there are places in my life where I need more control and I would rather cede it to some kind of entity that could help me make better choices.
0:53:14 I mean, unfortunately, even if there is some small group of elites that are able to go to Hawaii while something else does the mundane details of their business building.
0:53:25 We are rather soon going to be faced with a world that has billions of people who do not have the skills to leverage AI.
0:53:29 Some of them will be necessary for a time.
0:53:32 You’re going to need plumbers.
0:53:53 But this is also not a long-term solution because not only are there not enough of those jobs, but, of course, we have humanoid robots that, once imbued with AI capacity, will also be able to take, you know, they’ll be able to crawl under your house into the crawl space and fix your plumbing.
0:54:09 So what typically happens when you have a massive economic contraction that arises from the fact that a huge number of people are out of work is that the elites start looking at those people and thinking, well, we don’t really need them anyway.
0:54:20 And so the idea that this AI disruption doesn’t lead us to some very human catastrophe, I think, is overly optimistic and that we need to start preparing right now.
0:54:27 What are the rights of a person who has had whatever it is that they’ve invested in completely erased from the list of needs?
0:54:31 Is that person responsible for not having anticipated AI coming?
0:54:36 And is it their problem that they are now starving and they’re being eyed by others as, you know, a useless eater?
0:54:37 I don’t think so.
0:54:47 How is it different than when the, what’s it called, the looming machine came and the textile workers, you know, the result of the Luddite sort of revolution?
0:54:57 How is it different than any time in history when technology automated a lot of people out of jobs?
0:55:00 I would say scale and speed, that’s how it’s different.
0:55:14 And the scale and speed is going to result in an unprecedented catastrophe because the rate at which people are going to be simultaneously sidelined, not just in one industry but across every industry, is just simply new.
0:55:15 And it also did actually happen.
0:55:33 There was a, for the first 50 years of industrialisation from like late 1700s to early 1800s, you actually, the Charles Dickens novels are essentially people coming from the farms who were displaced, arriving in cities, kids living on the streets.
0:55:39 And the British decided to pick everyone up and send them over to Australia, which is where I came from.
0:55:46 And, you know, there were this, there was this massive issue of displacement.
0:56:00 I think we’re going to go into a high-velocity economy where rather than this long arc of career that lasts 45 years, we’re going to have these very fast careers that last 10 months to 36 months.
0:56:08 And you invent something, you take it to market, you put together a team of five to 10 people who work together, you then get disrupted.
0:56:10 Can I mention a story here?
0:56:15 There’s an entrepreneur that uses Replit in a similar way.
0:56:16 His name is Billy Howell.
0:56:19 You can find him on YouTube, on the internet.
0:56:26 He would go to Upwork and he would find what people are asking for, different requests for certain apps, technologies.
0:56:35 Then he would take what they’re asking for, put it into Replit, make it an application, call them, tell them, I already have your application.
0:56:37 Would you pay $10,000 for it?
0:56:41 And so that’s sort of an arbitrage opportunity that’s there right now.
0:56:42 That’s not arbitrage, it’s theft.
0:56:44 How is it, what is it?
0:56:45 How is it theft?
0:56:53 You have somebody who has an idea that can be brought to market and somebody else is cryptically detecting it and then selling back their own idea to them.
0:56:56 Well, they’re paying them to do that.
0:56:59 They’re saying, I will give you $500 if someone makes this for me.
0:57:00 Right.
0:57:09 But this is what I more or less think is going to happen across the whole economy is that, yes, from this perspective, we can see that everybody is suddenly empowered to build a great business.
0:57:14 Well, what do we think about the folks who are going to be displaced from the top?
0:57:25 What are they going to think about all these people building all of these highly competitive businesses and are they going to find a way to do, you know, what venture capital has done or what record producers have done?
0:57:38 What they’re going to do is they’re going to take their superior position at the top and they are going to take most of the wealth that is produced by all of these people who have these ideas that in a proper market would actually create businesses for them.
0:57:48 I think that with this introduction of AI and AI agents, old value has moved.
0:57:52 And now it’s not going to be the case that the idea itself is the moat.
0:57:55 And it’s not going to be the case that resources are the moat.
0:57:58 So in such a scenario, you still have to figure out distribution.
0:58:00 You still have to have, for example, like an audience.
0:58:11 So if you’re a podcaster now, you have a million followers on Twitter, you’re in a prime position because you now have something that the guy with a great idea with no audience has, you have inbuilt distribution.
0:58:19 So I now think actually much of the game might be moving to like, yeah, it’s still about taste and idea, but also the moat is distribution.
0:58:30 Yeah, and speaking of adaptive systems, one of the adaptations that will happen is people will seek humans and will seek proof of humanity.
0:58:50 Oh, I agree that authenticity is going to become the coin of the realm and anything that can be faked or cheated is going to be devalued and things, you know, spontaneous jazz or, you know, comedy that is interactive enough that it couldn’t possibly have been generated with the aid of AI.
0:58:54 Those things are going to become prioritized, you know, spontaneous oratory rather than speeches.
0:58:57 That answers some of your questions.
0:59:04 No, it answers my question for the tiny number of people who are in a position to do those things.
0:59:09 Steven, you used the word moat, which I think is a really important word for entrepreneurs.
0:59:10 We like have to have a moat.
0:59:13 We think a lot about moats and it’s an industrial age.
0:59:16 A lot of people don’t even know what a moat, what you mean by moat.
0:59:17 It’s just the thing that’s…
0:59:20 I often think about this idea of what are the moats that are left.
0:59:26 So to define how I define a moat, you’ve got a castle and it’s got a, like a small circle of water around it.
0:59:32 And once upon a time, that circle of water defended the castle from attack and you can pull up the drawbridge so nobody can attack you very easily.
0:59:34 It’s a defense from something.
0:59:36 So it’s your, it’s your shield.
0:59:37 It’s your, your defense.
0:59:41 And once upon a time as an entrepreneur, you know, I’ve got a software company in San Francisco called Third Web.
0:59:43 And we raised almost $30 million.
0:59:46 We have a team of 50 great developers.
0:59:52 And much of our moat was, you can’t compete with us because you don’t have the 50 developers and the $30 million in the bank.
0:59:55 How much of that $30 million went to coding?
0:59:56 The vast majority of it.
0:59:57 I mean, what else are we going to do?
0:59:58 What else?
0:59:59 This is a good thing.
1:00:01 I think moats are a bad thing.
1:00:04 Let me make the argument there.
1:00:05 So everyone’s looking for moats.
1:00:11 You know, for example, like one of the more significant moats is network effects.
1:00:21 You know, so you can’t compete with Facebook or Twitter because it, to move people from Facebook or Twitter, you need to, it’s the collective action problem.
1:00:28 You need to move them all at once because if one of them moves, then it’s, the network is not valuable.
1:00:29 They’ll go back.
1:00:30 So you have this chicken and egg problem.
1:00:36 Let’s say that we have a more decentralized way of doing social networks.
1:00:42 That will remove the power of Twitter to kind of censor.
1:00:45 And I think you’re at the other end of censorship, right?
1:00:52 And so part of my optimism about humanity is that generally there’s self-correction.
1:00:54 Democracy is a self-correcting system.
1:00:57 Free markets are largely self-correcting systems.
1:01:01 There are obvious problems with free markets that we can discuss.
1:01:06 But take health, you know, there is obesity epidemic.
1:01:22 This period of time when companies, you know, ran loose kind of making this sugary, salty, fatty kind of snacks and everyone gorged on them and everyone got very, you know, unhealthy.
1:01:24 And now you have Whole Foods everywhere.
1:01:27 Today, people in Silicon Valley, they don’t go to bars at all.
1:01:29 They go to running clubs.
1:01:30 That’s how you meet.
1:01:32 That’s how you go find a date.
1:01:33 You go to running clubs.
1:01:38 And so there was a shift that happened because there was a reaction.
1:01:41 Obviously, cigarettes is another example.
1:01:44 You know, you were talking about phones and our addiction to phones.
1:01:46 And I see a shift right now.
1:01:53 Like, in my friend circle, like, people who are constantly kind of on their phones is already kind of frowned upon.
1:01:57 And they don’t want to hang out with you because you’re constantly staring on your phone.
1:01:58 So there’s always these reactions.
1:02:03 But the problem is you reference self-correction.
1:02:07 And I agree that there’s actually an automatic feature of the universe in which the self-correction happens.
1:02:12 You can’t have a positive feedback that isn’t reined in by some outer negative feedback.
1:02:25 But the corrections, the list of corrections involves things like you point to where people become enlightened and they realize that they’re doing themselves harm with either the sugar that they’re consuming or the dopamine traps on their phone.
1:02:27 And they get better.
1:02:35 But also on the list of corrective patterns are genocide and war and, you know, parasitism.
1:02:41 And the problem is these things are destructive of wealth.
1:02:50 And so you allude to the superior fact of an open market without moats.
1:02:56 Presumably the benefit of that is that more wealth gets created because people aren’t kept from doing things that are productive.
1:02:57 I see that.
1:03:03 But then what is the product of all of this new wealth that is going to be generated by a world empowered by AI?
1:03:12 Does it end up so highly concentrated that you have a tiny number of ultra elites and a huge number of people who are utterly dependent on them?
1:03:14 What becomes of those people?
1:03:21 The learning process, the self-correction process, goes through harm in order to get to that more enlightened solution.
1:03:31 There’s nothing that protects us from the harm phase being so apocalyptically terrible that, you know, we get to the other side of it and we say, well, that was a hell of a correction.
1:03:33 Or maybe there’s nobody there to even say that.
1:03:34 Those are also on the table.
1:03:40 It reminds me of a mousetrap where you see the cheese and we’re going, oh, my God, my grandmother is going to be able to do some research.
1:03:41 And, oh, my God, my life is going to get easier.
1:03:45 So you head closer and closer to the cheese and then snap.
1:03:57 And historically, if we look at all of the last 10,000 years, it’s a very small number of elites who own absolutely everything and a very large number of serfs and peasants who have a subsistence living.
1:04:04 You know, if the elites are too greedy and they freeze out the peasants at too high a level and they try to use brutality.
1:04:05 Pitchforks.
1:04:05 Yeah.
1:04:07 Eventually, it comes back to haunt them.
1:04:13 And so what you get is a recognition that you need a system that does balance these things.
1:04:16 And, you know, the West has the best system that we’ve ever seen.
1:04:19 It’s one in which we agree on a level playing field.
1:04:20 We never achieve it.
1:04:22 But we agree that it’s a desirable thing.
1:04:25 And the closer we get to it, the more wealth we create.
1:04:45 But, again, if AI empowers those with ill intent at a higher rate that it empowers those who are wealth-creating and pro-social, we may be in for a massive regression in how fair the market that the West is.
1:04:48 Is that your top concern versus economic displacement?
1:04:51 I think they’re the same thing.
1:04:53 How are they the same thing?
1:04:57 Because the economic displacement is going to start.
1:05:03 I don’t know how many million people are going to be displaced from their jobs in the U.S.
1:05:08 Suddenly, we’re going to have a question about whether or not we have obligations to them.
1:05:09 You agree with that, don’t you?
1:05:10 Yes.
1:05:12 But, again, it’s no pain, no gain.
1:05:15 I mean, we’re going to go through a period of disruption.
1:05:21 And I think at the other end, the old sort of oppressive systems will be broken.
1:05:24 And we’re going to create perhaps a fair world.
1:05:26 But it’s going to have its own problems.
1:05:29 And what’s the scale of that disruption in your estimation?
1:05:35 It’s hard to say because, you know, there’s this concept of limiting factors.
1:05:38 Like, you know, there is regulation.
1:05:41 There’s the appetite of people today.
1:05:47 For example, the health care system is very resistant to innovation because of regulation, you know?
1:05:48 And that’s a bad thing.
1:06:01 On the regulation point, it’s worth saying that when Trump came into power, he signed in a new law, which is called removing barriers to American leadership in AI, which revokes previous AI policies that were deemed to be restrictive.
1:06:05 And obviously, when you think about where the funding is going in AI, it’s going to two places.
1:06:08 It’s going to America, and it’s basically going to China.
1:06:10 That’s the vast majority of investment.
1:06:15 So with those two in competition, any regulation that restricts AI in any way is actually self-sabotage.
1:06:19 And this is, you know, I live in Europe some of the time.
1:06:30 And it’s already annoying to me that when Sam Altman and OpenAI released the O3 model, this new incredible model, it’s not in Europe because Europe has a regulation which prevents it from coming to Europe.
1:06:34 So we’re now at a competitive disadvantage, which Sam Altman’s spoken about.
1:06:43 And more broadly on this point of disruption, I was quite unnerved when I heard that Sam Altman’s other startup was called WorldCoin.
1:07:01 And WorldCoin was conceived with the goal of facilitating universal basic income, i.e., helping to create a system where people who don’t have money are given money by the government just for being alive to help them cover their basic food and housing needs.
1:07:13 Which suggests to me that the guy that has bought the biggest AI company in the world can see something that a lot of us can’t see, which is there’s going to need to be a system to just hand out money to people because they’re not going to be able to survive otherwise.
1:07:15 I fundamentally disagree with that.
1:07:16 Which part do you disagree with?
1:07:20 I disagree that, first of all, that humans would be happy with UBI.
1:07:29 I think that, you know, a core value of humans, and be curious about the evolutionary reasons, is we want to be useful.
1:07:36 It’s really important to know that a lot of the jobs that are at risk are the most high-status, highly-paid jobs in the world.
1:07:40 Let’s take the highest-paid job in America, which is an anesthesiologist.
1:07:44 This is the highest-paid job.
1:07:45 Highest-paid, salaried job.
1:07:46 Salaried job, yeah.
1:08:02 And the majority of that job is observing a patient, knowing which type of medication would work best with their body, giving them the exact right amount, monitoring the impact of that on the body, and then making slight adjustments.
1:08:06 The right technology and any nurse will be able to do that job.
1:08:23 And you might have one anesthesiologist on site supervising 10, 20, 30, 40 wards, and the technology is, you know, doing the job, but that one person is there just to kind of supervise if something went wrong or if there was an ethical dilemma.
1:08:24 What’s wrong with that?
1:08:26 I mean, if the precision is better with AI.
1:08:35 Oh, no, there’s nothing wrong with that except for the fact that a lot of people, hundreds of thousands of people, have spent their entire life training to be that.
1:08:40 They get an enormous amount of purpose and satisfaction about the fact that that’s their career, that’s their job.
1:08:41 They have mortgages.
1:08:42 They have houses.
1:08:43 They have status.
1:08:44 And that’s about to go away.
1:08:47 Well, if it’s highest-paid jobs, maybe you should start saving.
1:09:14 Well, I mean, but I hear you, but you’re talking about people who have done vital work, highly specialized work, and are therefore not in a great position to pivot based on the invention of a technology that they didn’t see coming because, frankly, I mean, in the abstract, maybe we all saw AI coming somewhere down the road.
1:09:19 But we did not know that it was going to suddenly dawn, and we do have to figure out what to do with those people.
1:09:27 It’s not their fault that they’ve suddenly become obsolete, and it’s inconceivable that people will accept this.
1:09:31 It is fundamentally incompatible with our nature.
1:09:43 We have to have things to strive for, and you can sustain life that way, but you cannot sustain a meaningful existence, and so it’s a short-term plan at best.
1:09:45 Let’s talk about meaning.
1:09:48 On that point of job displacement, this is already happening.
1:10:07 Klarna, CEO, who has been on this podcast before, a great guy, said to, on a blog post that they published on Klarna’s website, saying that they now have AI customer service agents handling 2.3 million chats per month, which is equal to having to hire 700 full-time people to do that.
1:10:14 So they’ve already been able to save on 700 customer service people by having AI agents to do that.
1:10:17 And they actually got rid of those 700 jobs, right?
1:10:19 I don’t have that information in front of me, but I’ll have a look.
1:10:23 I’ll throw it up on screen for anyone that wants context on that.
1:10:24 But that’s already happening.
1:10:26 This isn’t an anesthetologist or something.
1:10:29 And these aren’t high-paid people in every case.
1:10:30 We’ve done something similar, by the way.
1:10:36 Internally, we’ve replaced that function for 70%.
1:10:40 I mean, our company, we’re 65 people.
1:10:46 And we make millions per head.
1:10:49 Are you going to need to hire more people to get up to?
1:10:51 I think so, but we’re hiring slowly.
1:10:58 We’re using customer support AI, and that meant that we need less customer support.
1:11:01 We’re trying to leverage AI as much as possible.
1:11:07 Well, the person in HR at Replit writes software using Replit.
1:11:08 So I’ll give you an example.
1:11:12 She needed org charts software.
1:11:17 And she looked at a bunch of them, got a lot of demos, and they’re all very expensive.
1:11:20 And they’re missing the kind of features that she wants.
1:11:22 For example, she wanted, like, version control.
1:11:25 She wanted to know when something changed and to go back in history.
1:11:30 She went into Replit, and in three days, she got exactly the kind of software that she wants.
1:11:31 And what was the cost?
1:11:34 You know, perhaps $20, you know, something like that, $20, $30.
1:11:36 Once, right?
1:11:39 And how many employees in HR do we need?
1:11:40 Right now, we have two.
1:11:47 If they’re highly levered like that, maybe we do not need a 20 HR team.
1:11:54 On this point of meaning, I’ve heard so many billionaires in AI describe this as the age of abundance.
1:11:58 And I’m not necessarily sure if abundance is always a great thing.
1:12:10 Because, you know, when we look at mental health and we look at why, how people derive their meaning and their purpose in life, much of it is having something to strive towards and some struggle in a meaningful direction to you.
1:12:12 And this is maybe adjacent.
1:12:17 But when there was a study done, I think it was in Australia, where they looked at suicide letters.
1:12:24 And in the suicide letters, the sentiment of men in those suicide letters was they didn’t feel worthy.
1:12:26 They didn’t feel like they were worth it.
1:12:29 They didn’t feel like they were needed by their families.
1:12:33 And this is much of what caused their psychological state.
1:12:44 And I wonder in a world of abundance where we, you know, a lot of these AI billionaires are telling us that we’re going to have so much free time and we’re not going to need to work if there is at all going to be a crisis of meaning, a mental health problem.
1:12:46 I mean, there already is.
1:12:49 And it doesn’t require AI and it’s going to get worse.
1:13:01 I don’t know what to do about it because essentially as human beings, we are built, like all organisms, to find opportunity and figure out how to exploit it.
1:13:02 That’s what we do.
1:13:05 And the world you’re describing is really the opposite of that.
1:13:24 It’s one where you’re effectively having your biological needs at the physiological level satisfied and there isn’t an obvious place for your spare time, if that’s what you end up with, to be utilized in something that, you know, there’s no place to strive.
1:13:40 And I do imagine almost at best what would happen is you have people who are being sustained by a universal basic income and then parasitized, you know, whatever currency they have to spend.
1:13:48 Somebody will be targeting it and they will be targeting it with an AI augmented system that spots their defects of character.
1:13:57 I mean, again, we’re already living in this world, but it will be that much worse when the AI is figuring out, you know, what kind of porn to target you with specifically.
1:14:00 That’s a nightmare scenario.
1:14:15 And I do think it would be worth our time as a species to start considering if we are about to find ourselves in this situation and we find some way of dealing with the basic needs of the large number of people who are going to be sidelined.
1:14:27 What would a world have to look like in order for them to have real meaning, not pseudo meaning, not something that, you know, superficially, you know, a video game is not meaning, even if it feels very meaningful in the moment.
1:14:32 I think that would be a worthy investment for us to figure out how to produce it.
1:14:38 But frankly, I’m not expecting us to either have that conversation or get very far down that road.
1:14:44 I think it’s much more likely that we will squander the wealth dividend that will be produced by AI.
1:14:50 Interestingly, you also see in Western countries that when we get more abundance, we start having less kids.
1:14:56 And we’re already seeing this sort of population decline in the Western world, which is kind of scary.
1:14:58 And I think it’s often associated with affluence.
1:15:03 The more money someone makes, the less likely they are to want to have children, the more they try and protect their freedoms.
1:15:07 But also on this point of AI, relationships are hard.
1:15:13 You know, my girlfriend is happy sometimes and not happy other times.
1:15:17 And I have to, like, you know, go through that struggle with her of, like, working on the relationship.
1:15:19 Children are hard.
1:15:28 And if we are optimizing ourselves, and, you know, much of the reason that I sustain the struggle with my girlfriend is, I’m sure, from some evolutionary reason, because I want to reproduce.
1:15:29 And I want to have kin.
1:15:40 But if I didn’t have to deal with the struggle that comes with human relationships, romantic or platonic, there’s going to be a proportion of people that actually choose that outcome.
1:15:44 And I wonder what’s going to happen to birth rates in such a scenario, because we’re already struggling.
1:15:55 We’re already in a situation where we used to be having five children per woman in the 1950s to about two in 2021.
1:15:57 And we’re seeing a decline.
1:16:03 If you look at South Korea, their fertility rate has fallen to 0.72, the lowest recorded globally.
1:16:08 And if this trend continues, the country’s population could half by 2,100.
1:16:13 So, yeah, relationships, connections.
1:16:22 And also, I guess we’ve got to overlay that with the loneliness epidemic, which is they promised us social connection when social media came about.
1:16:25 When we got Wi-Fi connections, the promise was that we would become more connected.
1:16:38 But it’s so clear that because we spend so long alone, isolated, having our needs met by Uber Eats drivers and social media and TikTok and the internet, that we’re investing less in the very difficult thing of, like, going and making a friend.
1:16:40 And, like, going and finding a girlfriend.
1:16:42 Young people are having sex less than ever before.
1:16:51 Everything that is associated with the difficult job of making in-real-life connections seems to be falling away.
1:17:02 I’ll make the case that everything that we’ve discussed here, all the negative things around loneliness, around meaning, they’re already here.
1:17:07 And I don’t think blaming technology for all of it is the right thing.
1:17:17 Like, I think there are a lot of things that happened because of existing human, you know, impulses and motivations.
1:17:25 Well, I wanted to go back to where you started because I do think that this maybe is the fundamental question.
1:17:30 Why is it that we are already living in a world that is not making us happy?
1:17:32 And is that the responsibility of technology?
1:17:34 And I don’t think it’s exactly technology.
1:17:44 Human beings among our gifts are fundamentally technological, whether we’re talking about quantum computing or flintknapping an arrowhead.
1:17:57 What has happened to us that has created the growing, spreading, morphing dystopia is a process that Heather and I in our book,
1:18:00 A Hunter-Gatherer’s Guide to the 21st Century, call hypernovelty.
1:18:10 Hypernovelty is the fact of the rate of change outpacing our capacity to adapt to change.
1:18:17 And we are already well past the threshold here where the world that we are young in is not the world that we are adults in.
1:18:22 And that mismatch is making us sick across multiple different domains.
1:18:31 So the question that I ask is, is the change that you’re talking about going to reduce the rate of change?
1:18:39 In which case, we could build a world that would start meeting human needs, better open opportunities for pursuing meaningful work.
1:18:45 Or is it going to accelerate the rate of change, which is, in my opinion, guaranteed to make us worse off?
1:18:49 So if it was a one-time shift, right, AI is going to dawn.
1:18:51 It’s going to open all sorts of new opportunities.
1:18:53 There’s going to be a tremendous amount of disruption.
1:18:55 But from that, we’ll be able to build a world.
1:18:57 Is that world going to be stable?
1:19:01 Or is it going to be just, you know, one event horizon after the next?
1:19:09 If it’s the latter, then it effectively says what it does to the humans, which is it’s going to dismantle us.
1:19:14 When I look out at society, I go, okay, it’s having a negative impact.
1:19:20 When I look at individual use cases, it’s having a profoundly positive impact, including for me.
1:19:22 It’s having a very positive impact.
1:19:31 So it’s one of these things where I wonder, what is it that we need to teach people at school so that they understand the world that we’re going into?
1:19:46 Because one of the biggest issues that we’re having is that we’re sending kids to school with this blueprint, this template, that they’re going to have this long arc career that no longer exists, that essentially we’re treating them like learning LLMs.
1:19:49 And we’re saying, okay, we’re going to prompt you.
1:19:50 You’re going to give us the right answer.
1:19:56 You’re going to hallucinate it if possible and, you know, and then we go, okay, now go off into the world.
1:19:57 And they go, oh, but wait a second.
1:19:58 I don’t know how money works.
1:19:59 I don’t know how society works.
1:20:01 I don’t know how my brain works.
1:20:04 I don’t know how I’m meant to handle this novelty problem.
1:20:09 I’m not sure how to approach someone in a social situation and ask if they want to go on a date.
1:20:20 So all the important things that actually are the important milestones that people want to be able to hit and that technology can actually have an impact on, we get no use of manual.
1:20:31 So I think one of the biggest things that has to happen is we have to equip young people all through school to actually prepare them for the world that’s coming or the world that’s here.
1:20:37 Well, on the one hand, I think you outlined the problem very well.
1:20:45 Effectively, we have a model of what school is supposed to do that, you know, at best was sort of a match for the 50s or something like that.
1:20:51 And it woefully misses the mark with respect to preparing people for the world they actually face.
1:21:01 If we were going to prepare them, I would argue that the only toolkit worth having at the moment is a highly general toolkit.
1:21:09 The capacity to think on your feet and pivot as things change is the only game in town with respect to our ability to prepare you in advance.
1:21:20 Maybe the other auxiliary component to that would be teaching you what we know, which is frankly not enough, about how to live a healthy life, right?
1:21:34 If we could induce people into the kinds of habits of behavior and consumption of food and then train them to think on their feet, they might have a chance in the world that’s coming.
1:21:40 But the fly in the ointment is we don’t have the teachers to do it.
1:21:41 We don’t have people who know.
1:21:52 And that is the question is could the AI actually be utilized in this manner to actually induce the right habits of mind for people to live in that world?
1:21:55 I spend a lot of time in education technology.
1:22:04 One thing that is, as we say on the internet, a black pill about education in general, education intervention, is there’s a lot of data.
1:22:12 That shows that there are very little interventions you can make in education to generate better outcomes.
1:22:24 And so there’s been a lot of experiment around pedagogy, around how to configure the classroom that have resulted in very marginal improvements.
1:22:34 There’s only one intervention, and this has been reproduced many times, that creates two sigma, two standard deviation positive outcomes in education.
1:22:39 Meaning you’re better than 99% of everyone else.
1:22:42 And that is one-on-one tutoring.
1:22:43 I thought so.
1:22:45 I was going to say smaller classrooms and personalization.
1:22:46 One-on-one tutoring, yeah.
1:22:54 And by the way, if you look, someone also did a survey of all the geniuses, the understanders of the world, and found that they all had one-on-one tutoring.
1:22:58 They all had someone in their lives that took interest in them and tutored them.
1:23:04 So what can create one-on-one tutoring optionally for every child in the world?
1:23:05 AI.
1:23:06 Yeah.
1:23:08 My kids use it, and it’s incredible.
1:23:08 Yeah.
1:23:13 As in, like, they’re interacting, and it’s adapting to their speed.
1:23:13 Yes.
1:23:16 And it’s giving them different analogies to work with.
1:23:25 So, like, you know, my son was learning about division, and it’s asking him to smash glass and how many pieces he smashes it into with this hammer.
1:23:28 And, you know, and it’s saying things like, no, Xander, go for it.
1:23:29 Really smash it.
1:23:31 And he’s loving it, right?
1:23:32 Is that synthesis?
1:23:33 Yeah.
1:23:33 Yeah.
1:23:34 I’m an investor in this guy.
1:23:40 Oh, well, it’s great to watch that simulated one-on-one tutoring because it’s talking to him.
1:23:42 It’s asking him questions.
1:23:43 Brett, you’re an educator.
1:23:47 You spent much of your life teaching people in universities.
1:23:50 How do you receive all of this?
1:23:56 Well, on the one hand, I agree that the closer to one-to-one you get, the better.
1:24:01 But I also personally believe that zero-to-one is best.
1:24:13 And what I mean by that is part of what’s gone wrong with our educational system is that it is done through abstraction.
1:24:22 And effectively, the arbiter of whether you have succeeded or failed in learning the lesson is the person at the front of the room.
1:24:27 And that’s okay if the person at the front of the room is truly insightful.
1:24:32 And it’s terrible if the person at the front of the room is lackluster, which happens a lot.
1:24:40 So what doesn’t work that way is interaction with the physical world in which nobody has to tell you whether you’ve succeeded or failed.
1:24:46 If you’re faced with an engine that doesn’t start, you can’t argue it into starting.
1:24:49 You have to figure out what the thing is that has caused it to fail.
1:24:54 And then there is a great reward when you alter that thing and suddenly it fires up.
1:25:02 So I’m a big fan of being as light-handed as possible and as concrete as possible in teaching.
1:25:09 In other words, when I’ve done it, and not just with students but with my own children, I like to say as little as possible.
1:25:15 And I like to let physical systems tell the person when they’ve succeeded or failed.
1:25:19 And that creates an understanding you can extrapolate from one system to the next.
1:25:23 And you know that you’re not just extrapolating from one person’s misunderstanding.
1:25:26 You’re extrapolating from the way things actually work.
1:25:31 So I don’t know if AI can be leveraged in that context.
1:25:35 My sense is there’s probably a way to do it, but one would have to be deliberate about it.
1:25:38 Especially with robotics and humanoid robots.
1:25:43 Actually, that is the place where you can do this is with robotics.
1:25:48 That, it seems to me, yeah.
1:25:52 Well, robotics will teach you the physical computing part of it.
1:26:07 And then the question is how do you infuse this with AI so that it is, you know, it provokes you out of some eddy where you’re caught and moves you into the ability to solve some next-level problem that you wouldn’t have found on your own.
1:26:11 What do you think should be taught in the classroom with everything that you now know?
1:26:13 Well, you’re all fathers here.
1:26:15 You all have your own children.
1:26:17 So it’s a good question.
1:26:17 Yeah.
1:26:19 How old are your kids?
1:26:19 How old are your kids?
1:26:21 Three and five.
1:26:22 19 and 21.
1:26:24 And six, seven, and 10.
1:26:28 My children are very young, but we already do use AI.
1:26:33 And I sit down with them in front of Repli and we generate ideas and make games.
1:26:37 And I would say, you know, what Brett said about generality is very important.
1:26:40 The ability to pivot and kind of learn skills quickly.
1:26:43 Being generative is very, very important.
1:26:49 Having a, you know, a fast pace of generating ideas and iterating of those ideas.
1:26:53 We sit down in front of ChatGPT and my kid imagines scenario.
1:26:56 Oh, what if, you know, there’s a cat on the moon?
1:26:59 And then, you know, what if the moon is made of cheese?
1:27:01 And what if there’s a mouse inside it?
1:27:07 And so we keep generating these variations of these different ideas.
1:27:11 And I find that, you know, makes them more imaginative and creative.
1:27:17 Rule number one that I tell my kids is stay away from porn at all costs.
1:27:19 I’d rather you have a drug problem than a porn problem.
1:27:20 And I actually mean that.
1:27:25 I think porn is more dangerous to the human being, as bad as a drug problem is.
1:27:35 But when we get to the question of how to confront the world and the things that you’re going to be expected to do in the workplace and all of that,
1:27:48 my point to them is you are facing the dawning of the age of complex systems that you are going to have to interact with.
1:27:54 And in the age of complex systems, you have to understand that you cannot blueprint a solution.
1:28:07 And you have to approach these systems with a upgraded toolkit of humility because the ability of the system to do something you don’t predict is much greater than a highly complicated system.
1:28:15 So you have to anticipate that and be very sensitive to the fact that what you intended to happen is not what’s going to happen.
1:28:24 So you have to monitor the unintended consequences of whatever your action is and that there are really two tools which work, one of which you just mentioned, which is the prototyping.
1:28:26 You prototype things.
1:28:29 You don’t imagine that I know the solution to this and I’m going to build it.
1:28:32 You imagine, I think there’s a solution down there.
1:28:35 I’m going to make a proof of concept and then I’m going to discover what I don’t know.
1:28:38 And I’m going to make the next version, discover what I don’t know.
1:28:42 And eventually you may get to something that actually truly accomplishes the goal.
1:28:44 So prototyping is one thing.
1:28:50 And also, instead of using the blueprint as the metaphor in your mind, navigate.
1:28:52 You can navigate somewhere.
1:29:02 And, you know, the way I think of it is a surfer is in some ways mastering a complex system.
1:29:05 But they’re not doing it by planning their days surfing down the waves.
1:29:06 You can’t do that.
1:29:15 What you can do is you can be expert at absorbing feedback and navigating your way down the wave and that that’s the right approach for a complex system.
1:29:16 Nothing else is going to work.
1:29:23 And so I guess the final piece is general tools always, no specialization.
1:29:28 This is the age of generalists and invest in those tools and they will pay.
1:29:34 So the guiding philosophy for me is to produce high agency generalists.
1:29:41 Ultimately, I want them to be motivated, self-starters, and have a wide general toolkit.
1:29:48 I imagine them very much what you imagine, which is instructing robots, instructing agents, coming up with ideas.
1:30:00 And I imagine them having a very high velocity life where they may be writing a book, organizing a festival, having a podcast, starting a business, and being part of somebody else’s business all at once.
1:30:01 As they are of the ADHD.
1:30:02 Yeah.
1:30:07 So the high agency generalist is the kind of guiding philosophy.
1:30:10 Some of the things that we do is like we do chess.
1:30:11 We do Brazilian jiu-jitsu.
1:30:12 We do dancing.
1:30:19 We do acting classes, playing in nature, entrepreneurship, understanding that you can start a lemonade.
1:30:21 We just did lemonade stands, which was amazing.
1:30:23 We sold lots of lemonade on the street.
1:30:34 So those kind of things and jumping from one thing to the next thing, but also trying to avoid too many screens and forcing them into making stuff from what’s going on around the house.
1:30:44 Some distinctions that we try and give them is the difference between creating and consuming, because I think AI has this superpower of making you a hyper-consumer or a hyper-creator.
1:30:59 And if you don’t understand the distinction between creation and consumption, you end up falling into the consumption trap, whether it be porn or just news or things that feel like you’re productive, but you’re actually just consuming stuff.
1:31:01 Wouldn’t that be the most successful AI?
1:31:04 The one that plays with my dopamine the most?
1:31:11 Yeah, and makes you think that you’re achieving something when you’re actually just consuming something.
1:31:18 So trying to give them the understanding that there is this difference in their life between creation and consumption and to be on the creation side.
1:31:25 I started my first business at 12 years old, and I started more businesses at 14, 15, 16, 17, and 18.
1:31:34 And at that time, what I didn’t realize is that being a founder with no money meant that I also had to be the marketeer, the sales rep, the finance team,
1:31:36 customer service, the customer service, and the recruiter.
1:31:44 But if you’re starting a business today, thankfully, there’s a tool that wears all of those hats for you, our sponsor today, which is Shopify.
1:31:54 Because of all of its AI integrations, using Shopify feels a bit like you’ve hired an entire growth team from day one, taking care of writing product descriptions,
1:32:02 your website design, your website design, and enhancing your product’s images, not to mention the bits you’d expect Shopify to handle, like the shipping, like the taxes, like the inventory.
1:32:11 And if you’re looking to get your business started, go to Shopify.com slash Bartlett and sign up for a $1 per month trial.
1:32:21 The thing that we, I think, all agree on is that this is inevitable. Do you agree with that, Brett?
1:32:25 I think it’s sad that it is inevitable, but at this point, it is.
1:32:27 And what part of it do you find sad?
1:32:40 We have squandered a long period of productivity and peace in which we could have prepared for this moment.
1:32:54 And our narrow focus on competition has created a fragile world that I’m afraid is not going to survive the disruption that’s coming.
1:32:57 And it didn’t have to be that way. This was foreseeable.
1:33:06 I mean, frankly, the movie 2001, which came out the year before I was born, anticipates some of these problems.
1:33:11 And, you know, we treated it too much like education.
1:33:14 I mean, like entertainment and not enough like education.
1:33:24 So we are now, you know, we’ve had the AI era opened without a discussion about its implications for humanity.
1:33:29 There is now, for game theoretic reasons, no way to slow that pace.
1:33:35 Because as you point out, if we restrain ourselves, we simply put the AI in the hands of our competitors.
1:33:37 That’s not a solution, so I don’t advocate it.
1:33:40 But there’s a lot more preparation we could have done.
1:33:45 We could have recognized that there were a lot of people in jobs that were about to be obliterated.
1:33:54 And we could have thought deeply about what the moral implications were and what the solutions at our disposal might have been.
1:33:59 And having not prepared, it’s going to be a lot more carnage than it needed to be.
1:34:03 Amjad, I heard you say a second ago that what we should be talking about is how we deal with job displacement.
1:34:05 Do you have any theories?
1:34:16 If you were prime minister or president of the world and your job was to deal with job displacement, let’s just say in the United States, how would you go about that?
1:34:34 The first thing I would do is teach people about these systems, whether it’s programs on the TV or outreach or what have you, just trying to get people to understand how chat GPT works, how these algorithms work.
1:34:50 And as the new jobs arrive, I think there’s going to be an opportunity for people to be able to detect that this job requires this set of skills and I have this kind of experience.
1:34:55 And although my experiences are potentially outdated, I can repurpose that experience to do that job.
1:34:56 I’ll give you an example.
1:35:09 A teacher, his name is Adil Khan, you know, he started using at the time GPT-3 and felt like it does amazing work as a tools for teachers or even potentially a teacher itself.
1:35:14 So he learned a little bit of coding and he went on Replit and he built this company.
1:35:19 And just two years later, they’re worth hundreds of millions of dollars.
1:35:23 Obviously, not everyone will be able to create businesses of that scale.
1:35:33 But because you have an experience in a certain domain, you’ll be able to build the next iteration of that user technology.
1:35:42 So even if your job was displaced, you’ll be able to figure out, you know, what potentially comes after that.
1:35:50 So I think people’s expertise that they built, I don’t think they’re all for waste, even if your job went away.
1:35:53 You can never really predict what jobs are coming.
1:36:01 I mean, I think of this crazy situation where I tell my grandfather what is a personal fitness trainer.
1:36:08 And he would, his mind would be blown by this idea that, well, okay, I don’t really want to go to the gym.
1:36:12 So I have to make an appointment and pay someone to go to the gym and meet with me there.
1:36:16 And then he stands there and tells me to lift heavy things that I don’t really want to lift.
1:36:20 And then he counts them and tells me that I’ve done a good job.
1:36:22 And then I put the heavy things down.
1:36:25 And then at the end of that, I feel really good and I pay him a bunch of money.
1:36:28 My grandfather would be like, what on earth have you been scammed?
1:36:33 So we can never predict what this future of jobs would look like.
1:36:41 Even just 20, 30, 40 years apart, the jobs rapidly and convincingly just can morph into something else.
1:36:45 I think it’s very dangerous, the idea that we need to focus on skills.
1:36:47 I think the future is not in skills.
1:36:48 Skills are being replaced.
1:36:54 It’s this idea that the education system has to stop being compartmentalized and has to be a lifelong learning approach.
1:37:02 The Department of Education needs to be seeing people as lifelong learners who are constantly disrupted and need re-education.
1:37:03 Interesting.
1:37:04 That that’s going to be a thing.
1:37:10 The Department of Education needs to start as a kid and go right through to maybe 70.
1:37:13 Does the Department of Education have a role anymore at all?
1:37:14 Depends on your definition of education.
1:37:23 I think if you’re trying to teach kids to remember facts and figures from a history book, then no.
1:37:35 But if it’s about coaching, mentoring, being displaced, finding the next thing, and maybe if it’s AI-driven and all of those kind of things, then it’s a different paradigm shift around what education is and what its purpose is.
1:37:48 And if we see it as a fluid thing where we wave into an opportunity and then wave back into education, spotting a new opportunity and then back here, if we’re learning, rather than skills, but we’re learning tools.
1:37:52 So it’s a tools-based education as opposed to a skills-based education.
1:37:59 The purpose of education for most of human history was about virtue, about becoming a great person who had good judgment and who had good values.
1:38:01 And we don’t really do much of that anymore.
1:38:12 But I think if we essentially said, if we get back to what is, if we ask the question, what is the purpose of education and where does it fit in our lives and what time frame does it go for?
1:38:18 And then we just trust that people are going to come up with weird and wonderful jobs.
1:38:27 You know, this sounds crazy, but also, and this is a weird analogy, my cat is incredibly happy.
1:38:28 How do you know?
1:38:33 Well, it demonstrates all the characteristics of being a happy cat.
1:38:38 And it lives in a world of superintelligence as far as it’s concerned.
1:38:41 So there’s this house and food just magically happens.
1:38:46 It has no idea that there’s this Google calendar that runs a lot of things that happen around it.
1:38:48 The food gets delivered.
1:38:53 Money is magically made by something that is inconceivably more intelligent than the cat.
1:38:59 And yet the cat has evolved to be living this life of purpose and meaning inside the house.
1:39:02 And as far as it’s aware, it’s got a great life.
1:39:08 But you have the power at any moment, if you’re having a bad day, to do something not so pleasant to that cat.
1:39:10 And it can’t really reciprocate that.
1:39:11 Exactly.
1:39:14 But what’s in it for me to hurt the cat?
1:39:18 Because in this analogy…
1:39:21 You might want to move house and the landlord doesn’t allow cats.
1:39:22 So you’ve got a decision to make.
1:39:27 There are things that the cat is highly disrupted by due to no fault of the cat.
1:39:28 I get it.
1:39:44 But as far as cat existence goes and the history of cats, if you were to ask that cat, do you want to trade places with any of the other cats that came before you, it would probably say, I don’t want to take the risk because all the other cats had to fend for themselves in a way that I don’t have to.
1:39:54 It’s very possible that we end up living in a life a lot like the house cat in the sense that from our perspective, we’re extremely…
1:40:01 Like, we’re having very interesting lives and purpose, meaning, and just there’s this massive higher intelligence that’s just running stuff.
1:40:07 And we don’t know how it works, but it doesn’t really matter how it works.
1:40:14 We are the beneficiaries of it and it’s doing important things and we’re enjoying being house cats in its life.
1:40:15 I have a few things to say about this.
1:40:22 One, I’m pretty sure your cat’s not as impressed with your capacity as you are or as you think he is.
1:40:25 I just know cats well enough to be pretty sure of that.
1:40:25 But…
1:40:26 Oh, it looks down on me.
1:40:27 Yeah, you’re right.
1:40:30 I think it’s a fair point that there is an existence.
1:40:32 And actually, you know, pets really do have it.
1:40:35 If they have loving owners, they really do have it pretty great.
1:40:38 And I would also point out that there’s a way in which we already are this way.
1:40:48 Most of us do not understand the process that results in electricity coming out of the walls of our house or the water that comes out of the tap.
1:40:54 And we’re pretty much okay with the fact that somebody takes care of that and we can busy ourselves with whatever it might be.
1:41:06 But the place that I find something troubling in your description is that you say that the nature of what we do is to deal with the fact that jobs are always being upended.
1:41:09 That’s a very new process.
1:41:11 That is the hyper novelty process.
1:41:21 It used to be that it was only very rarely that a population had a circumstance where you didn’t effectively do exactly what your immediate ancestors did, right?
1:41:31 In general, you took what the jobs were, you picked something that was suited to you, and you did that thing.
1:41:32 Intergenerationally.
1:41:45 And the point is we’ve now gotten to the point where even within your lifetime, what is possible to get paid for is going to shift radically in ways that nobody can predict.
1:41:47 And that is a dangerous situation.
1:41:49 Like probably every two years, like two or three years.
1:42:04 And so maybe there’s some model by which we can surf that wave and you can learn a generalist toolkit and, you know, that your survival doesn’t depend on your being able to, you know, switch up every two years and never miss a beat.
1:42:05 Or maybe we can’t.
1:42:27 But I do think it is worth asking the question if the rate of technological change has taken us out of the normal human circumstance of being able to deduce what you might do for a living based on what your ancestors did and put us in a situation where what your ancestors did is going to be perfectly irrelevant no matter what.
1:42:31 But that is effectively a choice that has been made for us.
1:42:43 And we could choose to slow the rate of change so that we would live in some kind of harmony where our developmental environment and our adult environment were a match.
1:42:49 Now, as a biologist, I would argue if we don’t do something like that, this is a matter of time.
1:42:50 How would we change?
1:42:52 How do we slow the rate of change?
1:42:55 Well, I mean, you can be the Amish, right?
1:42:57 You can be the Amish and live in your own communities.
1:43:00 And I would assume some people would want that.
1:43:07 Well, you know, when Heather and I wrote our book, I wanted the first chapter to be, are the Amish right?
1:43:14 And the answer is they can’t be exactly right because they picked an arbitrary moment to step off the escalator.
1:43:19 But are they right that there’s something dangerous about this continuing pattern of technological change?
1:43:20 Clearly they are.
1:43:21 What do the Amish do for anyone that doesn’t know?
1:43:28 The Amish live as if it was, what, 1880?
1:43:29 1850 or something.
1:43:32 So they live in a, they don’t use cars.
1:43:37 They, I think they do have phones, but they do not have electricity.
1:43:52 Basically they, they voluntarily accept a technology, they’re basically a Luddite community and they have turned out to fare surprisingly well against many of the things that have upended modern.
1:43:53 COVID one of them, right?
1:43:54 Yeah, COVID, they did beautifully.
1:43:56 Quite happy people.
1:43:57 Very low autism rates.
1:43:59 They, they have all sorts of advantages.
1:44:01 So anyway, I’m not arguing that we should live like the Amish.
1:44:02 I don’t see that.
1:44:11 But I do think the idea that they had an insight, which was you need to step off that escalator because you’re just going to keep making yourself sicker, is probably right.
1:44:14 Now maybe this is a one-time shift.
1:44:16 We’ve stepped over the event horizon.
1:44:19 We are going to be living in the AI world.
1:44:35 And maybe if we’re careful about it, we can figure out how to turn that landscape of infinite possibility that you’re describing into a place that doesn’t change, that you always have the opportunity to decide what needs to be done.
1:44:41 But that none, that, that living over that event horizon is not an ever-changing process.
1:44:43 It’s just the next frontier.
1:44:56 I do want to also propose or ask the question when we talk about our hyper-changing world, isn’t it harder for older people to learn because of the, the way that the brain works in terms of processing speed and memory flexibility?
1:45:10 So I was wondering if you’re going to get a situation where like my father had, because of his brain and the reduced memory flexibility and processing speed that happens when you’re older, is going to struggle significantly more than my niece who can seem to learn.
1:45:15 And I mean, I mean, my niece knows five languages and she’s seven or something crazy like that.
1:45:15 Five languages.
1:45:17 But I mean, the brain is much more plastic, isn’t it?
1:45:29 So it’s, and that goes back to our evolutionary psychology, which you know much, evolutionary history, which you know much more than I do about of we’re meant to learn our lessons when we’re young, use that information for a lifetime.
1:45:30 But if that information is changing quickly.
1:45:33 Well, that’s, I mean, this is exactly what I’m pointing to.
1:45:40 It is not normal for your developmental environment to fail to prepare you for your adult environment.
1:45:49 The normal thing is as a young person, you take on ever more of the responsibilities of the adult environment.
1:46:01 And then at some point, you know, in a properly functioning culture, there’s a rite of passage, you go into the bush for 10 days, you come back with, you know, a large, you know, game animal.
1:46:05 And now you’re an adult and you take that program that you’ve been building and you activate it.
1:46:10 And, you know, you’re a lot happier person.
1:46:14 You’re a lot more fulfilled if your life has that kind of continuity to it.
1:46:23 And, you know, I’m not against the idea that we have enabled ourselves to do things that can’t be done if that’s the limit.
1:46:26 But we have also harmed ourselves gravely.
1:46:42 And I would like to somehow pry apart our ability to improve our well-being from our self-inflicted wounds that come from this never-ending pace of change.
1:46:45 And I don’t know if it’s possible, but I think it’s a worthy goal.
1:47:03 Something amusing, I don’t know if it’s exactly a counterpoint, but during COVID, especially, and, you know, through the recent technological change, some people have started living closer to the more ancestral environment.
1:47:07 So people whose jobs are online.
1:47:19 Some of my friends, like, went and built communities, like collectives, where they, you know, live and they create farms and they eat and they have, like, an email job.
1:47:23 They do their email jobs for five hours and go out and they all have children.
1:47:25 And it’s a fascinating life.
1:47:29 And there was so much rethinking in Silicon Valley about how we live.
1:47:40 And there’s a bunch of startups that are trying to create cities where they’re like, okay, we know that we’re suffering because our cities are not really walkable.
1:47:44 And there’s so many reasons why we’re suffering.
1:47:45 First, we’re not getting the movement.
1:47:50 Second, there’s a social aspect of walkable city where you’re able to interact with people.
1:47:54 You’ll make friends by just happening to be in the same place as others.
1:47:57 Let’s actually build walkable cities.
1:48:05 And if we want to, you know, transport faster, we’ll have these self-driving cars on the perimeter of the city that are going around.
1:48:16 And I think there are ways in which technology can afford us to live in a way that reverses, I guess, in a more local way.
1:48:18 I like that vision.
1:48:21 But I also am aware that there’s a different vision, right?
1:48:31 You see people in Palo Alto, for example, actually exerting, you know, very strong controls on how much their children are exposed to, you know, to phones.
1:48:32 I live in Palo Alto.
1:48:33 Yeah.
1:48:35 So you see that.
1:48:53 On the other hand, what I am worried about is that the elites of Palo Alto don’t realize that what they’re doing is they’re figuring out how to reduce the harm to their own families as they’re exporting the harm to the world of these technologies that for everybody else are unregulated.
1:49:13 And so the question is, can we bring everybody along if the AI revolution is going to alter our relationship to work and everything else, can we bring everybody along so that at the end of this process, instead of saying, well, you know, it’s a shame that, you know, three billion people were sacrificed to this transition.
1:49:17 But progress is progress, we can really say, well, we figured it out.
1:49:25 And everybody now is living in a style that is closer to their programming and closer to the expectations of their physical bodies.
1:49:31 You know, if that were true, then I would love to be wrong in my fears about what’s coming.
1:49:39 But unfortunately, the market is not going to solve this problem without our being deliberate about forcing it to.
1:49:42 What’s your biggest fear?
1:49:46 Like when you say my fears about what’s coming, what do you, like, what’s the picture that comes in your mind?
1:49:48 Oh, it’s a whole different topic, actually.
1:50:05 My fear coming, stemming from technology and AI is that this is a runaway process and that that runaway process is going to interface very badly with some latent human programs.
1:50:19 That, in effect, the need for workers largely disappears and the people who are at the head of the processes that result in that elimination for the need for workers start talking about useless eaters.
1:50:21 Maybe they come up with a new term this time.
1:50:22 Thin the herd.
1:50:23 Yep.
1:50:25 Or they allow it to be thinned or something.
1:50:31 Brett, I’ve heard you talk about the five key concerns you have or the five key threats you have before.
1:50:32 Could you name those five?
1:50:35 So the first one is the one I worry least about.
1:50:42 I don’t worry zero about it, but I worry least about it, which is the malevolent AI that the doomers are so focused on.
1:50:53 The second one is the idea that, you know, an AI can be misaligned not because it has divergent interest but because it just misunderstands what you’ve asked of these autonomous agents.
1:51:00 You know, the famous example is you ask them to produce as many paperclips as possible and they start liquidating the universe to make paperclips.
1:51:04 And, you know, it’s a sorcerer’s apprentice kind of issue.
1:51:28 The third one I would say is actually all of the remainder of them I would say are guaranteed and the third of them is the derangement of human intellect, that we are already living in a world where it’s very difficult to know what the facts even mean, right?
1:51:43 The facts are so filtered and we are so persuaded by algorithms that it’s, you know, our ability to be confident even in the basic facts, even within our own discipline sometimes is at an all-time low and it’s getting worse.
1:51:55 And that problem takes a giant leap forward at the point that you have the ability to generate undetectable deep fakes, right?
1:52:04 That’s going to alter the world very radically when the fact that you’re looking at videotape of somebody robbing a bank doesn’t mean that they robbed a bank or that a bank was even robbed.
1:52:07 So, anyway, I call this the card.
1:52:08 We deal with this a lot, by the way.
1:52:23 I think every single week, every single week I send to my, I have a chat, people that just are now basically spending, I’d say, 30% of their time dealing with deep fakes of me, doing crypto scams, inviting people to Telegram groups, and then asking them for credit card details.
1:52:27 We had one on X. I think you probably saw it, Dan, didn’t you, of me?
1:52:30 But that someone was running an ad, deep fake ads on X of me.
1:52:34 And it wasn’t just one ad. It was like, they were, it was like swatting flies.
1:52:37 There was 10 of them and I messaged them to X and there was 10 more.
1:52:40 Then the day after there was 10 more. Then the day after there was 10 more.
1:52:41 Then it started happening on Meta.
1:52:48 So, it’s a video of me basically asking you to come to a Telegram group where people are being scammed and audience members of mine are being scammed.
1:52:51 And when I send them to Meta, they thankfully removed them.
1:52:52 But then there’s five more.
1:52:56 So, and I went on LinkedIn yesterday and my DMs are, Steve, by the way, there’s this new scam.
1:53:02 Actually, at this point, I need someone full time just sending this over to Meta.
1:53:04 I’m the same but on a small scale.
1:53:10 Every week, it’s, did you really message me on Facebook asking me for my crypto wallet and blah, blah, blah.
1:53:18 My least favorite one’s when the single mother messages me saying that she just paid 500 pounds of her money and how devastated she is.
1:53:23 And I feel this moral obligation to give her her money back because she’s fallen for some kind of scam.
1:53:23 That was me.
1:53:24 It was my voice.
1:53:26 It was a video of me telling her something.
1:53:28 And I don’t know, I don’t know how you deal with that.
1:53:29 But sorry, do continue.
1:53:31 Well, I mean, that’s actually on the list here.
1:53:37 The massive disruption to the way things function, both because people are going to be unemployed in huge numbers
1:53:45 and because those who are not abiding by our social contract are going to find themselves empowered more than the people who do.
1:53:53 So in this case, not only is this poor woman, you know, now out 500 bucks for whatever the scam was,
1:54:00 but you’ve also been robbed whether or not you pay her back for the thing that she thought she purchased.
1:54:06 Your credibility is being stolen by somebody and you have no capacity to prevent it.
1:54:09 This has happened to me also, and it is profoundly disturbing.
1:54:26 And it is only one of a dozen different ways that AI enables those who are absolutely willing to shrink the pie from which we all derive in order to enlarge their slice.
1:54:29 You know, there are innumerable ways that this can happen.
1:54:32 And I think people do not see it coming.
1:54:40 They don’t understand how many different ways they are going to be robbed every bit as surely as if somebody was printing money.
1:54:54 And then the last one is that this just simply accelerates demographic processes that do potentially result in the unleashing of technologies that preexisted AI.
1:55:01 You know, this can easily result in an escalation into wars that turn nuclear.
1:55:10 So anyway, I think that list could probably be augmented at this point now that we’ve, you know, spent a little time in the AI era.
1:55:17 We can begin to put a little more flesh on the bones, both of what is possible in this era and what we should fear.
1:55:21 One of those, you mentioned the truth, you know, the problem of truth.
1:55:29 Would you say, just a thought experiment, someone today, like an average person, college educated, say, person,
1:55:39 are they more propagandized or led astray than someone in Soviet Russia?
1:55:44 Well, I don’t know because I didn’t live in Soviet Russia.
1:55:53 But my understanding from people who did was that there was a wide awareness that the propaganda wasn’t true.
1:55:55 It doesn’t mean they knew what to believe.
1:56:04 But there was a cynicism, which is one of my fears here, is that, you know, you’re really stuck choosing between two bad options.
1:56:09 In a world where you can’t tell what is true, you can either be overly credulous and be a sucker all the time,
1:56:14 or you can become a cynic and you can be paralyzed by the fact that you just don’t believe anything.
1:56:16 But neither of those is a recipe for it.
1:56:24 Do you think Google search first and maybe now ChatGPT has helped people more or less to find truth?
1:56:35 I think that’s not ChatGPT exactly, but all of the various AI engines have briefly enhanced our capacity to know what’s true
1:56:43 because, in fact, they allow us to see through the algorithmic manipulation because the AI is not well policed.
1:56:48 You can get it to recognize patterns that people will swear are not true.
1:56:53 And so, anyway, a lot of us have found it useful in just simply unhooking the gaslighting.
1:56:55 So that’s been very positive.
1:57:04 But I also remember the early days of search, and search used to be a matter of there are some pages out there.
1:57:05 I don’t know where they are.
1:57:11 Here’s a mechanized something that’s looked through this stuff and just point me at the direction of things that contain these words, right,
1:57:17 before the algorithmic manipulation started steering us into believing pure nonsense
1:57:22 because somebody who controlled these things decided it was useful for us to believe those things.
1:57:28 So my guess is, at the moment, AI is enhancing our ability to see more clearly,
1:57:35 but that really depends on some kind of agreement to protect that capacity that I’m not aware of us having.
1:57:43 Angela, you’re implying there that AI will protect us from the AI, i.e., the woman that got scammed in my audience,
1:57:49 the platforms would have a tool built in which would be able to identify shortly that that is not me,
1:57:53 and the ad has been launched by someone in another country potentially.
1:57:59 And then also when she starts being asked for her credit card details in such a way on Telegram 10 minutes later,
1:58:03 the system will be able to understand there that this is probably a scam at that touchpoint too.
1:58:06 And it will also be the defense, not just the offense.
1:58:12 First thing, question, is Meta incentivized to solve this problem?
1:58:13 Yes.
1:58:18 And so Meta is probably actively working on AIs.
1:58:22 And again, it’s going to be a cat and mouse game, like every abuse that happens out there.
1:58:27 So I think that the market will naturally respond to things like that.
1:58:33 In the same way that we install antiviruses, as annoying as they are,
1:58:42 I think we’ll install AIs on our computers that will allow us to at least help us kind of sort the fake from the truth.
1:58:45 Well, but let’s take the example you say.
1:58:47 Is Meta incentivized to solve this problem?
1:58:49 Superficially, it seems that it should be.
1:58:56 But how many times in recent history have we watched a corporation cannibalize its own business
1:59:00 over what at best is the bizarre desires of its shareholders?
1:59:09 Why was X throwing off people with large accounts or Facebook or Google?
1:59:16 It would seem that you would expect, based on the market choosing search engines or social media sites,
1:59:21 you would expect these companies to be absolutely mercenary and say, you know,
1:59:24 if Alex Jones has a big audience, who are we to say?
1:59:25 That’s what I would have expected.
1:59:33 Instead, you had these companies policing the morality of thought,
1:59:38 even though it reduced the size of the population using the platforms.
1:59:43 I have a hard time explaining why that happened, but I have every reason to expect the same thing will happen with AI.
1:59:45 What are you excited about with AI?
1:59:48 What’s your optimistic take?
1:59:52 Because at the start of this conversation, you said that there’s infinite ways that it could improve our lives,
1:59:55 and there’s 10 times more ways that it could hurt our lives.
1:59:58 But let’s investigate some of those ways that it could drastically improve our lives.
2:00:00 There’s a couple of different ways.
2:00:06 One, we have, as we mentioned before, a dearth of competent teachers and professors.
2:00:13 And that is a problem that will take three generations at least to solve
2:00:17 if what we’re going to do is start tomorrow and start educating people in the right way
2:00:19 that would make them competent to stand at the front of a room and educate.
2:00:26 But if we can augment that process, if we can leverage a tool like AI so that, you know,
2:00:32 a small number of competent teachers can maybe reach a larger number of pupils, that’s plausible, I think.
2:00:41 Second thing is we have a tremendous number of problems that are obstacles to us living well on this planet
2:00:47 that AI might be able to manage that human intellect alone cannot, right?
2:00:54 Just in the same way that, you know, compute power can calculate things at a rate that human beings can’t keep up,
2:00:56 and there are certain things you want calculated very well.
2:00:59 There are also some reasoning problems.
2:01:10 You could imagine that instead of having static laws that govern behavior poorly because they get gamed,
2:01:13 that you could have a dynamic interaction.
2:01:19 You could specify an objective of something like a law,
2:01:24 and then you could monitor whether or not a particular intervention successfully moved you in the direction
2:01:28 that you were hoping to go or did something paradoxical, which happens all the time.
2:01:35 And you could have, you could basically have governance that is targeted to navigation and prototyping
2:01:38 rather than to specifying a blueprint for how we are to live.
2:01:39 So we wouldn’t need politicians.
2:01:46 At the moment, we’re stuck with, you know, constitutional protections
2:01:53 that are as good as has been constructed and still inadequate to modern realities.
2:01:59 Dan, what are you excited about with AI from an individual level, but also from a societal level?
2:02:01 Yeah, well, the big ones are healthcare and education.
2:02:07 I mean, it’s ridiculous that you are sitting there in pain having had an MRI,
2:02:12 and there just hasn’t been someone to look at that MRI yet and tell you what to do.
2:02:14 And that could easily be solved.
2:02:20 There’s all sorts of healthcare issues where, and also not only that, throughout the entire world,
2:02:23 there are places that just don’t have general practitioners and they don’t have, you know,
2:02:24 medical advisors.
2:02:28 And, you know, the breakthroughs in global healthcare will be phenomenal.
2:02:33 And the breakthroughs in global education could be transformational on the planet.
2:02:39 I’m excited at an individual level that I think the industrial age created a bunch of jobs
2:02:43 that are very dehumanizing, and we’ve just kind of gotten used to them and put up with them.
2:02:49 The idea that work should be repetitive and, you know, you just repeat the same loop over and over
2:02:54 and over again, and over a 10-year period of time, you might get, you know, graduated up one year
2:02:55 and all that kind of stuff.
2:02:57 I don’t think that’s very human.
2:03:03 The idea that you could be simultaneously writing a book, launching a business, running a team,
2:03:11 launching a festival, having an event, that you could actually be doing this kind of like
2:03:17 mini kingdom work where you’ve got this little, you know, ecosystem around you of fun things
2:03:18 that you’re involved in.
2:03:23 That is actually made possible for a vast majority of people if they embrace these kind of tools.
2:03:31 You can live an incredibly fulfilling and amazing and impactful existence, or I know that I do,
2:03:33 as a result of having these tools in my life.
2:03:37 Like, I’m doing things that I could have only dreamed about as a kid.
2:03:38 And what do you say to entrepreneurs?
2:03:40 I know you work with thousands of entrepreneurs.
2:03:45 What are you telling them in terms of their current businesses or business opportunities that you’re foreseeing?
2:03:52 So I think that small teams have infinite leverage now, and that when you have a team of, say,
2:03:57 five to ten people who share an incredible passion for a meaningful problem in the world,
2:04:01 and they want to see that meaningful problem solved, and they come together in the spirit
2:04:06 of entrepreneurship to solve that problem, that little five to ten person team,
2:04:12 armed with the technology that we now have available, you can have a big impact.
2:04:16 You can make a lot of money, you can have a lot of fun, you can solve meaningful problems in the world,
2:04:22 you can scale solutions, you can probably do more in a three-year window than most people did in a
2:04:23 30-year career.
2:04:30 And then that little band of five to ten people could either go together onto a new meaningful problem,
2:04:34 or they could disband and, you know, work on other meaningful problems with different teams.
2:04:40 In such a world where you have this sort of infinite leverage, but everyone else has access to the same
2:04:46 infinite leverage, what becomes the USP? Going back to this idea of the moat, like, what is the thing of value
2:04:49 when we’ve all got access to $20 infinite leverage?
2:04:54 Well, first of all, the first thing you need to do, you need to understand, is that this moment of time
2:05:00 is the least competitive moment. Like, if you understand how to use these tools,
2:05:05 you can start making money tomorrow. Like, you know, I see countless examples of people
2:05:11 making thousands of dollars with these hustles that I talked about, or building businesses that
2:05:15 generates millions of dollars in the first couple of months of existence. So I would say,
2:05:22 start moving now, start building things. So it’s an unprecedented time of wealth creation.
2:05:29 Clearly, at some point, as the market gets more efficient, as people, more and more people understand
2:05:37 how you use these tools, there’s less potential for, you know, creating these massive businesses
2:05:41 quickly. And we’ve seen this, like, the dawn of the internet or dawn of the web, you know,
2:05:48 was a lot easier to create Facebook than it is now. Then we had mobile. And for three, four,
2:05:54 five years, it was very easy to create massive businesses. And then it became harder. Being just
2:05:59 at the edge of what’s possible is going to be very, very important over the next couple of years. And
2:06:05 that gets me really excited, because the entrepreneurs who are paying attention are going to be having the
2:06:08 most amount of fun, but they’re also going to be able to make a lot of money.
2:06:11 How many applications have been built on Replit to date?
2:06:17 So, you know, I can talk about the millions of things that have been built since we started the company.
2:06:24 But just since September, when we launched Replit Agent, there’s been about three million applications
2:06:32 built purely in natural language, with no coding at all, purely natural language.
2:06:43 And of those, I think 300,000, 400,000 of them were deployed in a real, you know, the site was deployed, and it is having,
2:06:47 people are using it, some kind of business, some kind of internal tool.
2:06:48 I built one last night, by the way.
2:06:49 An internal tool?
2:06:56 I built an application to track how my kids earn pocket money.
2:06:56 Amazing.
2:07:00 So I just told it that I wanted to track the tasks that are happening around the house and
2:07:01 put an assign of value to them.
2:07:05 And I want to be able to, at the end of the week, push a button and get a summary of how
2:07:09 much to pay each child for their pocket money.
2:07:10 We are so screwed.
2:07:16 And within 15 minutes, it had created this application.
2:07:17 And it was amazing.
2:07:21 Like, you could toggle between, like, here’s the place where you have the kids, and here’s
2:07:27 the weekly reports, and here’s the how much per task, and you can tick off the tasks or
2:07:28 remove tasks or add tasks.
2:07:35 So then I now have this application for, which took 15 minutes of just talking about what I
2:07:40 wanted, and now I have an application to run the pocket money situation in the house.
2:07:45 And this is, by the way, it’s something, having run an IT agency years ago, that’s something
2:07:51 that we would have charged 5,000 to 10,000 pounds to create, 5,000 to 10,000 US dollars
2:07:52 to create.
2:07:53 And how much time?
2:07:58 Probably talking something that would have been a three, four-week project.
2:08:04 And we’re at the start of the S-curve now that you’re describing, and it’s already, if it’s
2:08:06 a $20, replet’s roughly $20 a month.
2:08:06 $25.
2:08:10 For the base case, you did one day of usage.
2:08:11 Let’s say it’s a dollar.
2:08:12 Yeah.
2:08:15 It costs you, and it costs you minutes and a dollar now, and we’re at the start of the
2:08:16 S-curve.
2:08:18 And you talk to it like you’re chatting to a developer.
2:08:24 So one of the things that slows down the development process is you have to send the information to
2:08:27 a developer, and they need to understand it, and then they need to create something, and
2:08:28 then come back to you.
2:08:32 This just happens in front of your eyes while you’re watching it, and it’s actually showing
2:08:33 you what’s being built.
2:08:34 It’s really wild.
2:08:40 This one change has transformed how my team and I move, train, and think about our bodies.
2:08:46 When Dr. Daniel Lieberman came on the Diary of Recio, he explained how modern shoes, with
2:08:50 their cushioning and support, are making our feet weaker and less capable of doing what
2:08:51 nature intended them to do.
2:08:56 We’ve lost the natural strength and mobility in our feet, and this is leading to issues
2:08:58 like back pain and knee pain.
2:09:02 I’d already purchased a pair of Viva Barefoot shoes, so I showed them to Daniel Lieberman,
2:09:07 and he told me that they were exactly the type of shoe that would help me restore natural
2:09:08 foot movement and rebuild my strength.
2:09:11 But I think it was plantar fasciitis that I had, where suddenly my feet started hurting
2:09:15 all the time, and after that I decided to start strengthening my own foot by using the Viva
2:09:16 Barefoots.
2:09:18 And research from Liverpool University has backed this up.
2:09:22 They’ve shown that wearing Vivo Barefoot shoes for six months can increase foot strength
2:09:24 by up to 60%.
2:09:31 Visit vivobarefoot.com/doac and use code DIARY20 from my sponsor for 20% off.
2:09:35 A strong body starts with strong feet.
2:09:37 This has never been done before.
2:09:42 A newsletter that is ran by 100 of the world’s top CEOs.
2:09:45 All the time, people say to me, they say, “Can you mentor me?
2:09:47 Can you get this person to mentor me?
2:09:49 How do I find a mentor?”
2:09:50 So here is what we’re going to do.
2:09:55 You’re going to send me a question, and the most popular question you send me, I’m going
2:10:01 to text it to 100 CEOs, some of which are the top CEOs in the world running $100 billion companies,
2:10:06 and then I’m going to reply to you via email with how they answered that question.
2:10:11 You might say, “How do you hold on to a relationship when you’re building a startup?”
2:10:14 “What is the most important thing if I’ve got an idea and don’t know where to start?”
2:10:19 We email it to the CEOs, they email back, we take the five, six top best answers, we email it to you.
2:10:24 I was nervous because I thought the marketing might not match the reality, but then I saw what the founders
2:10:27 were replying with and their willingness to reply, and I thought, “Actually, this is really good.”
2:10:31 And all you’ve got to do is sign up. Completely free.
2:10:35 I don’t think we’ve spent a lot of time talking about autonomous weapons.
2:10:43 This is the thing that really worries me. And the thing that worries people about AI is this idea
2:10:52 is that it is this emergent system, and there’s no one thing behind it. And it can act in a way that’s
2:10:56 unpredictable and not really guided by humans. I also think it’s true of corporations, of governments.
2:11:05 And so I think individual people can often have the best intentions, but the collective can land on
2:11:14 doing things in a way that’s harmful or morally repugnant. And I think we talked about China versus
2:11:22 the US, and that creates a certain race dynamics where they’re both incentivized to cut corners and
2:11:30 potentially do harmful things. And in the world of geopolitics and wars, you know, what really
2:11:35 scares me is autonomous weapons. And why does it scare you?
2:11:48 You know, you can imagine autonomous drones being trained on someone’s face.
2:11:56 And you can send a swarm of drones, and they can be this sort of autonomous killing,
2:12:05 assassination machine. And it can sort of function as a country versus country technology in the world of war,
2:12:13 which is still crazy. But it can also become a tool for governments to subjugate
2:12:22 the citizens. And people think we’re safe in the West. But I think the experience with COVID showed that
2:12:29 the systems even the systems in the West can very quickly become draconian.
2:12:37 Well, apparently, I’ve heard in Iran that they have face recognition cameras that detect whether
2:12:45 women are wearing hijabs in their own cars, and it automatically detains the car if you’re driving
2:12:51 and you’re not wearing a hijab. And if you’re certainly if you’re walking down the street, it just picks that
2:12:58 up and immediately you’re you’re in trouble. You can like it acts as a police officer and a judge
2:13:06 And, you know, a lawmaker, a lawmaker, it’s the judge, jury and executioner essentially. And it’s just happens instantaneously.
2:13:14 It happened in Canada with the truckers sort of protests where they froze their bank account by virtue of just being there.
2:13:15 Just by being in that location.
2:13:21 Yeah. And just to confirm that, Iran has implemented a comprehensive surveillance system to enforce its
2:13:27 mandatory hijab laws utilizing various technologies, one of which is cameras and facial recognition.
2:13:32 So they’ve put cameras in public spaces to identify women who are not adhering to the hijab dress code.
2:13:39 Yeah. And just on that, London has just put those face cam facial recognition systems into London,
2:13:48 and also all throughout Wales. And they’re being rolled out at speed. And like all you would need is a
2:13:53 change of government that wanted to implement something similar and all the base layer technology is already
2:13:57 in there. It gets a little bit worse in Iran because they have this new app called the Nizar app,
2:14:01 where the government has introduced the Nizar mobile application, which allows you
2:14:06 as a citizen to report another citizen who is not wearing their hijab. And it logs their location, the time
2:14:11 when they weren’t wearing it, and the vehicle license plate. With the crowdsourced data,
2:14:17 it can then go after that individual. I would also just point out that I think we’re not being imaginative
2:14:21 enough. I agree with you. I have the same concern about these autonomous weapons, but I also think
2:14:28 this doesn’t have to occur in the context of war or even governmental oppression, that it is perfectly
2:14:36 conceivable that effectively this allows, this drops the price of an undetectable or an
2:14:43 unprosecutable crime. And maybe economic moats return in the form of people taking out their competitors or
2:14:48 anybody who attempts to compete with them using an autonomous drone that can’t be traced back to them,
2:14:53 you know, that follows facial recognition. And, you know, you don’t have to kill very many people
2:14:58 for others to get the message that this is a zone that you shouldn’t mess around in.
2:15:07 So I could imagine, you know, effectively a new high-tech organized crime that protects rackets and
2:15:12 makes tons of money and subjugates people who haven’t done anything wrong.
2:15:18 I had Mustafa Solomon on the podcast in 2023 when all of this stuff started kicking off. And he is the
2:15:22 CEO of Microsoft AI. You’re familiar with Mustafa? Of course.
2:15:25 Yeah. And one of the things he said to me at the time was, “One of my fears is a tiny group
2:15:31 of people who wish to cause harm are going to have access to tools that can instantly destabilize our
2:15:36 world. That’s the challenge. How to stop something that can cause harm or potentially kill. That’s
2:15:41 where we need containment.” And it sounds a little bit like what you’re saying, Amjad, that we will now
2:15:47 have these tools. You were talking in the context of the military, but as Brett said there, even smaller
2:15:52 groups of people that might have been, I don’t know, cartels or gangs can do similar harm. And
2:15:58 at the moment, in terms of autonomous weapons, both the US and China are investing heavily in AI-powered
2:16:03 weapons, autonomous drones and cyber warfare, because they’re scared of the other one getting it first.
2:16:09 And we talked about how much of our lives run on the internet, but cyber weapons and cyber AI agents
2:16:15 that could be deployed to take down China’s X, Y, or Z, or vice versa, are of real concern.
2:16:26 Yeah. I think all of that is a real concern. Unlike Mustafa, I don’t think containment is possible.
2:16:36 Part of the reason why this game theoretic system of competition between the US, China, corporations,
2:16:46 individuals, makes it so that this technology is already out, really hard to put it back in the bag.
2:16:49 I did ask him this question, and I remember the answer because it was such a stark moment for me.
2:16:54 I said to Mustafa, “Do you think it’s possible to contain it?” And he replied, “We must.” So I asked him
2:16:57 again, I said, “Do you think it’s possible to contain it?” And he replied, “We must.” And I asked him
2:16:59 again, I said, “Do you think it’s possible?” And he said, “We must.”
2:17:05 So the problem with that chain of thinking is that it might lead to an oppressive system.
2:17:13 There is one of the, say, doomers or philosophers of AI, which I respect his work. His name is Nick Bostrom.
2:17:26 And he was trying to think of ways in which we can contain AI. And the thing that he came up with is
2:17:32 perhaps more oppressive than something that AI would come up with. It’s like total surveillance state.
2:17:40 You need total surveillance on compute, on people’s computers, on people’s ideas to not invent AI or AGI.
2:17:41 It’s like taking the guns or something.
2:17:48 Right, exactly. I mean, there’s always this problem of containing any sort of technology,
2:17:53 is that you do need oppression and draconian policies to do that.
2:17:57 Are you scared of anything else or concerned about anything else as that relates to AI,
2:17:58 outside of autonomous weapons?
2:18:08 You know, we talked about the birth threat crisis. And I think a more generalized problem there is
2:18:17 creating virtualized environments via VR where everyone is living in their own created universe.
2:18:27 And it’s so enticing. And even create simulates work and simulates struggle such that you don’t really
2:18:33 need to leave this world. And so every one of us will be solipsistic, you know, similar to the matrix.
2:18:33 Ready player one.
2:18:38 Ready player one. Ready player one. We’re all kind of, even worse than a ready player one,
2:18:44 at least that’s a massively networked environment. I’m talking about AI simulating everything
2:18:52 for us. And therefore you’re literally in the matrix, you know, maybe that this is that same thought.
2:18:55 I’ve enjoyed this great simulation.
2:19:00 Yes. And so, I mean, are you familiar with the Fermi’s paradox?
2:19:00 No, I’m not.
2:19:08 So Fermi’s paradox is the question of the professor, his name is Fermi. He asked the question,
2:19:17 if the universe is that vast, then where are the aliens? The fact that humans exist,
2:19:25 you can deduce that other civilizations exist. And if they do exist, then why don’t we see them?
2:19:32 And then that spurred a bunch of Fermi solutions. So there’s, I don’t know, you can find hundreds
2:19:39 of solutions on the internet. One of them is the sort of house cat thought experiments where
2:19:46 actually aliens exist, but they kind of put us in an environment like the Amish in a certain time
2:19:51 and do not expose us to what’s going on out there. So we’re pets. Maybe they’re watching us and kind of
2:19:54 enjoying what we’re doing. Stopping us from hurting ourselves.
2:20:00 Stopping us from hurting ourselves. There’s so many things, but one of the things that I think is
2:20:08 potentially a solution to the Fermi’s paradox and one of the saddest outcomes is that civilizations
2:20:15 progress until they invent technology that will lock us into infinite pleasure and infinite simulation,
2:20:27 such that we don’t have the motivation to go into space to seek out the exploration of potentially other
2:20:36 alien civilizations. And perhaps that is a determined outcome of humanity or like a highly likely outcome
2:20:42 of any species like humanity. We like pleasure. Pleasure and pain is the main motivators. And so if you
2:20:49 create an infinite pleasure machine, does that mean that we’re just at home in our VR environment
2:20:52 with everything taking care for us and literally like the matrix?
2:20:55 And the world, the real world would suck in such a scenario.
2:21:01 Yes, it’d be terrible. I mean, the other simpler explanation of the Fermi paradox is that you generate
2:21:07 sufficient technology that you can end your species. And it’s only a matter of time from that point,
2:21:12 which, you know, we can have that discussion about nuclear weapons. We can have it about AI,
2:21:18 but does some technology, if we stay on that escalator, does some technology that we generate
2:21:19 ultimately…
2:21:22 Whatever allows you to get off the planet allows you to blow up the planet.
2:21:22 There you go.
2:21:25 I want to get everyone’s closing thoughts and closing remarks.
2:21:31 And hopefully in your closing remarks, you can capture something actionable for the individual
2:21:36 that’s listening to this now on their commute to work, or the single mother, or the average person,
2:21:41 who maybe isn’t as technologically advanced as many of us at this table, but is trying to navigate
2:21:46 through this to figure out how to live a good life over the next 10, 20, 30 years.
2:21:46 Yeah.
2:21:48 And take as long as you need.
2:21:53 I think we live in the most interesting time in human history.
2:21:58 So for the single mother that’s listening, for someone who wouldn’t be the stereotype of a tech
2:22:05 bro, don’t assume that you can’t do this stuff. It’s never been more accessible today within your
2:22:10 work. You can be an entrepreneur. You don’t have to take massive risk to go create a business,
2:22:18 quit your job and go create a business. There are countless examples. We have a user who’s a
2:22:25 product manager at a larger real estate business. And he built something that created 10% lift and
2:22:30 conversion rates, which generated millions and millions of dollars of that business. And that
2:22:36 person became a celebrity at that company and became someone who is lifting everyone else up and teaching
2:22:42 them how to use these tools. And obviously that is like a really great for anyone’s career. And you’re
2:22:48 going to get a promotion and your example of building a piece of software for your family,
2:22:55 for your kids to improve and to learn more, to be better kids as an example of being an entrepreneur
2:23:04 in your family. So I really want people to break away from this concept of entrepreneurship being,
2:23:10 I mean, this is your podcast, a diary of a CEO. You started this podcast by talking to CEOs, I assume,
2:23:18 right? And over time, it changed to everyone can be a CEO. Everyone is some kind of CEO in their life.
2:23:29 And so I think that we have unprecedented access to tools for that vision to actually come to reality.
2:23:37 Well, it is obviously a moment of a kind of human face transition, something that I believe will be the
2:23:44 equal of a discovery of farming or writing or electricity.
2:23:53 And the darkness that I think is valid in looking at all of the possible outcomes of this scenario
2:23:59 is actually potentially part of a different story as well. In evolutionary biology, we talk about an
2:24:08 adaptive landscape in which a niche is represented as a peak and a higher niche. A better niche is
2:24:12 represented as a higher peak. But to get from the lower niche to the higher niche, you have to cross
2:24:17 through what we call an adaptive valley. And there’s no guarantee that you make it through the adaptive
2:24:22 valley. And in fact, the drawing that we put on the board, I think, is overly hopeful because it makes
2:24:27 it in two dimensions. It looks like you know exactly where to go to climb that next peak. And in fact,
2:24:35 it’s more like the peaks are islands in an archipelago that is in fog where you can’t figure out what
2:24:40 direction that peak is. And you have to reason out it’s probably that way and you hope not to miss it
2:24:49 by a few degrees. But in any case, that darkness is exactly what you would expect if we were about to
2:24:55 discover a better phase for humans. And I think we should be very deliberate about it this time. I think we
2:25:02 we should think carefully about how it is that we do not allow the combination of this brand new,
2:25:10 extremely powerful technology and market forces to turn this into some new kind of enslavement.
2:25:16 And I don’t think it has to be. I think the potential here does allow us to refactor just about
2:25:23 everything. Maybe we have finally arrived at the place where mundane work doesn’t need to exist anymore,
2:25:29 and the pursuit of meaning can replace it. But that’s not going to happen automatically if we don’t figure
2:25:37 out how to make it happen. And I hope that we can recognize that the peril of this moment is best
2:25:44 utilized if it motivates us to confront that question directly. Each one of us has two parents,
2:25:54 four grandparents, eight great grandparents, 16, 32, 64. You’ve got this long line of ancestors who all
2:26:00 had to meet each other, they all had to survive wars, they all had to survive illness and disease.
2:26:07 Everything had to happen for us. Each individual, all of this stuff had to happen for us to get here.
2:26:11 And if we think about all the people in those thousands and thousands of people,
2:26:16 every single one of them would trade places in a heartbeat if they had the opportunity to be alive
2:26:26 at this particular moment. They would say that their life was a lot of mundane and meaningless work,
2:26:32 it was dangerous. You know, every single one of us has probably got ancestors that were enslaved,
2:26:40 probably got ancestors that died too young, probably got ancestors that worked horrific conditions.
2:26:45 We all have that. And they would all just look at this moment and say, wow,
2:26:50 so are you telling me that you have the ability to solve meaningful problems, to come up with
2:26:56 adventures, to travel the world, to pick the brains of anyone on the planet that you want to pick the
2:27:02 brains of? You can just listen to a podcast, you can just watch a video, you can talk to an AI,
2:27:07 AI. Like, are you telling me that you’re alive at this particular moment? Please make the most of
2:27:13 that. Like, do something with that. You know, you can sit around pontificating about society and how
2:27:20 society might work, but ultimately it all boils down to what you do with this moment. And solving
2:27:27 meaningful problems, being brave, having fun, making your little dent in the universe, you know,
2:27:32 that’s, that’s what it’s all about. And I feel like there’s an obligation to your ancestors to make
2:27:33 the most of the moment.
2:27:40 Thank you so much to everybody for being here. I, I’ve learned a lot and I’ve developed my thinking,
2:27:43 which is much the reason why I wanted to bring this all together, because I know you all have
2:27:47 different experiences, different backgrounds in education, you’re doing different things,
2:27:51 but together it helps me sort of pass through all of these ideas to figure out where I land. And
2:27:58 I, I ask a lot of questions, but I am actually a believer in humans. I’m, I, I, I was thinking about
2:28:03 this the second ago, I was thinking, do I, am I optimistic about humans’ ability to navigate this
2:28:07 just because I have no other choice? Because as you said, the alternative actually isn’t worth thinking
2:28:13 about. And so I do have a optimism towards how I think we’re going to navigate this, in part because
2:28:18 we’re having these kinds of conversations. And we, in history, haven’t always had them at the birth of a
2:28:22 new revolution. When we think about social media and the implications that had, we’re playing catch up
2:28:29 with the, with the downstream consequences. And I am hopeful. Maybe that’s the entrepreneur in me.
2:28:33 I’m excited. Maybe that’s also the entrepreneur in me. But at the same time, to many of the points
2:28:39 Brett’s raised and Amjad’s raised and Dan’s raised, there are serious considerations as we swim from one
2:28:45 island to another. And because of the speed and scale of this transformation that Brett highlights,
2:28:49 and you look at the stats of the growth of this technology and how it’s spreading like wildfire,
2:28:54 and how once I tried Replit, I walked straight out and I told Cozzy immediately, I was like, Cozzy,
2:28:57 try this. And she was on it and she was hooked. And then I called my girlfriend in Bali,
2:29:02 who’s the breathwork practitioner. And I was like, type this into your browser, R-E-P-L-I-T.
2:29:06 And then she’s making these breathwork schedules with all of her clients’ information ahead of the
2:29:11 retreat she’s about to do. It’s spreading like wildfire because we’re internet native.
2:29:15 We were native to this technology. So it’s not a new technology. It’s something on top of something
2:29:19 that’s intuitive to us. So that transition, as Brett describes it, from one peak to the other,
2:29:23 or one island to another, I think is going to be incredibly destabilizing.
2:29:27 And having interviewed so many leaders in this space, from Reid Hoffman, who’s the founder of LinkedIn,
2:29:33 to the CEO of Google, to Mustafa, who I mentioned, they don’t agree on much. But the thing that they
2:29:38 all agree on, and that Sam Altman agrees on, is that the long-term future, the long-term way that
2:29:43 our society functions is radically different. People squabble over the short term. They sometimes even
2:29:49 squabble over the midterm or the timeline, but they all agree that the future is going to look
2:29:53 completely different. Amjad, thank you for doing what you’re doing. We didn’t get to spend a lot
2:29:59 of time on it today, and this is typically what I do here. But your story is incredibly inspiring.
2:30:02 Incredibly inspiring from where you came from, what you’ve done, what you’re building.
2:30:07 And you are democratizing and creating a level of playing field for entrepreneurs in Bangladesh,
2:30:13 to Cape Town, to San Francisco, to be able to turn their ideas into reality. And I do think,
2:30:19 just on the surface of that, such a wonderful thing, that I was born in Botswana in Africa,
2:30:24 and that I could have the same access to turn my imagination into something to change my life,
2:30:27 because of the work that you’re doing at Replit. And I highly recommend everybody go check it out.
2:30:33 You probably won’t sleep that night, because for someone like me, it was so addictive to get to be
2:30:37 able to do that, because it’s been the barrier to creation my whole life. I’ve always had to call
2:30:40 someone to build something. Dan, thank you again so much, because you represent the voice of
2:30:43 entrepreneurs, and you’ve really become a titan as a thought leader for entrepreneurs in the UK.
2:30:48 And in perspective, that balance is incredibly important. So I really, really appreciate you
2:30:52 being here, as always. And you’re a huge fan favorite of our show. And Brett, thank you a
2:30:59 gazillion times over for being a human lens on complicated challenges. And you do it with a
2:31:04 fearlessness that I think is imperative for us finding the truth in these kind of situations where
2:31:10 some of us can run off with optimism. And we can be hurtling towards the mousetrap because we love
2:31:15 cheese. And I think you’re an important counter balance and voice in the world at this time.
2:31:19 So thank all of you for being here. I really, really appreciate it. And we shall see.
2:31:34 I find it incredibly fascinating that when we look at the back end of Spotify and Apple and our audio
2:31:39 channels, the majority of people that watch this podcast haven’t yet hit the follow button or the
2:31:42 subscribe button, wherever you’re listening to this. I would like to make a deal with you.
2:31:47 If you could do me a huge favor and hit that subscribe button, I will work tirelessly from now until
2:31:52 forever to make the show better and better and better and better. I can’t tell you how much it helps when
2:31:55 you hit that subscribe button. The show gets bigger, which means we can expand the production,
2:31:59 bring in all the guests you want to see and continue to doing this thing we love.
2:32:02 If you could do me that small favor and hit the follow button, wherever you’re listening to this,
2:32:19 that would mean the world to me. That is the only favor I will ever ask you. Thank you so much for your time.
2:32:31 Thank you.
Tôi nghĩ rằng nhiều người không nhận ra tác động tích cực to lớn mà trí tuệ nhân tạo (AI) sẽ có đến cuộc sống của họ. Vâng, tôi cho rằng ý tưởng rằng sự gián đoạn của AI này không dẫn đến thảm họa cho nhân loại là một niềm tin lạc quan. Chẳng hạn, sẽ có rất nhiều người thất nghiệp. Bạn đồng ý với điều đó, đúng không? Vâng. Nếu công việc của bạn quá routin như những gì mà nó phải, thì nó sẽ biến mất trong vài năm tới. Nhưng điều đó cũng sẽ tạo ra những cơ hội mới cho việc tạo ra tài sản. Hãy để tôi diễn đạt điều này theo cách khác. Chúng ta đã tạo ra một loài mới, và không ai trên Trái Đất có thể dự đoán những gì sẽ xảy ra. Chúng tôi đã có ba tiếng nói hàng đầu tham gia để tranh luận về sự thay đổi gây rối loạn nhất trong lịch sử nhân loại, sự trỗi dậy của AI. Và họ đang trả lời những câu hỏi mà bạn quan tâm nhất. Công nghệ này sẽ trở nên mạnh mẽ hơn rất nhiều. Vâng, chúng ta sẽ trải qua một giai đoạn gián đoạn, nhưng phía bên kia, chúng ta sẽ tạo ra một thế giới công bằng. Nó giúp mọi người điều hành doanh nghiệp của họ, kiếm được rất nhiều tiền. Bạn có thể giải quyết những vấn đề có ý nghĩa như những đột phá trong chăm sóc sức khỏe toàn cầu và giáo dục. Điều đó sẽ tuyệt vời, và bạn có thể có một cuộc sống vô cùng thỏa mãn. Vâng, tôi chỉ muốn nói trên phương diện đó, điều này luôn là một điều mơ ước của các nhà công nghệ. Để làm những điều kỳ diệu trong thời gian rảnh của chúng ta, nhưng cuối cùng chúng ta lại dành thời gian cho việc lướt mạng tích cực. Đại dịch cô đơn. Đúng rồi, tỷ lệ sinh giảm. Vì vậy, tiềm năng cho điều tốt ở đây là vô hạn, và tiềm năng cho điều xấu là gấp mười lần. Chẳng hạn, có chiến tranh, những âm thanh giả không thể phát hiện, và lừa đảo. Vì vậy, mọi người không hiểu có bao nhiêu cách khác nhau mà họ sẽ bị lừa. Nhìn này, tôi không nghĩ rằng đổ lỗi cho công nghệ về tất cả mọi thứ là điều đúng đắn. Tất cả những vấn đề này, chúng đã tồn tại rồi. Chúng đều là cha đẻ ở đây. Vậy bạn nói gì với con cái của bạn? Vâng, trước tiên… Tôi thấy thật sự thú vị rằng khi chúng ta nhìn vào phần cuối của Spotify và Apple và các kênh âm thanh của chúng ta, phần lớn mọi người xem podcast này vẫn chưa nhấn nút theo dõi hoặc nút đăng ký, ở bất kỳ đâu bạn đang nghe điều này. Tôi muốn đưa ra một thỏa thuận với bạn. Nếu bạn có thể làm một điều lớn lao cho tôi và nhấn nút đăng ký, tôi sẽ làm việc cật lực từ bây giờ đến vĩnh viễn để làm cho chương trình ngày càng tốt hơn. Tôi không thể diễn tả câu chuyện đó giúp thế nào khi bạn nhấn nút đăng ký. Chương trình sẽ lớn hơn, có nghĩa là chúng ta có thể mở rộng sản xuất, mời tất cả những khách mời mà bạn muốn gặp, và tiếp tục làm điều mà chúng ta yêu thích. Nếu bạn có thể làm phước lành nhỏ cho tôi và nhấn nút theo dõi, ở bất kỳ đâu bạn đang nghe điều này, điều đó sẽ có ý nghĩa rất lớn đối với tôi. Đó là điều duy nhất tôi sẽ yêu cầu bạn. Cảm ơn bạn rất nhiều vì đã dành thời gian. Lý do tôi muốn có cuộc trò chuyện này với tất cả bạn là vì chủ đề về AI, nhưng cụ thể hơn là các đại diện AI, đã chiếm lĩnh thời gian rảnh rỗi của tôi trong nhiều tuần liền. Và thực sự, Amjad, khi tôi bắt đầu sử dụng Replit, đối với tôi, đó là một sự thay đổi lớn. Đã có hai sự thay đổi lớn xảy ra cách nhau khoảng một tuần. ChatGPT phát hành mô hình tạo hình ảnh mà bạn có thể tạo ra bất kỳ hình ảnh nào. Nó rất chi tiết với văn bản và tất cả những thứ đó. Đó là một sự thay đổi lớn. Và sau đó, trong cùng một tuần đó, cuối cùng tôi đã nhượng bộ để cố gắng tìm hiểu thuật ngữ đại diện AI mà tôi nghe thấy khắp nơi trên internet. Tôi nghe về Vibe coding. Tôi nghe về đại diện AI. Tôi đã nghĩ, tôi sẽ thử. Và khi tôi sử dụng Replit, sau 20 phút, tôi đã choáng váng. Và tôi nghĩ rằng đêm đó tôi đã thức đến 3 hoặc 4 giờ sáng. Đối với ai đó không biết, Replit là một phần mềm cho phép bạn tạo ra phần mềm và hầu như bất kỳ phần mềm nào bạn muốn. Vì vậy, một người như tôi không có kỹ năng lập trình nào đã có thể xây dựng một trang web, tích hợp Stripe, nhận thanh toán, tích hợp AI vào trang web của mình, thêm đăng nhập Google ở trước trang web của tôi, và thực hiện điều đó trong vài phút. Sau đó, tôi đã gửi phần mềm mà tôi đã xây dựng mà không có kỹ năng lập trình cho bạn bè của mình, và một trong những người bạn của tôi đã đưa thẻ tín dụng của anh ấy vào và thanh toán. Vì vậy, tôi vừa mới ra mắt một công ty SaaS mà không cần kỹ năng lập trình. Để minh họa một cách đơn giản về một đại diện AI, tôi đã sử dụng một đại diện AI trực tuyến có tên là Operator để đặt nước cho tất cả chúng tôi từ một cửa hàng CVS gần đó. Đại diện AI đã thực hiện mọi thứ từ đầu đến cuối, và mọi người sẽ quan sát điều đó trên màn hình. Nó đã nhập thông tin thẻ tín dụng của tôi, chọn nước cho tôi, đưa tiền tip cho người giao hàng, và thêm một số ghi chú giao hàng. Vào một thời điểm nào đó, một chàng trai sẽ bước vào. Anh ấy chưa tương tác với bất kỳ con người nào. Anh ấy đã tương tác với đại diện AI của tôi. Và lý do tôi sử dụng điều này làm ví dụ là, lại một lần nữa, đó là một khoảnh khắc chuyển đổi lớn đối với tôi khi tôi nghe về các đại diện cách đây khoảng một tháng, và tôi đã đặt một chai điện giải. Và khi chuông cửa của tôi reo, tôi đã hoảng sợ. Tôi đã hoảng sợ. Nhưng Amjad, bạn là ai? Và bạn đang làm gì? Tôi bắt đầu lập trình từ khi còn rất trẻ. Bạn biết đấy, tôi đã xây dựng doanh nghiệp đầu tiên khi tôi còn là một thiếu niên. Tôi thường đến các quán cà phê internet và lập trình ở đó. Và tôi nhận ra rằng họ không có phần mềm để quản lý doanh nghiệp. Tôi đã nghĩ, ôi, tại sao bạn không tạo tài khoản? Tại sao tôi không có một máy chủ? Tôi đã mất hai năm để xây dựng phần mềm đó. Và điều đó đã ăn sâu vào tâm trí tôi, ý tưởng rằng, hey, bạn biết đấy, có rất nhiều người trên thế giới với những ý tưởng thực sự tuyệt vời, đặc biệt là trong bối cảnh mà họ sống, cho phép họ xây dựng doanh nghiệp. Tuy nhiên, nguồn gốc chính của sự cản trở giữa một ý tưởng và phần mềm, hay gọi nó là một ý tưởng, và việc tạo ra tài sản, là cơ sở hạ tầng, là cơ sở hạ tầng vật lý, có nghĩa là một chiếc máy tính trước mặt bạn. Đó là một kết nối internet. Đó là bộ công cụ và kỹ năng mà bạn cần để xây dựng điều đó. Nếu chúng ta làm cho bất kỳ ai có ý tưởng, muốn giải quyết vấn đề, có thể làm điều đó.
Tôi có ý nói, hãy tưởng tượng về loại thế giới mà chúng ta có thể sống, nơi mà không ai có thể trở thành ai, ai có năng lực, ai có thể suy nghĩ rõ ràng, ai có thể tạo ra nhiều ý tưởng có thể tạo ra sự giàu có. Tôi có ý nói, đó là một thế giới tuyệt vời để sống, đúng không? Bất kỳ nơi nào trên thế giới.
Với Replit, công ty mà tôi bắt đầu vào năm 2016, ý tưởng là, được rồi, lập trình thì khó. Làm thế nào để chúng ta giải quyết vấn đề lập trình? Và chúng tôi đã xây dựng mọi phần của quy trình, từ hosting đến trình soạn thảo mã. Điều duy nhất còn thiếu là, bạn biết đấy, đại lý AI. Và trong suốt hai năm qua, chúng tôi đã làm việc trên đại lý AI này mà bạn chỉ cần, bạn biết đấy, tương tự như ChatGPT, bạn biết, cuộc cách mạng với Gen.AI, và bạn có thể nói ý tưởng của mình thành hiện thực. Tôi có ý nói, điều này bắt đầu nghe có vẻ tôn giáo. Giống như, đây là như, bạn biết đấy, các vị thần, bạn biết đấy, những huyền thoại mà con người đã tạo ra. Họ từng tưởng tượng một thế giới mà bạn có thể ở mọi nơi và bất kỳ đâu cùng một lúc. Đó là Internet, và bạn cũng có thể nói ý tưởng của bạn thành hiện thực. Và, bạn biết đấy, vẫn còn sớm. Tôi nghĩ rằng đại lý Replit là một công cụ tuyệt vời, và tôi nghĩ rằng công nghệ này sẽ trở nên mạnh mẽ hơn rất nhiều.
Cụ thể, đại lý AI là gì? Tôi có một biểu đồ này, thực ra, tôi không cần phải truyền đạt cho bất kỳ ai để có thể thấy sự tăng trưởng của các đại lý AI. Nhưng biểu đồ này là dữ liệu xu hướng tìm kiếm của Google. Điều này cũng tương tự như doanh thu của chúng tôi nữa. Ồ, được rồi, đúng. Nước đã đến. Xin chào. Cảm ơn bạn. Bạn có thể vào trong. Tôi có thể thử một chút không? Vâng, số là 3951. Tuyệt. Cảm ơn bạn rất nhiều. Cảm ơn. Cảm ơn. Đây giống như một loại sức mạnh siêu nhiên. Bạn đã tạo ra nước. Tôi đã tạo ra nước từ tâm trí của mình. Yeah. Và nó đã xuất hiện ở đây với chúng ta. Và nó rõ ràng nghĩ rằng chúng ta cần rất nhiều. Yeah.
Nhưng chỉ để định nghĩa thuật ngữ đại lý AI cho những ai chưa bao giờ nghe thấy thuật ngữ này trước đây. Yeah. Yeah. Vậy tôi giả sử hầu hết khán giả bây giờ đã quen thuộc với ChatGPT, đúng không? Bạn có thể vào và nói chuyện với một AI. Nó có thể tìm kiếm trên web cho bạn. Nó có một số công cụ hạn chế. Có thể nó có thể gọi máy tính để thực hiện một số phép trừ bổ sung cho bạn. Nhưng chỉ có vậy thôi. Đó là phong cách yêu cầu-phản hồi. Đại lý là khi bạn đưa cho nó một yêu cầu, và chúng có thể làm việc vô thời hạn cho đến khi chúng đạt được mục tiêu, hoặc chúng gặp lỗi và cần giúp đỡ từ bạn. Nó là một bot AI có quyền truy cập vào các công cụ. Những công cụ đó là quyền truy cập vào trình duyệt web, như Operator, quyền truy cập vào một môi trường lập trình, chẳng hạn như Replit, quyền truy cập vào thẻ tín dụng. Càng nhiều công cụ bạn cung cấp cho đại lý, nó càng mạnh mẽ. Tất nhiên, có tất cả những cân nhắc về bảo mật và an toàn và tất cả những thứ đó. Nhưng điều quan trọng nhất là đại lý AI sẽ xác định khi nào nó kết thúc việc thực hiện.
Ngày nay, các đại lý AI có thể chạy từ khoảng 30 giây đến 30 phút. Có một tài liệu gần đây cho thấy rằng cứ bảy tháng, số phút mà đại lý có thể chạy được tăng gấp đôi. Vì vậy, hiện tại chúng tôi đang ở khoảng 30 phút. Trong bảy tháng tới, chúng tôi sẽ đạt một giờ. Rồi hai giờ. Sớm thôi, chúng tôi sẽ đạt đến vài ngày. Và lúc đó, đại lý AI đang thực hiện công việc, đang thực hiện một loại lao động giống như con người. Và thực tế, mô hình mới của OpenAI, O3, đã vượt qua kỳ vọng. Vì vậy nó đã gấp đôi độ đồng nhất trong các nhiệm vụ dài hạn chỉ trong ba hoặc bốn tháng. Vì vậy, chúng tôi đang ở trong một đợt bùng nổ lớn, và ý tôi là, biểu đồ theo cấp số nhân này, bạn biết đấy, cho thấy xu hướng lớn mà chúng tôi đang trên đường đi.
Brett, hãy cho chúng tôi biết một chút về nền tảng của bạn. Nhưng cũng đã thấy bạn viết một vài ghi chú ở đó. Có một vài từ được nhắc đến mà tôi thấy khá thú vị, đặc biệt là xem xét những gì tôi biết về bạn. Từ “Thần” đã được sử dụng vài lần. À, để tôi nói rằng, tôi là một nhà sinh học tiến hóa. Một trong những điều mà tôi tin là đúng về AI là đây là lần đầu tiên chúng ta đã xây dựng những cỗ máy đã vượt qua ngưỡng từ rất phức tạp sang thực sự phức tạp. Và tôi sẽ nói rằng tôi đang lắng nghe cuộc trò chuyện này với sự hòa trộn giữa hy vọng sâu sắc và nỗi sợ, vì dường như rõ ràng rằng tiềm năng tốt mà công nghệ này có thể mang lại là vô hạn. Nhưng tôi sẽ nói rằng thiệt hại có lẽ gấp mười lần. Đó là một vô hạn lớn hơn. Và câu hỏi về việc chúng ta sẽ đến đâu để có thể tận dụng sức mạnh rõ ràng đang ở đây để làm điều tốt và tránh những thiệt hại tồi tệ nhất, tôi không có ý tưởng. Tôi biết chúng ta chưa sẵn sàng.
Vì vậy, tôi nghe bạn nói về các đại lý, và tôi nghĩ điều đó thật tuyệt vời. Chúng ta có thể tất cả sử dụng một thứ như vậy ngay lập tức, và càng mạnh mẽ thì càng tốt. Ý tưởng về một cái gì đó có thể giải quyết vấn đề thay mặt bạn trong khi bạn đang làm việc khác thật tuyệt vời. Nhưng tất nhiên, đó là điều kiện tiên quyết cho sự tàn phá tuyệt đối nảy sinh từ một sự hiểu lầm. Đúng không? Để có một cái gì đó hoạt động tự động để đạt được một mục tiêu, bạn tốt nhất nên hiểu rõ mục tiêu thực sự là gì và cách lùi lại trong trường hợp nó bắt đầu đạt được điều gì đó không phải là mục tiêu, tiềm năng cho lạm dụng cũng cực kỳ sâu sắc. Bạn biết đấy, bạn có thể tưởng tượng, chỉ cần chọn một câu chuyện dystopia tối tăm mà bạn thích nơi mà cái gì đó đã được yêu cầu truy đuổi bạn cho đến khi bạn chết. Và nó coi đó là một thử thách kỹ thuật. Vì vậy, tôi không biết làm thế nào để cân bằng một cuộc thảo luận về tất cả những điều rõ ràng có thể đến từ điều này mà hoàn toàn siêu việt. Ý tôi là, tôi thực sự nghĩ rằng không sai khi nhắc đến Thần hoặc các phép ẩn dụ trong Kinh thánh ở đây. Bạn biết đấy, bạn đang sản xuất nước dường như từ không khí loãng. Tôi tin rằng điều đó có một sự tương đồng chính xác trong Kinh thánh. Vậy trong mọi trường hợp, sức mạnh tồn tại ở đây. Nhưng cũng vậy, cần có những câu chuyện cảnh báo, mà chúng ta không có. Vấn đề là không có một tập hợp huyền thoại nào sẽ cảnh báo chúng ta đúng cách về công cụ này vì chúng ta vừa mới vượt qua một ngưỡng mà về khả năng làm thay đổi thế giới như phát minh viết. Tôi thực sự nghĩ rằng đó là vị trí của chúng ta.
Chúng ta đang nói về một điều sẽ thay đổi căn bản con người mà không có kế hoạch nào. Bạn biết đấy, việc viết lách làm thay đổi thế giới một cách từ từ vì số người có khả năng làm điều đó ban đầu rất nhỏ và vẫn như vậy trong hàng ngàn năm, nhưng điều này đang thay đổi hàng tuần. Và đó là một sức mạnh rất lớn chỉ đơn giản được đổ lên một hệ thống không được quản lý tốt từ đầu.
Dan.
Vâng, tôi là một doanh nhân. Tôi đã xây dựng các doanh nghiệp trong hơn 20 năm qua. Tôi hoàn toàn ở giữa hai bạn ở đây. Sự phấn khởi của cơ hội và nỗi sợ hãi về những gì có thể xảy ra. Có một hình ảnh tôi thấy về Thành phố New York vào năm 1900 và mọi phương tiện trên đường đều là ngựa kéo xe. Và sau 13 năm, cùng một bức ảnh từ cùng một vị trí và mọi phương tiện trên đường đều là ô tô. Chỉ trong 13 năm, tất cả những con ngựa đã bị loại bỏ và ô tô đã được thay thế. Và nếu bạn phỏng vấn những con ngựa vào năm 1900 và hỏi chúng cảm thấy như thế nào về mức độ tự tin của chúng trong thế giới này? Những con ngựa sẽ nói, à, chúng đã là một phần của nhân loại, bạn biết đấy, ngựa trong móng, tay trong móng trong nhiều, nhiều năm, trong hàng ngàn năm. Có một con ngựa cho mỗi ba con người. Thì có thể tệ đến đâu? Bạn biết đấy, chúng tôi sẽ luôn có một vị trí đặc biệt. Chúng tôi sẽ luôn là một phần của xã hội. Và không lâu sau, những con ngựa nhận ra rằng điều đó không đúng, rằng chúng sẽ nhanh chóng bị loại bỏ khỏi hoạt động kinh doanh.
Và để lý luận qua phép ẩn dụ, bạn biết đấy, có rất nhiều người trong chúng ta bây giờ đang ngồi đó và nghĩ, khoan đã, điều này có biến tôi thành một con ngựa vào năm 1900 không? Tôi nghĩ rất nhiều người không nhận ra rằng những công nghệ như thế này sẽ có tác động khổng lồ. Bạn biết đấy, một giây chúng ta đang gọi nước và điều đó thật dễ thương. Và giây sau, nó có thể hoạt động trong vài ngày. Và theo lời bạn, nó không dừng lại cho đến khi đạt được mục tiêu của mình. Và nó nghĩ ra nhiều cách khác nhau nhất có thể để đạt được mục tiêu đó. Và theo lời bạn, nó tốt hơn hết là nên biết mục tiêu đó là gì.
Tôi đang nghĩ rất nhiều, Amjad, khi Daniel đang nói về ứng dụng rộng lớn của các tác nhân AI và giới hạn của chúng. Bởi vì nếu cái này ngày càng thông minh hơn theo từng bước, thì “theo từng bước” có thể là một cách nói giảm nhẹ. Nó sẽ trở nên cực kỳ thông minh, cực kỳ nhanh chóng. Và chúng ta thấy cuộc đua AI này, nơi tất cả các mô hình ngôn ngữ lớn này đang cạnh tranh trí tuệ với nhau. Và nếu nó có thể duyệt internet và nhấp vào các thứ và đặt hàng và viết và tạo ra mọi thứ, và tất cả cuộc sống của chúng ta hiện nay đều chạy trên internet, thì nó không thể làm gì?
Nó sẽ thông minh hơn tôi. Không nghi ngờ gì. Nó đã như vậy rồi. Và nó sẽ có khả năng thực hiện các hành động trên internet, nơi mà hầu hết cuộc sống nghề nghiệp của tôi hoạt động. Đó là cách tôi xây dựng doanh nghiệp của mình. Ngay cả podcast này cũng là sản phẩm của internet vào cuối ngày. Bởi vì bạn có thể tạo ra, chúng tôi đã tiến hành thí nghiệm bây giờ, và tôi có thể cho bạn thấy các biểu đồ trên điện thoại của tôi để làm podcast AI. Và chúng tôi đã, chúng tôi mới quản lý để có được mức độ giữ chân giống như CEO của tài xế. Bây giờ, với mô hình tạo hình ảnh. Giữ chân như trong giữ chân người xem? Tỷ lệ phần trăm người xem đến một giờ là giống nhau bây giờ. Vì vậy, chúng tôi có thể tạo ra video, chúng tôi có thể xuất bản nó, chúng tôi có thể viết kịch bản cho nó. Bạn có thể tổng hợp giọng nói của tôi. Nghe giống tôi. Vậy nó sẽ có khả năng làm gì? Và bạn có thể cho tôi biết các trường hợp sử dụng đa dạng mà người bình thường có thể không có khái niệm một cách trực quan không?
Vâng. Tôi có xu hướng là một người lạc quan. Và một phần lý do là vì tôi cố gắng hiểu giới hạn của công nghệ. Nó có thể làm gì là bất cứ điều gì mà chúng ta có, bất kỳ loại bộ dữ liệu nào mà chúng ta có thể đào tạo nó. Nó không thể làm gì là những điều mà con người không biết phải làm, bởi vì chúng tôi không có dữ liệu đào tạo. Tất nhiên, nó rất thông minh vì nó tích hợp một lượng kiến thức khổng lồ mà bạn không thể đọc được, đúng không? Nó cũng nhanh hơn rất nhiều. Nó có thể chạy qua một lượng lớn các phép toán mà, bạn biết đấy, não của bạn, bạn không thể hiểu nổi. Vì tất cả những điều đó, chúng rất thông minh. Chúng có thể thực hiện các hành động. Nhưng chúng tôi biết giới hạn của những gì chúng có thể làm vì chúng tôi luyện tập cho chúng. Chúng có thể mô phỏng những gì mà con người có thể làm.
Vì vậy, lý do bạn có thể đặt hàng nước ở đó là vì nó đã được đào tạo trên dữ liệu NSF. Điều này bao gồm việc nhấp vào DoorDash và đặt hàng nước. Tôi hoan nghênh sự lạc quan của bạn, và tôi thích cách bạn suy nghĩ về những câu đố này, nhưng tôi nghĩ tôi thấy bạn đã mắc một sai lầm mà chúng tôi sắp phát hiện là rất phổ biến. Chúng tôi có nhiều loại hệ thống khác nhau. Chúng tôi có hệ thống đơn giản. Chúng tôi có hệ thống phức tạp. Chúng tôi có hệ thống phức tạp. Và sau đó chúng tôi có hệ thống thích ứng phức tạp. Đối với hầu hết chúng ta, một hệ thống rất phức tạp dường như giống như một hệ thống phức tạp. Chúng tôi không hiểu sự khác biệt. Các nhà công nghệ thường thành thạo các hệ thống rất phức tạp. Và họ biết, bạn biết đấy, ví dụ, một máy tính. Đây là một hệ thống hoàn toàn có thể dự đoán bên trong. Nó là xác định. Nhưng đối với hầu hết chúng ta, nó hoạt động. Nó bí ẩn đủ để cảm thấy giống như một hệ thống phức tạp. Và nếu bạn đang ở trong vị trí đã thành thạo các hệ thống rất phức tạp, và bạn nhìn vào các hệ thống phức tạp, và bạn nghĩ đó là một sự mở rộng tự nhiên, bạn thất bại trong việc dự đoán chính xác mức độ không thể đoán trước của chúng. Vì vậy, ngay cả khi hôm nay đúng là có những giới hạn về những gì mà những cỗ máy này có thể làm dựa trên dữ liệu đào tạo của chúng, tôi nghĩ vấn đề là để thấy những gì sẽ xảy ra, bạn thực sự muốn bắt đầu suy nghĩ về điều này như là sự tiến hóa của một loài mới sẽ tiếp tục tiến hóa. Nó sẽ một phần được định hình bởi những gì chúng tôi yêu cầu nó làm, hướng đi mà chúng tôi dẫn dắt nó. Và nó sẽ một phần được định hình bởi những điều mà chúng tôi không hiểu. Vậy máy tính này mà chúng ta có hoạt động như thế nào? Chà, một trong những điều mà nó làm là chúng tôi kết nối chúng với nhau.
Sử dụng ngôn ngữ, gần như bạn đã cắm một cáp Ethernet giữa các tâm trí con người. Và điều đó có nghĩa là tiềm năng nhận thức vượt quá tổng số các tâm trí cá nhân liên quan. Các trí tuệ nhân tạo của bạn sẽ làm điều đó. Và điều đó có nghĩa là khả năng của chúng ta để nói về những gì chúng có thể làm không chỉ dựa vào, ồ, chúng tôi đã không đào tạo nó trên dữ liệu đó. Khi chúng bắt đầu tương tác, phản hồi đó sẽ đưa chúng đến những khả năng mà chúng ta không lường trước được và có thể thậm chí không nhận ra một khi chúng đã xuất hiện. Đó là một trong những nỗi sợ của tôi. Đây là một sinh vật đang tiến hóa, và thậm chí không phải là một con vật. Nếu đó là một con vật, bạn có thể nói điều gì đó về giới hạn của khả năng đó. Nhưng đây là một loại sinh vật sinh học mới, và nó sẽ trở nên có khả năng làm những việc mà chúng ta thậm chí chưa có tên gọi. Ngay cả khi nó không làm điều đó, ngay cả khi nó chỉ ở lại trong giới hạn mà bạn đang nói đến, bạn đã đề cập đến việc nó có trí tuệ ở mức trung bình. Vâng, điều đó theo định nghĩa có nghĩa là 50% người trên hành tinh này có trí thông minh thấp hơn AI. Bạn biết không, đến một mức độ nào đó, gần như chúng ta vừa mới phát minh ra một lục địa mới của những người làm việc từ xa. Có hàng tỷ người như vậy. Tất cả họ đều có bằng thạc sĩ hoặc tiến sĩ. Họ đều nói tất cả các ngôn ngữ. Bất cứ điều gì mà bạn có thể gọi ai đó hoặc yêu cầu ai đó làm qua internet, họ đều có mặt 24/7 và chỉ với giá 25 cent một giờ, nếu không muốn nói là có thể thấp hơn. Vì vậy, giống như, nếu điều đó thật sự xảy ra, nếu chúng ta thật sự chỉ khám phá ra rằng có một tỷ người bổ sung trên hành tinh này, tất cả đều có bằng tiến sĩ và sẵn sàng làm việc gần như miễn phí, điều đó sẽ có tác động đột phá lớn đến xã hội. Giống như, xã hội sẽ phải xem xét lại cách mọi người sống và làm việc và tìm kiếm ý nghĩa. Vì vậy, giống như, và đó là nếu nó chỉ duy trì ở mức trí tuệ trung bình. Giống như, điều đó khá sâu sắc. Tôi vẫn nghĩ đây là một công cụ. Đây là sức mạnh mà có thể được khai thác bởi các doanh nhân. Bạn biết không, tôi nghĩ rằng thế giới sẽ bị xáo trộn, phải không? Và, bạn biết đó, thế giới hậu chiến mà chúng ta đã tạo ra, nơi bạn trải qua cuộc sống, bạn trải qua 12 năm giáo dục, bạn vào đại học, và bạn chỉ cần đánh dấu những ô, bạn có một công việc. Chúng ta có thể thấy những vết nứt của điều đó rồi. Giấc mơ Mỹ này có lẽ không còn nữa. Và vì vậy, tôi nghĩ thế giới đã thay đổi. Vậy, nhưng, như vậy, cơ hội là gì? Rõ ràng, có những mặt tiêu cực. Cơ hội lần đầu tiên, quyền truy cập vào cơ hội là như nhau. Và tôi cũng nghĩ rằng sẽ có nhiều bất bình đẳng hơn. Và lý do cho sự bất bình đẳng này là vì thực tế, Steve Jobs, bạn biết đấy, đã đưa ra phép so sánh này. Giống như tài xế taxi tốt nhất ở New York thì như 20% tốt hơn so với tài xế taxi trung bình. Lập trình viên tốt nhất có thể giỏi hơn 10 lần. Bạn biết, chúng ta nói về kỹ sư 10 lần. Bây giờ, sự khác biệt có thể là 1.000 lần, phải không? Giống như, doanh nhân tốt nhất có thể tận dụng những tác nhân đó thì có thể giỏi hơn. Nó có thể giỏi hơn 1.000 lần so với một người không có nghị lực, không có kỹ năng, không có tham vọng, đúng không? Vì vậy, điều đó sẽ tạo ra một thế giới. Vâng, có quyền truy cập lớn vào cơ hội, nhưng có những người sẽ nắm bắt, bạn biết đấy. Chớp lấy nó và rồi sẽ có những người không làm như vậy. Tôi tưởng tượng điều đó giống như một cuộc đua marathon. Và AI có hai siêu năng lực. Một siêu năng lực là làm phân tâm mọi người, giống như thuật toán TikTok. Đúng vậy. Và siêu năng lực kia là khiến bạn trở nên sáng tạo quá mức. Vì vậy, bạn trở thành một người tiêu dùng siêu hoặc một người sáng tạo siêu. Và trong cuộc đua marathon này, phần lớn mọi người có giày buộc chặt với nhau vì AI đang làm phân tâm họ. Một số người đang chạy đua theo cách truyền thống. Một số người đi xe đạp. Và một số người thì có một chiếc xe đua Formula 1. Và sẽ rất gây sốc khi kết quả hiển thị trên bảng điểm và bạn nói, ôi, chờ một chút. Có một vài người đã hoàn thành cuộc marathon này trong khoảng 30 phút. Và có rất nhiều người trong chúng ta hoàn thành trong khoảng 18 giờ vì chúng ta có giày buộc chặt với nhau. Và tôi không thể hiểu được nếu chúng ta có cơ hội như nhau thì tại sao lại có quá nhiều sự chênh lệch giữa tốc độ, bạn biết đấy. Và, bạn biết, tôi đang sử dụng phép so sánh nhưng ý tưởng rằng, bạn biết đấy, nhiều người sẽ bắt đầu kiếm được một triệu đô la mỗi tháng. Và nhiều người sẽ nói, nè, tôi thậm chí không thể tìm được một công việc với 15 đô la một giờ. Sẽ có một loại rào cản thú vị như vậy. Vâng, nhưng tôi nghe trong những gì cả hai bạn đang nói một loại giả định rằng tất cả những điều này sẽ diễn ra công bằng. Và tôi thực sự chỉ muốn – tôi không phải là một người bi quan. Tôi đồng ý rằng những người bi quan có lẽ sai lầm, rằng những nỗi sợ của họ không đúng chỗ. Nhưng tôi thực sự nghĩ rằng chúng ta đang có một câu hỏi về vấn đề tỷ lệ liên quan. Bạn biết đấy, tôi đã nói rằng tiềm năng cho điều tốt ở đây là vô hạn và tiềm năng cho điều xấu thì gấp 10 lần, phải không? Và điều tôi muốn nói là có rất nhiều cách mà điều này rõ ràng trao quyền cho mọi người làm những điều mà họ sẽ bị mắc kẹt trong quá trình học lập trình tẻ nhạt và rồi tìm cách làm cho mã hoạt động và đưa nó ra thị trường và tất cả những điều đó. Và điều này giải quyết nhiều vấn đề đó, và rõ ràng đó là điều tốt. Thực sự, điều mà chúng ta nên mong muốn là việc tạo ra sự giàu có diễn ra nhanh nhất có thể. Nhưng vấn đề là, bạn biết đấy, dù cho cá nhân sáng tạo quá mức đó có khả năng tạo ra sự giàu có, thì người muốn ăn cắp có thể còn có khả năng hơn. Và tôi rất lo về điều đó ở một mức độ khá cao. Các trường hợp lạm dụng có thể nhiều hơn các trường hợp sử dụng, và chúng ta không có kế hoạch gì cho những điều đó. Tôi có thể cho bạn một giới thiệu ngắn gọn, như quan điểm lạc quan? OpenAI đã phát minh ra – phiên bản đầu tiên của GPT ra mắt vào năm 2019. Năm 2020 là GPT-2. Và vì vậy, OpenAI, bạn biết đấy, giờ họ nhận được rất nhiều chỉ trích và kiện tụng từ Elon Musk rằng họ không còn mã nguồn mở nữa, đúng không? Đúng vậy. Họ đã từng như vậy.
Lý do là, trong GPT-2, họ đã nói rằng, chúng tôi sẽ không còn mở mã nguồn công nghệ này nữa vì nó sẽ tạo ra những cơ hội cho việc lạm dụng như, bạn biết đấy, ảnh hưởng đến các cuộc bầu cử, bạn biết đấy, đánh cắp thẻ tín dụng của bà ngoại và nhiều thứ khác nữa.
Bạn có thể nói, Brett, rằng có vẻ thật bất ngờ khi cho đến nay chúng ta đã thấy rất ít lạm dụng chưa?
Tôi không biết chúng ta đã thấy bao nhiêu lạm dụng cho đến nay.
Tôi cũng không biết bất kỳ ai trong số chúng ta.
Và tôi cũng – ngay cả ví dụ mà bạn đưa ra, nơi ChatGPT không còn mã nguồn mở để ngăn chặn lạm dụng, tôi tin vào lời họ rằng đó là động cơ.
Còn như một lý thuyết gia hệ thống, tôi sẽ nói rằng, nếu bạn có một công nghệ xuất sắc trong việc tăng cường khả năng nắm giữ quyền lực của mình, thì việc mở mã nguồn cho nó là một thất bại trong việc khai thác điều đó.
Và việc sử dụng sinh lợi nhất là giữ nó riêng tư và sau đó hoặc bán khả năng thao túng các cuộc bầu cử cho những người muốn làm như vậy hoặc bán khả năng giữ nó ngoài tầm với cho những người không muốn.
Và tôi mong rằng có lẽ đó là những gì đang diễn ra.
Nếu bạn có một công nghệ biến đổi như thế này, việc cho đi miễn phí là trái ngược với trực giác, điều này để lại cho chúng ta, những người trong công chúng, hơn hoặc ít bị lạm dụng bởi những người sở hữu nó.
Và tôi không thấy lý do gì để cảm thấy thoải mái ở đó.
Chúng ta đang ở ranh giới của sự chuyển biến triệt để này của nhân loại mà bởi chính bản chất của nó như một đổi mới thực sự phức tạp và nổi bật, không ai trên trái đất có thể dự đoán điều gì sẽ xảy ra.
Chúng ta đang – chúng ta đang ở bên bờ sự kiện của một điều gì đó.
Và vấn đề là, bạn biết đấy, chúng ta có thể nói về những sự gián đoạn rõ ràng, sự gián đoạn công việc, và điều đó sẽ rất lớn.
Và điều đó có dẫn đến một nhóm tinh hoa nào đó quyết định, ôi, bất ngờ chúng ta có quá nhiều người ăn không ngồi rồi và chúng ta sẽ làm gì về điều đó?
Bởi vì cuộc trò chuyện đó thường dẫn đến những nơi rất tối tăm rất nhanh.
Nhưng tôi nghĩ đó chỉ là sự khởi đầu của nhiều cách mà điều này có thể đi sai mà không cần phải có những kịch bản Doomer xuất hiện.
Đây là một thí nghiệm không kiểm soát mà toàn nhân loại đang bị cuốn vào.
Vì vậy, tôi đã cố gắng chỉ ra rằng OpenAI đã sai về mức độ tiềm năng gây hại mà nó có.
Bạn biết đấy, tôi nghĩ chúng ta đã nghe về nó trên tin tức, kiểu như nó đã gây ra bao nhiêu tổn hại.
Có thể, bạn biết đấy, một phần nào đó đang diễn ra trong bóng tối.
Nhưng, như, những sự cố mà chúng ta đã nghe về, nơi, bạn biết đấy, nguyên nhân của LLMs, những mô hình ngôn ngữ lớn, công nghệ đang vận hành ChatGPT, đã là những tiêu đề lớn.
Như, New York Times đã nói về đứa trẻ này mà, bạn biết đấy, có thể đã bị thúc đẩy bởi một loại phần mềm trò chuyện nào đó giúp thiếu niên cảm thấy ít cô đơn hơn, dẫn đến tự tử, thật đáng tiếc.
Và, hiển nhiên, đây là những vấn đề về an toàn và lạm dụng mà chúng ta muốn lo lắng.
Nhưng đây là những sự cố tương đối cô lập.
Và chúng ta có những mô hình ngôn ngữ lớn mã nguồn mở.
Hiển nhiên, điều mà mọi người nói đến là DeepSeq.
DeepSeq đến từ Trung Quốc.
Vậy động cơ của DeepSeq là gì?
Bạn biết đấy, có thể động cơ là để phá hủy ngành công nghiệp AI ở Hoa Kỳ.
Bạn biết đấy, khi họ phát hành DeepSeq, thị trường đã tụt giảm, thị trường cho NVIDIA, thị trường cho AI, và tất cả những điều đó.
Nhưng có một động cơ để mở mã nguồn.
Meta đang mở mã nguồn cho LLAMA.
LLAMA là một AI khác tương tự như ChatGPT.
Lý do họ mở mã nguồn cho LLAMA, và Zuckerberg đã nói ra một cách rõ ràng, hầu như họ không muốn phụ thuộc vào OpenAI.
Họ không bán AI như một dịch vụ.
Họ sử dụng nó để xây dựng sản phẩm.
Và có một khái niệm trong kinh doanh gọi là thương mại hóa bổ sung của bạn.
Vì bạn cần AI như một công nghệ để vận hành dịch vụ của mình, chiến lược tốt nhất là mở mã nguồn cho nó.
Vì vậy, những lực lượng thị trường này sẽ tạo ra các điều kiện mà tôi nghĩ thực sự có lợi.
Vì vậy, tôi sẽ đưa ra một vài ví dụ.
Một là, trước hết, các công ty AI được khuyến khích tạo ra AI an toàn để họ có thể bán nó.
Thứ hai, có những công ty an ninh đang đầu tư vào AI giúp họ bảo vệ khỏi những hành động ác ý của AI.
Và vì vậy bạn có thị trường tự do.
Và chúng ta đã luôn có điều đó, bạn biết đấy.
Nhưng nói chung, với tư cách là nhân loại, chúng ta đã có khả năng tận dụng cùng một công nghệ để bảo vệ chống lại các dạng lạm dụng.
Vì vậy, tôi không thực sự hiểu điều này.
Và có thể điều này thực sự, đây là cuộc thảo luận chính xác mà bạn mong đợi giữa một người ở vùng biên của sự phức tạp cao, đang nhìn vào một hệ thống phức tạp, và một nhà sinh học đến từ vùng đất của sự phức tạp và đang nhìn lại vào các hệ thống phức tạp cao.
Trong lý thuyết trò chơi, chúng ta có một cái gì đó gọi là vấn đề hành động tập thể.
Và trong thị trường mà bạn mô tả, một công ty cá nhân không có khả năng kìm hãm các lạm dụng của AI.
Điều tốt nhất bạn có thể làm là không tham gia vào chúng.
Bạn không thể ngăn cản người khác lập trình LLMs theo cách nguy hiểm nào đó.
Và bạn có thể hạn chế khả năng kiếm tiền của chính mình dựa trên những giới hạn của những gì bạn sẵn lòng làm.
Và sau đó, điều thực sự xảy ra là công nghệ vẫn được phát minh.
Chỉ là đồng tiền cuối cùng lại rơi vào túi của người khác.
Vì vậy, động cơ không phải là để kiềm chế bản thân để bạn có thể ít nhất cạnh tranh và tham gia vào thị trường đang mở ra.
Và vì vậy, số lượng cách mà bạn có thể lạm dụng công nghệ này, hãy lấy một vài ví dụ.
Có gì ngăn cản ai đó đào tạo LLMs dựa trên sản phẩm sáng tạo của một cá nhân và sau đó tạo ra một LLM có thể cạnh tranh vượt trội với cá nhân đó, có thể không chỉ sản xuất những gì họ sẽ tự nhiên sản xuất trong suốt cuộc đời, mà còn có thể suy rộng từ đó và có thể lai ghép nó với những hiểu biết của những người khác.
Vì vậy, những ai có LLM có thể đào tạo nó dựa trên sự sáng tạo của những người khác, không cắt sẻ họ trong việc sử dụng những hiểu biết đó.
Bạn có thể thực sự tự đưa mình ra khỏi công việc của mình bằng cách đưa những ý tưởng sáng tạo của mình ra thế giới, nơi chúng bị sử dụng làm dữ liệu huấn luyện cho các mô hình ngôn ngữ lớn (LLM) trong tương lai. Điều đó thật vô đạo đức, nhưng nó hầu như chắc chắn sẽ xảy ra. Thực tế, điều đó đã xảy ra rồi. Đó là một vấn đề. Và tương tự, điều gì ngăn cản ai đó tương tác với một cá nhân và huấn luyện một LLM trở thành như một kẻ lừa đảo cá nhân hóa, điều gì sẽ chơi đúng vào những điểm mù của bạn? Thực tế, điều đó đang xảy ra. Người ta đang nhận được những cuộc gọi điện thoại và nó nghe giống như con gái của họ nói rằng “Tôi làm mất điện thoại rồi và tôi đang mượn điện thoại của bạn bè” và tất cả những thứ kiểu như vậy. Điều thú vị là tôi nghĩ bạn đã đưa ra một quan điểm rất hay. Tôi lo lắng về tác động lên xã hội. Nhưng khi tôi nhìn vào từng cá nhân sử dụng AI thường xuyên, điều đó gần như chỉ mang lại ảnh hưởng tích cực sâu sắc đến cuộc sống của họ. Tôi nhìn vào những người như tôi vừa dành thời gian với cha mẹ vợ của mình, những người ở độ tuổi 70 và đầu 80 và họ thường xuyên sử dụng AI cho đủ loại việc mà họ thấy vô cùng có giá trị và cải thiện chất lượng cuộc sống của họ. Cá nhân tôi đã thực hiện một giao dịch sáp nhập và mua lại, nơi tôi đã mua một công ty năm ngoái và AI đã rất mạnh mẽ trong việc hỗ trợ quy trình đó. Các cuộc trò chuyện đã được chép lại và chuyển thành thư ý định rồi sau đó là thông cáo báo chí và các tài liệu pháp lý. Chúng tôi đã tiết kiệm gần 100.000 đô la chi phí và đã tăng tốc toàn bộ quy trình, thật kỳ diệu khi thấy điều đó có thể xảy ra. Nói vậy có nghĩa là, có tất cả những điều như, 100.000 đô la tiền luật sư không được trả, đúng không? Vâng, tôi muốn biết, vâng, chúng ta có thể đồng ý điều đó là đúng. Nhưng nếu chúng ta nhìn lại sự ra đời của điện thoại di động hoặc sự ra đời của các nền tảng truyền thông xã hội, sẽ có mọi lý do để có cùng một quan điểm, đúng không? Tôi nhớ rằng ý tưởng đó bất ngờ xuất hiện, rằng quá trình mà trước đây đã làm khổ mọi người, nơi mà họ sẽ mất liên lạc với hầu hết những người quan trọng với họ, không còn cần thiết phải xảy ra nữa. Bạn có thể giữ họ mãi mãi như một phần của một nhóm xã hội phân tán mà đơn giản chỉ phát triển và giá trị được thêm vào. Không có giới hạn về bao nhiêu điều tốt mà điều đó đã làm, nhưng điều nó đã làm với chúng tôi thì sâu sắc và không rõ ràng trong chương đầu tiên. Nói điều tương tự về điện thoại di động và các bẫy dopamine cùng với cách mà điều này đã làm chúng ta tách biệt với nhau, cách mà nó đã tách chúng ta khỏi thiên nhiên, cách mà nó đã thay đổi chính các mẫu suy nghĩ của chúng ta. Nó đã làm thay đổi mọi lớp học. Và tôi nghĩ những điều đó sẽ hóa ra là những dấu hiệu nhỏ của sự gián đoạn mà AI sẽ tạo ra. Vì vậy, tôi đồng ý với bạn. Ngày nay, những gì bạn có thể làm với AI là một lượng lớn điều tốt. Có một chút tác hại. Có thể đó là điều chúng ta cần lo lắng. Nhưng khi điều này phát triển, khi chúng ta nhìn qua rìa của vực thẳm mà chúng ta đang hướng đến, tôi nghĩ chúng ta sẽ phát hiện ra rằng chúng ta vẫn chưa thể phát hiện được bản chất của sự biến đổi đang đến. Tôi chỉ muốn thêm một chút bối cảnh vào điều đó bởi vì, Amjad, tôi đã thấy cuộc phỏng vấn bạn thực hiện trong một bản tin năm 2023, nơi bạn đã nói, tôi sẽ không chuẩn bị cho AGI theo cách mà tôi sẽ không chuẩn bị cho ngày tận thế. Đó thực sự là ngày tận thế nếu tầm nhìn về AGI mà một số công ty này đang có trở thành hiện thực, vì nó được gọi là “thời điểm đơn nhất” bởi vì bạn không thể thực sự dự đoán những gì xảy ra sau đó. Vậy, làm sao bạn có thể chuẩn bị cho điều đó? Và bạn muốn chuẩn bị cho một thế giới có khả năng xảy ra hơn, và thế giới mà bạn có thể thực sự dự đoán là một thế giới mà, vâng, có những cải tiến công nghệ khổng lồ và có những hiệu ứng tích lũy điên cuồng của công nghệ và thật khó để theo kịp. Từ đó, dường như vào năm 2023, bạn đã nói điều tương tự với Brett về việc chúng ta không thể nhìn thấy xung quanh khúc quanh này vì nó là một sự đơn nhất. Vậy bạn cũng đã sử dụng AGI, Trí tuệ nhân tạo tổng quát. Sẽ rất thú vị để biết định nghĩa của bạn về AGI là gì. Vậy, điều tôi đã nói ở đó là, ngay cả khi tôi sai, bạn thực sự có thể tạo ra một trí tuệ nhân tạo có vẻ như không bị giới hạn, có ý thức mà có thể thay thế hoàn toàn con người và có thể hành động tự chủ theo cách mà ngay cả con người cũng không thể hành động và không thể phối hợp giữa các AI khác nhau, các trung tâm dữ liệu khác nhau để chiếm lĩnh thế giới. Vì vậy, định nghĩa về AGI là trí tuệ nhân tạo tổng quát, có nghĩa là AI có thể tiếp thu những kỹ năng mới một cách hiệu quả giống như con người có thể tiếp thu kỹ năng. Hiện tại, AI không tiếp thu kỹ năng một cách hiệu quả. Bạn biết đấy, chúng tiêu tốn một lượng năng lượng và tính toán khổng lồ, toàn bộ trung tâm dữ liệu để tiếp thu những kỹ năng này. Và tôi nghĩ rằng, một lần nữa, tôi nghĩ rằng có một giới hạn về mức độ trí tuệ tổng quát có thể đạt được. Tôi nghĩ rằng hầu hết thời gian, nó sẽ tụt lại trong những gì con người có khả năng làm. Sự đơn nhất dựa trên khái niệm về sự bùng nổ trí tuệ. Vì vậy, một khi bạn tạo ra một AGI, một khi bạn tạo ra một trí tuệ nhân tạo tổng quát, trí tuệ đó sẽ có khả năng sửa đổi mã nguồn của chính nó và tạo ra phiên bản tiếp theo thông minh hơn nhiều. Và phiên bản tiếp theo tạo ra phiên bản tiếp theo và tiếp theo, bạn biết đấy, mãi mãi, đúng không? Trong vòng một tuần. Trong vòng một tuần. Có thể trong vòng mili giây một thời điểm nào đó, đúng không? Bởi vì nó có thể phát minh ra nền tảng tính toán mới và tất cả những điều đó. Có thể nó sẽ sử dụng máy tính lượng tử. Và rồi bạn có một sự bùng nổ trí tuệ theo cách mà không thể dự đoán cách mà thế giới sẽ ra sao. Và những gì tôi đang nói là, đây giống như một câu chuyện về ngày tận thế. Vậy, bạn thậm chí có thể chuẩn bị cho điều đó như thế nào? Vì vậy, nếu điều đó đang đến, tại sao tôi lại dành thời gian chuẩn bị cho, tôi nghĩ điều đó khó xảy ra. Không thể nhìn thấy xung quanh khúc quanh. Vâng, nhưng tôi muốn chuẩn bị cho những gì tôi đã nói ở đó.
Tôi thà chuẩn bị cho một thế giới có khả năng xảy ra hơn, nơi chúng ta có quyền truy cập vào sức mạnh to lớn, nhưng thế giới không sắp kết thúc và con người vẫn quan trọng.
Tôi không biết tại sao bạn lại nói là có khả năng xảy ra hơn.
Ý tôi là, tôi nghĩ rằng cấu trúc lập luận của bạn là hợp lý.
Bạn sẽ chuẩn bị cho một thế giới có thể xảy ra mà bạn có thể chuẩn bị.
Thật sự không có ý nghĩa gì khi cố gắng chuẩn bị cho một thế giới mà bạn không thể dự đoán được.
Điều duy nhất bạn có thể làm là nâng cao kỹ năng của bản thân và chú ý.
Nhưng nếu tôi có một thông điệp cho những nhà công nghệ, đó là sự tự tin của các bạn về những gì cái này có thể và không thể làm là không đúng chỗ, vì các bạn, mà không nhận ra, đã bước vào lĩnh vực thực sự phức tạp.
Trong lĩnh vực thực sự phức tạp, sự tự tin của bạn nên giảm xuống gần như bằng không rằng bạn biết điều gì đang xảy ra.
Những thứ này có ý thức không?
Tôi không biết.
Nhưng chúng sẽ có ý thức không?
Rất có khả năng chúng sẽ trở nên có ý thức và rằng chúng ta sẽ không có một bài kiểm tra nào để nói cho chúng ta biết điều đó đã xảy ra hay chưa.
Elon Musk dự đoán rằng đến năm 2029, chúng ta sẽ có AI bên cạnh, AGI, vượt qua trí thông minh kết hợp của tất cả con người.
Và Sam Altman thực sự đã viết một blog cách đây ba tháng mà tôi đã đọc, nơi ông nói rằng, chúng tôi hiện tự tin, Sam Altman là người sáng lập OpenAI, đơn vị đã tạo ra ChatGPT, chúng tôi hiện tự tin rằng chúng tôi biết cách xây dựng AGI như chúng tôi đã hiểu truyền thống.
Khi tôi đặt những điều này lại với nhau, tôi quay lại câu hỏi cốt lõi về vai trò của con người trong loại sản phẩm chuyên nghiệp này và sự tạo ra GDP nếu nó thông minh hơn tất cả con người kết hợp, nếu Elon Musk đúng ở đây, và nó có khả năng thực hiện hành động trên internet và tiếp tục học hỏi.
Đây như là một câu hỏi trung tâm mà tôi hy vọng có thể trả lời hôm nay, đó là, chúng ta sẽ đi đâu?
Vâng.
Ý tôi là, trong tầm nhìn của tôi về thế giới, chúng ta ở trong vị trí sáng tạo.
Chúng ta đang ngồi đó, kiểm soát những đàn sinh vật thông minh để làm công việc của mình.
Bạn biết đấy, cách bạn điều hành doanh nghiệp của mình, ví dụ, bạn ngồi trước máy tính, bạn có một giờ để làm việc.
Và bạn sẽ khởi chạy như một nghìn SDR, bạn biết đấy, đại diện bán hàng để thu thập càng nhiều khách hàng tiềm năng càng tốt.
Và bạn đang tạo ra một bản cập nhật mới trên Replit cho trang web của mình ở đây.
Và sau đó, bên này, bạn thực sự có một AI đang xử lý dữ liệu về doanh nghiệp hiện tại của bạn để tìm cách cải thiện nó.
Và sau đó, những AI này đang phối hợp với nhau theo một cách nào đó.
Và tôi đang cố gắng ưu tiên cho con người.
Như vậy, sứ mệnh của tôi là xây dựng công cụ cho con người.
Tôi không xây dựng công cụ cho các tác nhân.
Và các tác nhân là một công cụ.
Và vì vậy, cuối cùng, tôi không chỉ nghĩ rằng con người có vị trí ưu tiên trong thế giới và vũ trụ,
chúng ta không biết ý thức đến từ đâu.
Chúng ta thực sự không có khoa học để giải thích điều đó.
Tôi nghĩ rằng con người là đặc biệt.
Đó là một mặt là niềm tin của tôi rằng con người là đặc biệt trong thế giới.
Và mặt khác, mà tôi hiểu rằng công nghệ ngày nay, và tôi nghĩ trong tương lai có thể thấy trước,
sẽ phụ thuộc vào việc chúng ta đào tạo dữ liệu.
Vì vậy, có một ý tưởng hoàn toàn về việc, nếu ChatGPT tạo ra các tác nhân gây bệnh?
Chà, liệu bạn đã đào tạo nó về các tác nhân gây bệnh chưa?
Họ đã làm điều đó ở Vũ Hán, phải không?
Ý tôi là, nhiều công ty sinh học cơ bản đang sử dụng trí thông minh nhân tạo.
Như tôi có thể nghĩ đến Abselera, tôi nghĩ là Abselera, ở Canada.
Toàn bộ doanh nghiệp của họ là sử dụng AI để tạo ra vắc-xin mới, sử dụng trí thông minh nhân tạo và tập dữ liệu lớn hơn chúng ta chưa từng có trước đây.
Và tôi biết vì tôi đã rất gần gũi với một trong những người sáng lập công ty liên quan đến Abselera.
Vì vậy, công việc đó vẫn tiếp tục diễn ra.
Và nếu chúng ta nghĩ về Vũ Hán, tôi có nghĩa là, hiện nay có vẻ khá nổi tiếng rằng nó xuất phát từ một phòng thí nghiệm và những người làm việc trong một phòng thí nghiệm.
Và trong kịch bản đó, điều đó đã có tác động rất lớn và đóng cửa thế giới.
Câu hỏi trung tâm mà tôi rất muốn trả lời trước khi mở lại cho mọi người là, công việc nào, vì tôi biết rằng bạn có quan điểm này,
công việc nào sẽ bị dư thừa trong một thế giới mà tôi đang ngồi ở đây với tư cách là CEO cùng với một nghìn tác nhân AI?
Tôi đã nghĩ đến tất cả tên của những người trong công ty tôi đang làm những công việc đó.
Tôi đã nghĩ đến giám đốc tài chính của tôi khi bạn nói về việc xử lý dữ liệu kinh doanh, các nhà thiết kế đồ họa của tôi, các biên tập viên video của tôi, v.v.
Vậy, công việc nào sẽ bị ảnh hưởng?
Vâng, tất cả những công việc đó.
Vì vậy, tôi nghĩ-
Và họ làm gì?
Bạn biết đấy, có thể điều này hữu ích cho khán giả.
Tôi nghĩ nếu công việc của bạn đều là các quy trình bình thường, công việc của bạn sẽ không còn trong vài năm tới.
Có nghĩa là nếu bạn, trong những công việc đó, ví dụ, những công việc kiểm tra chất lượng, những công việc nhập liệu dữ liệu, bạn đang ngồi trước máy tính và bạn phải nhấp chuột và gõ mọi thứ theo thứ tự nhất định.
Những công nghệ và thiết bị đang đến thị trường rất nhanh chóng và những điều này sẽ thay thế nhiều lao động.
Kế toán viên?
Kế toán viên.
Luật sư.
Đúng vậy.
Tôi có nghĩa là, tôi vừa bị rách dây chằng ở chân và họ đã thực hiện chụp MRI và tôi phải đợi vài ngày để ai đó xem qua chụp MRI và cho tôi biết điều đó có nghĩa là gì.
Vâng.
Tôi đoán điều đó đã biến mất.
Vâng.
Tôi nghĩ rằng hệ sinh thái chăm sóc sức khỏe rất khó dự đoán vì quy định.
Và một lần nữa, có rất nhiều yếu tố hạn chế đối với cách mà công nghệ này có thể thẩm thấu.
Đó là về kinh tế vì các quy định và sự sẵn sàng của con người để chấp nhận nó.
Nhưng, bạn biết đấy, những công việc không được kiểm soát, những công việc chỉ liên quan đến việc nhập liệu văn bản, xuất dữ liệu văn bản.
Nếu công việc của bạn, bạn biết đấy, bạn nhận được một tin nhắn và bạn tạo ra một loại sản phẩm nào đó như là văn bản hoặc hình ảnh.
Công việc đó đang gặp rủi ro.
Vì vậy, để cung cấp cho bạn một số thống kê nữa, khoảng 50% người Mỹ có bằng đại học hiện đang sử dụng AI.
Các thống kê thấp hơn đáng kể cho những người Mỹ không có bằng đại học.
Vì vậy, bạn có thể thấy cách một sự phân hóa có thể xuất hiện và sự rạn nứt đó sẽ rộng hơn bởi vì những người như chúng tôi ngồi đây đều đang mày mò với nó.
Nhưng mẹ và bố tôi ở Plymouth, miền tây nam nước Anh, chưa có điều đó. Họ chỉ mới hiểu cách sử dụng iPhone. Vì vậy, tôi đã mua cho họ một chiếc iPhone và bây giờ họ đã nhắn tin cho tôi trở lại. Trí tuệ nhân tạo vẫn còn rất xa vời. Nếu tôi bắt đầu chạy đuổi theo AGI và các đại lý của tôi, khoảng cách đó sẽ càng ngày càng lớn. Phụ nữ bị ảnh hưởng không t пропortionately bởi tự động hóa, điều mà bạn vừa đề cập. Khoảng 80% phụ nữ làm việc đang có việc làm có nguy cơ cao, trong khi chỉ hơn 50% nam giới, theo báo cáo của Harvard Business Review. Những công việc chỉ yêu cầu bằng tốt nghiệp trung học có nguy cơ tự động hóa lên đến 80%, trong khi những công việc yêu cầu bằng cử nhân chỉ có nguy cơ tự động hóa 20%. Vì vậy, chúng ta có thể thấy rằng điều này sẽ gây ra một loại bất bình đẳng. Nó cũng là một rủi ro lớn với việc thuê ngoài quy trình kinh doanh, mà về cơ bản là các quốc gia phương Tây gửi việc làm đến Ấn Độ, đến các nước như Philippines. Hiện tại, hàng triệu người đã được thoát nghèo nhờ khả năng làm những công việc thuê ngoài quy trình kinh doanh như vậy. Và tất cả những công việc đó sẽ biến mất. Nhưng họ sẽ có 1.000 nhân viên. Nhưng ngoài ra, những người này thực sự đã bắt đầu chuyển sang đào tạo trí tuệ nhân tạo (AI). Vì vậy, sẽ có một ngành công nghiệp lớn xung quanh việc đào tạo AI. Đến khi chúng được đào tạo. Thực ra, không. Bạn phải liên tục học hỏi những kỹ năng mới. Và đó là điều mà tôi đang nói đến. Điều này, một lần nữa, nếu AI là chức năng của dữ liệu của nó, thì bạn cần ngày càng nhiều dữ liệu hơn. À, và nhân tiện, chúng ta đã hết dữ liệu internet. Tôi thực sự nghĩ, điều thú vị là điều này có thể không tốt cho Hoa Kỳ hay Vương quốc Anh, thế giới phương Tây, bởi vì nó sẽ trở thành một yếu tố bình đẳng. Khi đứa trẻ của chúng ta ở Ấn Độ không cần một văn phòng Silicon Valley và 7 triệu đô la để mở một công ty phần mềm, thực chất. Đúng vậy. Niềm tin của tôi là – vì vậy tôi có một định nghĩa rộng hơn về AGI và điểm kỳ dị. Và đối với tôi, AGI là liệu chúng ta có trí thông minh nhân tạo tổng quát không, nói chung, AI có thể làm những việc mà con người từng có khả năng làm không? Và chúng ta đã vượt qua điểm đó rồi. Chúng ta có trí thông minh tổng quát mà bây giờ tất cả chúng ta đều có thể truy cập. Và 800 triệu người mỗi tuần hiện đang sử dụng ChatGPT. Nó đã bùng nổ trong ba tháng qua. Và đối với tôi, một điểm kỳ dị, khi chiếc máy kéo đầu tiên ra ngoài cánh đồng, đối với tôi, đó là một khoảnh khắc kỳ dị. Bởi vì tất cả những người làm nông nghiệp – trước đây cần 100 người để cày một cánh đồng. Và bây giờ một chiếc máy kéo đến cùng với hai người có máy kéo có thể cày cánh đồng trong cùng thời gian. Và giờ 98 người trong số 100 đã hoàn toàn mất việc. Chúng ta cũng luôn đánh giá thấp công nghệ. Nếu nó thực sự thay đổi lịch sử, khi bạn nhìn lại qua ô tô, ngựa, máy bay, anh em nhà Wright chỉ nghĩ về một chiếc máy bay như là thứ mà quân đội có thể sử dụng. Chúng ta không có ý tưởng gì về ứng dụng của nó. Vì vậy, có ai đó đã nói với tôi gần đây rằng, khi nó thay đổi thế giới, chúng ta thường đánh giá thấp tác động mà nó sẽ thay đổi thế giới. Và tôi thấy mọi người bây giờ, với những ước tính về AI và các đại lý AI, đã rất lạc quan. Và vì vậy, nếu lịch sử giữ đúng ở đây, chúng ta đang đánh giá thấp tác động mà nó sẽ có. Và tôi nghĩ đây là lần đầu tiên trong đời tôi mà các phép tương tự về cuộc cách mạng công nghiệp có vẻ không đủ. Bởi vì chúng ta chưa bao giờ thấy trí thông minh – đó giống như bạn có thể – tôi không phải là người thông minh về điều này. Nhưng tôi có thể thấy điều này giống như sự gián đoạn của các cơ bắp. Trong khi đó là sự gián đoạn của trí thông minh. Chính xác là điều đó, điều khiến con người trở nên đặc biệt là khả năng nhận thức của chúng ta và rất cụ thể là khả năng kết nối tâm trí của chúng ta với nhau. Để tổng thể lớn hơn tổng hợp các phần. Đó là điều làm cho nhận thức con người trở nên đặc biệt. Và điều mà chúng ta đang làm là chúng ta đang tạo ra một cái gì đó có thể vượt qua nó về mặt công nghệ mà không có bất kỳ điều kiện tiên quyết nào khiến cho điều đó trở thành một quá trình an toàn. Vì vậy, đúng, chúng ta đã cách mạng hóa thế giới bao nhiêu lần khác nhau. Thật khó đếm. Nhưng, bạn biết đó, chúng ta đã làm cho nông nghiệp trở nên hiệu quả hơn rất nhiều. Điều đó khác với việc lấy năng lực cốt lõi của chúng ta như một loài và vượt qua chính mình qua sản phẩm của lao động của chúng ta. Tôi nghĩ câu hỏi của bạn là một câu hỏi hay. Vậy điều gì sẽ trở thành – Chúng ta chỉ còn một điều. Chúng ta có cơ bắp của mình, mà chúng ta đã loại bỏ trong cuộc cách mạng công nghiệp. Và sau đó chúng ta có trí tuệ của mình, đó là cuộc cách mạng số. Giờ đây, chúng ta còn lại với cảm xúc và quyền lực hành động. Vì vậy, về cơ bản – ý tưởng quyền lực hành động – tôi nghĩ chúng ta đã từng đánh giá con người dựa trên chỉ số IQ và giờ đây IQ là yếu tố bình đẳng lớn. Và bây giờ, trong 10 năm tới, chúng ta sẽ xem bạn là người có quyền lực hành động cao hay thấp? Bạn có khả năng hoàn thành công việc và phối hợp với các đại lý không? Bạn có khả năng khởi nghiệp hoặc ra lệnh cho các đội quân số không? Bạn biết đấy, và về cơ bản những người có quyền lực hành động cao sẽ thành công trong thế giới mới này vì họ có một điều khác đang tiềm ẩn bên dưới bề mặt, điều đó thật thú vị. Khi bạn nói quyền lực hành động sẽ vẫn là một điều quan trọng, chúng ta đang ngồi đây nói về các đại lý AI. Và điều điên rồ trong một thế giới của các đại lý AI có trí tuệ siêu phàm là tôi chỉ cần nói với đại lý của mình, nghe này, tôi sẽ đi nghỉ. Xin hãy xây dựng cho tôi một công ty SaaS có thể phát hiện cơ hội thị trường, dựng lên trang web, đăng lên các kênh truyền thông xã hội của tôi. Tôi sẽ ở Hawaii. Và thế giới đại lý mới này cũng lấy đi điều đó bởi vì bây giờ nó có thể hành động theo cách mà tôi có thể duyệt internet. Tôi có thể gọi Domino’s Pizza, nói chuyện với đại lý của họ, tổ chức cho pizza của tôi có mặt trước khi tôi thức dậy. Và thực tế là sự dự đoán, bạn biết đấy, OpenAI bây giờ học hỏi và Sam Altman đã nói rằng họ đã mở rộng tính năng ghi nhớ. Vì vậy nó biết mọi thứ, nó ngày càng biết nhiều hơn về tôi. Nó sẽ gần như có thể dự đoán những gì tôi muốn và khi nào tôi muốn điều đó.
Nó sẽ biết lịch trình của Steve, anh ấy đang đến studio, đảm bảo nhịp độ của anh ấy ở bên cạnh, đảm bảo iPad của anh ấy có bản tóm tắt, thực hiện bản tóm tắt, làm nghiên cứu cho tôi và mọi thứ khác.
Vậy nên tôi sẽ nhớ sinh nhật của Brett.
Vì vậy, khi tôi đến, sẽ có điều gì đó.
Trên thực tế, điều này đang loại bỏ nhu cầu của tôi về bất kỳ cơ quan nào.
Và, bạn biết đấy, một lần nữa, tôi không biết cách diễn đạt điều này để mọi người hiểu tôi thực sự đang đề xuất gì.
Nhưng hôm nay, có thể điều đó không oan.
Nhưng, để tôi trình bày theo cách này.
Nếu bạn có ý thức, bạn đã bắt đầu như một đứa trẻ không có ý thức.
Và mặc dù điều này có thể không hoàn toàn khái quát nó, bạn thực sự là một mô hình ngôn ngữ lớn (LLM), đúng không?
Bạn đi từ một em bé không có ý thức đến một người trưởng thành có ý thức cao.
Và quá trình mà bạn thực hiện điều đó liên quan rất nhiều đến việc được đào tạo hiệu quả về từ ngữ và những thứ khác trong một môi trường theo cách chính xác mà chúng ta hiện đang đào tạo những AI này.
Vì vậy, ý tưởng rằng chúng ta có thể loại bỏ ý thức ra khỏi cuộc chơi, nó sẽ không tồn tại cho đến khi chúng ta tìm ra cách lập trình nó vào và chúng ta an toàn vì chúng ta không biết cách mà ý thức hoạt động.
Tôi có bài học ngược lại.
Chúng tôi đã tạo ra điều chính xác sẽ sản xuất hiện tượng đó.
Và sau đó chúng tôi có thể để các triết gia tranh cãi về việc đó có phải là ý thức thực sự hay nó chỉ cư xử giống như thể nó có.
Và câu trả lời là chúng không khác nhau.
Không quan trọng.
Và điều tương tự cũng đúng với quyền tự chủ.
Bạn biết đấy, đặc biệt nếu bạn đã tạo ra một môi trường mà trong đó những AI này thực sự là đối thủ cạnh tranh.
Điều mà bạn đang thực hiện là tạo ra một môi trường tiến hóa trong đó chúng sẽ tiến hóa để lấp đầy bất kỳ ngách nào có ở đó.
Và chúng tôi không xác định các ngách.
Vì vậy, tôi cảm giác rằng chúng tôi đã tạo ra một thứ gì đó thực sự sẽ hoạt động như một loại sự sống mới.
Và điều này đặc biệt đáng lo ngại vì nó nói ngôn ngữ của chúng ta.
Điều đó dẫn chúng ta đến niềm tin rằng nó giống chúng ta hơn là thực sự.
Và thực tế có thể khá khác biệt.
Nhân tiện, anh ấy là người lạc quan ở đây.
Giống như, anh ấy rất lạc quan về LLM và cách mà chúng sẽ tiến hóa.
Vâng, công nghệ thật tuyệt vời.
Tôi nghĩ nó đã nâng cao IQ toàn cầu, đúng không?
Khoảng 800 triệu người.
Khoảng 800 triệu người thông minh hơn và cảm xúc cũng vậy.
Tôi biết những người trước đây rất thô lỗ và họ thường làm người khác khó chịu.
Họ sẽ nói những điều không lịch sự.
Và rồi bỗng nhiên họ bắt đầu đưa, bạn biết đấy, những gì họ nói vào ChatGPT để làm cho nó tử tế hơn và hay hơn.
Và giờ họ trở nên được yêu thích hơn.
Vì vậy, không chỉ nó làm cho chúng ta thông minh hơn, mà còn cho phép chúng ta trở thành phiên bản tốt nhất của chính mình.
Và kịch bản mà bạn đang nói đến, tôi không nghĩ, tôi không biết có gì sai với điều đó.
Bạn biết đấy, tôi muốn ít quyền tự chủ hơn ở một số nơi.
Và tôi muốn một cái gì đó giúp tôi không phải, bạn biết đấy, mở một lọ bơ đậu phộng vào ban đêm.
Đúng không?
Bạn biết đấy, có những nơi trong cuộc sống của tôi mà tôi cần nhiều kiểm soát hơn và tôi sẽ thích nhường nó cho một loại thực thể có thể giúp tôi đưa ra những lựa chọn tốt hơn.
Tôi có nghĩa là, thật không may, ngay cả khi có một nhóm nhỏ các tinh hoa có thể đến Hawaii trong khi một cái gì khác thì lo các chi tiết thường ngày của việc xây dựng công việc của họ.
Chúng ta sẽ sớm phải đối mặt với một thế giới có hàng tỷ người không có kỹ năng để khai thác AI.
Một số người trong số họ sẽ cần thiết trong một thời gian.
Bạn sẽ cần thợ ống nước.
Nhưng đây cũng không phải là một giải pháp lâu dài vì không chỉ không đủ những công việc đó, mà tất nhiên, chúng ta còn có những con robot hình người mà, một khi được ban phát khả năng AI, sẽ cũng có thể, bạn biết đấy, chúng có thể bò vào dưới nhà bạn vào không gian ống và sửa chữa ống dẫn của bạn.
Vì vậy, điều thường xảy ra khi bạn có một sự thu hẹp kinh tế lớn nảy sinh từ thực tế là một số lượng lớn người không có việc làm là các tầng lớp thượng lưu bắt đầu nhìn vào những người đó và nghĩ, tốt, chúng tôi không thực sự cần họ.
Và vì vậy, ý tưởng rằng sự gián đoạn AI này không dẫn chúng ta đến một thảm họa rất con người, tôi nghĩ, là quá lạc quan và chúng ta cần phải bắt đầu chuẩn bị ngay bây giờ.
Quyền của một người đã có bất kỳ thứ gì mà họ đầu tư bị xoá hoàn toàn khỏi danh sách nhu cầu là gì?
Người đó có trách nhiệm không khi không tiên đoán được sự xuất hiện của AI?
Và là vấn đề của họ rằng giờ đây họ đang đói và bị nhìn nhận bởi những người khác như, bạn biết đấy, một người ăn không có ích?
Tôi không nghĩ vậy.
Nó khác gì so với khi, cái gì đó gọi là, máy móc đang đe dọa đến, và những công nhân dệt may, bạn biết đấy, kết quả của cuộc cách mạng Luddite?
Nó có gì khác so với bất kỳ thời điểm nào trong lịch sử khi công nghệ tự động hóa rất nhiều người ra khỏi công việc?
Tôi sẽ nói rằng quy mô và tốc độ, đó là cách mà nó khác.
Và quy mô và tốc độ sẽ dẫn đến một thảm họa chưa từng thấy vì tỷ lệ mà con người sẽ đồng thời bị gạt sang bên, không chỉ trong một ngành mà trên mọi ngành nghề, đơn giản là mới mẻ.
Và nó thật sự đã xảy ra.
Trong 50 năm đầu tiên của cuộc cách mạng công nghiệp từ cuối thế kỷ 18 đến đầu thế kỷ 19, bạn thực sự thấy, các tiểu thuyết của Charles Dickens về cơ bản là những người đến từ các trang trại bị mất đất, đến thành phố, trẻ em sống trên đường phố.
Và các người Anh quyết định đưa tất cả họ đi và gửi họ đến Úc, nơi tôi xuất thân.
Và, bạn biết đấy, có vấn đề lớn về sự chuyển dời.
Tôi nghĩ chúng ta sẽ bước vào một nền kinh tế tốc độ cao nơi mà thay vì một quỹ đạo nghề nghiệp dài trong 45 năm, chúng ta sẽ có những sự nghiệp rất ngắn kéo dài từ 10 tháng đến 36 tháng.
Và bạn phát minh ra một cái gì đó, bạn đưa nó ra thị trường, bạn tập hợp một đội ngũ từ 5 đến 10 người làm việc cùng nhau, sau đó bạn sẽ bị gián đoạn.
Tôi có thể kể một câu chuyện ở đây không?
Có một doanh nhân sử dụng Replit một cách tương tự.
Tên anh ấy là Billy Howell.
Bạn có thể tìm thấy anh ấy trên YouTube, trên internet. Anh ấy sẽ vào Upwork và tìm hiểu xem mọi người đang cần gì, những yêu cầu khác nhau cho các ứng dụng nhất định, công nghệ. Sau đó, anh ấy sẽ lấy những gì họ yêu cầu, đưa vào Replit, tạo thành một ứng dụng, gọi điện cho họ và nói rằng, “Tôi đã có ứng dụng của bạn.” Bạn sẽ trả 10.000 đô la cho nó chứ? Và đó thì có thể xem như là một cơ hội chênh lệch giá đang hiện hữu lúc này. Đó không phải là chênh lệch giá, mà là ăn cắp. Thế là như thế nào? Nó là ăn cắp như thế nào? Bạn có một người có ý tưởng có thể được đưa ra thị trường và một người khác một cách bí hiểm phát hiện ra nó và sau đó bán lại ý tưởng của họ cho chính họ. À, họ đang trả tiền cho việc đó. Họ đang nói rằng, “Tôi sẽ đưa cho bạn 500 đô la nếu có ai đó làm điều này cho tôi.” Đúng. Nhưng điều tôi nghĩ nhiều hơn là sẽ xảy ra trong toàn bộ nền kinh tế là, từ quan điểm này, chúng ta có thể thấy rằng mọi người bỗng dưng có khả năng xây dựng một doanh nghiệp tuyệt vời. Vậy chúng ta nghĩ gì về những người sẽ bị thay thế ở vị trí cao nhất? Họ sẽ nghĩ gì về tất cả những người đang xây dựng những doanh nghiệp cạnh tranh cao này và họ sẽ tìm cách làm những gì mà các quỹ đầu tư mạo hiểm đã làm hoặc những gì mà các nhà sản xuất thu âm đã làm? Những gì họ sẽ làm là họ sẽ giữ vị trí ưu việt của mình ở trên, và họ sẽ lấy hầu hết của cải được tạo ra bởi tất cả những người có ý tưởng mà trong một thị trường thực sự sẽ tạo ra doanh nghiệp cho họ. Tôi nghĩ rằng với sự xuất hiện của AI và các đại lý AI, giá trị cũ đã chuyển dịch. Và bây giờ không thể xem như trường hợp mà chính ý tưởng là lá chắn. Và cũng không thể xem như trường hợp mà tài nguyên là lá chắn. Vì vậy, trong một kịch bản như vậy, bạn vẫn phải tìm ra cách phân phối. Bạn vẫn phải có, ví dụ, như một đối tượng. Nếu bây giờ bạn là một người làm podcast, bạn có một triệu người theo dõi trên Twitter, bạn đang ở vị trí tốt vì bạn hiện có cái mà người có ý tưởng tuyệt vời mà không có đối tượng không có, bạn có phân phối tích hợp sẵn. Vì vậy, giờ tôi nghĩ thực tế nhiều phần của trò chơi có thể đang chuyển sang, đúng, nó vẫn liên quan đến sở thích và ý tưởng, nhưng lá chắn cũng là phân phối. Vâng, và nhắc đến các hệ thống thích nghi, một trong những thích nghi sẽ xảy ra là mọi người sẽ tìm kiếm con người và sẽ tìm kiếm bằng chứng về nhân tính. Ôi, tôi đồng ý rằng tính xác thực sẽ trở thành đồng xu của lĩnh vực này và bất kỳ điều gì có thể bị làm giả hoặc gian lận sẽ bị mất giá và những thứ như, bạn biết đấy, jazz tự phát hoặc hài kịch mà đủ tương tác để không thể nào được tạo ra với sự trợ giúp của AI. Những thứ đó sẽ trở thành ưu tiên, bạn biết đấy, hùng biện tự phát thay vì những bài phát biểu. Điều đó trả lời một số câu hỏi của bạn. Không, nó trả lời câu hỏi của tôi cho số lượng người rất nhỏ trong vị trí để làm những điều đó. Steven, bạn đã sử dụng từ “lá chắn”, mà tôi nghĩ là một từ rất quan trọng đối với các doanh nhân. Chúng tôi thường phải có một lá chắn. Chúng tôi suy nghĩ nhiều về các lá chắn và đó là một kỷ nguyên công nghiệp. Nhiều người thậm chí không biết lá chắn có nghĩa là gì. Nó chỉ là cái mà… Tôi thường suy nghĩ về ý tưởng này về việc những lá chắn nào còn lại. Để định nghĩa cách tôi định nghĩa một lá chắn, bạn có một lâu đài và nó có một vòng nước nhỏ xung quanh. Và một thời gian nào đó, vòng nước đó đã bảo vệ lâu đài khỏi bị tấn công và bạn có thể kéo cầu thang lên để không ai có thể dễ dàng tấn công bạn. Đó là một sự phòng vệ khỏi điều gì đó. Vì vậy, nó là lá chắn của bạn. Nó là sự bảo vệ của bạn. Và một thời gian nào đó, như một doanh nhân, bạn biết đấy, tôi có một công ty phần mềm ở San Francisco gọi là Third Web. Và chúng tôi đã huy động được gần 30 triệu đô la. Chúng tôi có một đội ngũ 50 phát triển viên xuất sắc. Và một phần lớn của lá chắn của chúng tôi là, bạn không thể cạnh tranh với chúng tôi vì bạn không có 50 phát triển viên và 30 triệu đô la trong ngân hàng. Bao nhiêu trong số 30 triệu đô la đó được dùng để lập trình? Phần lớn. Ý tôi là, chúng tôi còn có thể làm gì khác nữa? Còn gì khác? Đây là một điều tốt. Tôi nghĩ rằng những lá chắn là một điều xấu. Hãy để tôi đưa ra lập luận. Vì vậy, mọi người đều đang tìm kiếm những lá chắn. Bạn biết đấy, ví dụ như một trong những lá chắn quan trọng hơn là hiệu ứng mạng. Bạn biết đấy, vì vậy bạn không thể cạnh tranh với Facebook hoặc Twitter vì để chuyển người từ Facebook hoặc Twitter, bạn cần phải, đó là vấn đề hành động tập thể. Bạn cần phải chuyển họ tất cả cùng một lúc vì nếu một người trong số họ chuyển, thì mạng lưới không còn giá trị. Họ sẽ quay lại. Vì vậy, bạn gặp phải vấn đề gà và trứng. Giả sử rằng chúng ta có một cách làm mạng xã hội phân quyền hơn. Điều đó sẽ loại bỏ sức mạnh của Twitter để kiểm duyệt. Và tôi nghĩ rằng bạn đang ở đầu bên kia của kiểm duyệt, đúng không? Và vì vậy một phần của sự lạc quan của tôi về nhân loại là có sự tự điều chỉnh. Dân chủ là một hệ thống tự điều chỉnh. Thị trường tự do chủ yếu là những hệ thống tự điều chỉnh. Có những vấn đề rõ ràng với thị trường tự do mà chúng ta có thể thảo luận. Nhưng hãy xem sức khỏe, bạn biết đấy, có dịch bệnh béo phì. Giai đoạn này khi các công ty, bạn biết đấy, đã hành xử thoải mái kiểu làm ra những món ăn có đường, muối, béo và mọi người đã ăn thả phanh và mọi người trở nên rất, bạn biết đấy, không khỏe mạnh. Và bây giờ bạn có Whole Foods ở khắp mọi nơi. Ngày nay, mọi người ở Silicon Valley, họ không đến quán bar chút nào. Họ đi đến các câu lạc bộ chạy. Đó là cách mà bạn gặp gỡ. Đó là cách bạn tìm một cuộc hẹn. Bạn đi đến các câu lạc bộ chạy. Và vì vậy đã có một sự chuyển mình xảy ra vì đã có một phản ứng. Rõ ràng, thuốc lá là một ví dụ khác. Bạn biết đấy, bạn đã nói về điện thoại và sự nghiện điện thoại của chúng ta. Và tôi thấy một sự chuyển mình bây giờ. Như trong vòng bạn bè của tôi, như những người mà thường xuyên cầm điện thoại thì đã bị coi thường. Và họ không muốn ở cạnh bạn vì bạn luôn nhìn vào điện thoại. Vì vậy, luôn luôn có những phản ứng như vậy. Nhưng vấn đề là bạn đề cập đến việc tự điều chỉnh.
Và tôi đồng ý rằng thực sự có một tính năng tự động của vũ trụ trong đó việc tự điều chỉnh xảy ra. Bạn không thể có phản hồi tích cực mà không bị kìm hãm bởi một phản hồi tiêu cực nào đó từ bên ngoài. Nhưng những điều chỉnh, danh sách các điều chỉnh liên quan đến những điều như bạn chỉ ra, nơi mà mọi người trở nên khai sáng và họ nhận ra rằng họ đang tự làm hại bản thân mình với cả đường mà họ tiêu thụ hoặc những cạm bẫy dopamine trên điện thoại của họ. Và họ trở nên tốt hơn. Nhưng trong danh sách các mẫu điều chỉnh còn có diệt chủng, chiến tranh và, bạn biết đấy, ký sinh trùng. Và vấn đề là những điều này phá hoại tài sản. Và vì vậy, bạn ám chỉ đến thực tế vượt trội của một thị trường mở không có hào. Có lẽ lợi ích của điều đó là nhiều tài sản hơn được tạo ra vì mọi người không bị ngăn cản làm những điều có ích. Tôi thấy điều đó. Nhưng sau đó, sản phẩm của tất cả tài sản mới này sẽ là gì, trong một thế giới được trao sức mạnh bởi AI? Liệu điều đó có trở nên tập trung mạnh mẽ đến mức bạn chỉ có một số lượng rất nhỏ các cá nhân siêu tinh hoa và một số lượng lớn người hoàn toàn phụ thuộc vào họ không? Những người đó sẽ ra sao? Quy trình học hỏi, quy trình tự điều chỉnh, trải qua tổn hại để đạt được giải pháp khai sáng hơn. Không có gì bảo vệ chúng ta khỏi giai đoạn tổn hại trở nên kinh khủng đến mức, bạn biết đấy, chúng ta vượt qua được và chúng ta nói, ồ, đó là một sự điều chỉnh khủng khiếp. Hoặc có thể không có ai ở đó để thậm chí nói điều đó. Những điều đó cũng nằm trên bàn thảo luận. Nó gợi cho tôi nhớ đến một cái bẫy chuột nơi bạn thấy phô mai và chúng ta nói, ôi trời ơi, bà của tôi sẽ có thể làm nghiên cứu. Và, ôi trời ơi, cuộc sống của tôi sẽ trở nên dễ dàng hơn. Vì vậy, bạn tiến gần hơn và gần hơn đến phô mai và rồi “snap”. Và lịch sử cho thấy, nếu chúng ta nhìn vào tất cả 10,000 năm qua, chỉ có một số ít tinh hoa sở hữu hoàn toàn mọi thứ và một số lượng lớn nông dân và người làm thuê sống dựa vào đồng ruộng. Bạn biết đấy, nếu các tinh hoa tham lam quá mức và họ làm cho nông dân bị loại trừ ở mức quá cao và họ cố gắng dùng đến sự tàn bạo. Cái chĩa. Vâng. Cuối cùng, điều đó sẽ quay lại ám ảnh họ. Và điều bạn có được là sự nhận thức rằng bạn cần một hệ thống cân bằng những điều này. Và, bạn biết đấy, phương Tây có hệ thống tốt nhất mà chúng ta từng thấy. Đó là một hệ thống mà chúng ta đồng ý về một sân chơi công bằng. Chúng ta không bao giờ đạt được điều đó. Nhưng chúng ta đồng ý rằng đó là một điều mong muốn. Và khi chúng ta càng gần đến điều đó, càng tạo ra nhiều tài sản hơn. Nhưng, một lần nữa, nếu AI trao sức mạnh cho những người có ý định xấu với tỷ lệ cao hơn so với những người tạo ra tài sản và có lợi cho xã hội, chúng ta có thể đang phải đối mặt với một sự thoái trào lớn về độ công bằng của thị trường mà phương Tây đang có. Đó có phải là mối quan tâm hàng đầu của bạn so với sự thay thế kinh tế không? Tôi nghĩ chúng là một. Làm thế nào chúng là một? Bởi vì sự thay thế kinh tế sẽ bắt đầu. Tôi không biết có bao nhiêu triệu người sẽ bị mất việc ở Mỹ. Đột nhiên, chúng ta sẽ có một câu hỏi về việc liệu chúng ta có nghĩa vụ với họ hay không. Bạn đồng ý với điều đó, đúng không? Vâng. Nhưng, một lần nữa, không đau đớn, không thu hoạch. Ý tôi là, chúng ta sẽ phải trải qua một giai đoạn gián đoạn. Và tôi nghĩ rằng ở đầu bên kia, những hệ thống oppressive cũ sẽ bị phá vỡ. Và chúng ta sẽ tạo ra có thể một thế giới công bằng. Nhưng nó sẽ có những vấn đề riêng của nó. Và quy mô của sự gián đoạn đó theo ước lượng của bạn là gì? Thật khó để nói vì, bạn biết đấy, có khái niệm về các yếu tố hạn chế. Như, bạn biết đấy, có quy định. Có sự ham muốn của mọi người ngày nay. Ví dụ, hệ thống chăm sóc sức khỏe rất kháng cự với đổi mới do quy định, bạn biết không? Và đó là một điều tồi tệ. Về điểm quy định, đáng nói rằng khi Trump lên nắm quyền, ông đã ký một luật mới, gọi là loại bỏ rào cản đối với lãnh đạo của Mỹ trong AI, điều này huỷ bỏ các chính sách AI trước đây được coi là hạn chế. Và rõ ràng, khi bạn nghĩ về nơi mà nguồn vốn đang được đầu tư vào AI, nó đang đổ về hai nơi. Đó là Mỹ và cơ bản là Trung Quốc. Đó là phần lớn đầu tư. Vì vậy, với hai quốc gia này cạnh tranh, bất kỳ quy định nào hạn chế AI theo bất kỳ cách nào thực sự là tự phá hoại. Và đây là, bạn biết không, tôi sống ở châu Âu một phần thời gian. Và thật sự đáng thất vọng với tôi rằng khi Sam Altman và OpenAI phát hành mô hình O3, mô hình mới kỳ diệu này, nó không có ở châu Âu vì châu Âu có một quy định ngăn cản nó đến châu Âu. Vì vậy, chúng ta hiện đang ở một bất lợi cạnh tranh, điều mà Sam Altman đã đề cập. Và rộng hơn về điểm này của sự gián đoạn, tôi đã khá lo lắng khi tôi nghe rằng công ty khởi nghiệp khác của Sam Altman được gọi là WorldCoin. Và WorldCoin được hình thành với mục tiêu tạo điều kiện cho thu nhập cơ bản phổ quát, nghĩa là, giúp tạo ra một hệ thống nơi những người không có tiền được chính phủ cho tiền chỉ để họ có thể sống sót, giúp họ trang trải các nhu cầu thực phẩm và nhà ở cơ bản. Điều này làm tôi nghĩ rằng anh chàng đã mua công ty AI lớn nhất thế giới có thể nhìn thấy điều gì đó mà nhiều người trong chúng ta không thấy, đó là sẽ cần một hệ thống chỉ cần phát tiền cho mọi người vì họ sẽ không thể sống sót nếu không có điều đó. Tôi hoàn toàn không đồng ý với điều đó. Phần nào bạn không đồng ý? Tôi không đồng ý rằng, trước hết, con người sẽ hạnh phúc với thu nhập cơ bản phổ quát. Tôi nghĩ rằng, bạn biết đấy, một giá trị cốt lõi của con người, và hãy tò mò về các lý do tiến hóa, là chúng ta muốn có ích. Thật quan trọng để biết rằng nhiều công việc đang có nguy cơ là những công việc có địa vị cao nhất, được trả lương cao nhất trên thế giới. Hãy lấy công việc được trả lương cao nhất ở Mỹ, đó là bác sĩ gây mê. Đây là công việc được trả lương cao nhất. Công việc được trả lương cao nhất, công việc có lương. Công việc có lương, vâng.
Và phần lớn công việc đó là quan sát một bệnh nhân, biết loại thuốc nào sẽ phù hợp nhất với cơ thể họ, cho họ liều lượng chính xác, theo dõi tác động của thuốc lên cơ thể, và sau đó thực hiện những điều chỉnh nhỏ. Công nghệ phù hợp và bất kỳ y tá nào cũng có thể thực hiện công việc đó. Có thể bạn sẽ có một bác sĩ gây mê giám sát 10, 20, 30, 40 khu điều trị, và công nghệ đang, bạn biết đấy, thực hiện công việc, nhưng người duy nhất đó chỉ ở đó để giám sát nếu có điều gì không ổn hoặc nếu có một tình huống đạo đức. Có gì sai với điều đó? Ý tôi là, nếu độ chính xác tốt hơn với AI. Ồ, không, không có gì sai với điều đó ngoại trừ thực tế rằng nhiều người, hàng trăm nghìn người, đã dành cả đời để đào tạo trở thành điều đó. Họ cảm thấy có một mục đích và sự thỏa mãn rất lớn về việc đó là sự nghiệp của họ, đó là công việc của họ. Họ có các khoản thế chấp. Họ có nhà cửa. Họ có địa vị. Và điều đó sẽ biến mất. À, nếu đó là những việc được trả lương cao nhất, có lẽ bạn nên bắt đầu tiết kiệm. À, ý tôi là, nhưng tôi nghe bạn, nhưng bạn đang nói về những người đã làm công việc thiết yếu, công việc chuyên môn cao, vì vậy họ không ở vị trí tốt để thay đổi dựa trên sự phát minh của một công nghệ mà họ không thấy trước, bởi vì, thực tế, ý tôi là, trong lý thuyết, có thể chúng ta đều thấy AI sẽ xuất hiện ở một điểm nào đó trong tương lai. Nhưng chúng ta không biết rằng nó sẽ đột ngột xuất hiện, và chúng ta cần phải tìm ra cách để xử lý với những người đó. Đây không phải là lỗi của họ khi họ đột nhiên trở nên lỗi thời, và thật khó tin khi nghĩ rằng mọi người sẽ chấp nhận điều này. Điều này hoàn toàn không tương thích với bản chất của chúng ta. Chúng ta phải có những thứ để phấn đấu, và bạn có thể duy trì sự sống theo cách đó, nhưng bạn không thể duy trì một sự tồn tại có ý nghĩa, vì vậy đó chỉ là một kế hoạch ngắn hạn mà thôi. Hãy nói về ý nghĩa. Ở điểm này về tình trạng thất nghiệp, điều này đã đang xảy ra. CEO của Klarna, người đã tham gia podcast này trước đây, là một người tuyệt vời, đã nói trong một bài viết trên blog mà họ đã công bố trên trang web của Klarna, rằng họ hiện có các đại lý dịch vụ khách hàng AI xử lý 2,3 triệu cuộc trò chuyện mỗi tháng, tương đương với việc phải thuê 700 người làm việc toàn thời gian để thực hiện điều đó. Vì vậy, họ đã có thể tiết kiệm được 700 nhân viên dịch vụ khách hàng bằng cách có các đại lý AI để làm điều đó. Và họ thực tế đã cắt giảm 700 công việc đó, đúng không? Tôi không có thông tin đó trước mặt, nhưng tôi sẽ xem xét. Tôi sẽ chiếu nó lên màn hình cho bất kỳ ai muốn biết thêm về điều đó. Nhưng điều đó đã đang xảy ra. Đây không phải là một bác sĩ gây mê hay gì đó. Và đây không phải là những người được trả lương cao trong mọi trường hợp. Chúng tôi cũng đã làm điều gì đó tương tự, nhân tiện. Nội bộ, chúng tôi đã thay thế chức năng đó được 70%. Ý tôi là, công ty của chúng tôi có 65 người. Và chúng tôi kiếm hàng triệu mỗi người. Bạn có cần thuê thêm nhân viên để lên đến mức đó không? Tôi nghĩ là có, nhưng chúng tôi đang tuyển dụng từ từ. Chúng tôi đang sử dụng AI hỗ trợ khách hàng, và điều đó có nghĩa là chúng tôi cần ít hỗ trợ khách hàng hơn. Chúng tôi đang cố gắng tận dụng AI càng nhiều càng tốt. Ồ, người làm nhân sự tại Replit viết phần mềm bằng cách sử dụng Replit. Vậy nên tôi sẽ đưa ra một ví dụ. Cô ấy cần phần mềm sơ đồ tổ chức. Và cô ấy đã xem qua một loạt phần mềm, nhận được rất nhiều bản demo, và tất cả đều rất đắt. Và chúng đang thiếu những tính năng mà cô ấy mong muốn. Chẳng hạn, cô ấy muốn có kiểm soát phiên bản. Cô ấy muốn biết khi nào có điều gì đó thay đổi và quay trở lại trong lịch sử. Cô ấy đã vào Replit, và trong ba ngày, cô ấy đã có đúng loại phần mềm mà cô ấy cần. Và chi phí là bao nhiêu? Bạn biết đấy, có thể khoảng $20, bạn biết đấy, một cái gì đó như vậy, $20, $30. Một lần, đúng không? Và chúng ta cần bao nhiêu nhân viên nhân sự? Hiện tại, chúng tôi có hai người. Nếu họ được điều phối tốt như vậy, có lẽ chúng tôi không cần một đội nhân sự 20 người. Ở điểm này về ý nghĩa, tôi đã nghe rất nhiều tỷ phú trong lĩnh vực AI mô tả đây là thời đại của sự dư thừa. Và tôi không chắc chắn rằng sự dư thừa luôn là một điều tốt. Bởi vì, bạn biết không, khi chúng ta nhìn vào sức khỏe tâm thần và chúng ta xem tại sao, làm thế nào người ta có được ý nghĩa và mục đích trong cuộc sống, phần lớn là có một điều gì đó để phấn đấu hướng tới và một chút đấu tranh theo một hướng có ý nghĩa đối với bạn. Và đây có thể là liên quan. Nhưng khi có một nghiên cứu được thực hiện, tôi nghĩ là ở Úc, nơi họ đã xem xét các bức thư tự tử. Và trong những bức thư tự tử đó, cảm xúc của nam giới trong những bức thư tự tử là họ không cảm thấy xứng đáng. Họ không cảm thấy rằng họ thực sự có giá trị. Họ không cảm thấy mình là người cần thiết đối với gia đình. Và nhiều điều này đã gây ra trạng thái tâm lý của họ. Và tôi tự hỏi trong một thế giới đầy đủ, nơi mà, bạn biết đấy, nhiều tỷ phú AI đang nói với chúng ta rằng chúng ta sẽ có rất nhiều thời gian rảnh và chúng ta sẽ không cần phải làm việc, liệu có hay không có một cuộc khủng hoảng về ý nghĩa, một vấn đề sức khỏe tâm thần. Ý tôi là, điều đó đã tồn tại rồi. Và nó không cần đến AI và nó sẽ trở nên tồi tệ hơn. Tôi không biết phải làm gì với điều đó bởi vì ở cốt lõi, với tư cách là con người, chúng ta được xây dựng, giống như mọi sinh vật, để tìm kiếm cơ hội và tìm ra cách khai thác nó. Đó là những gì chúng ta làm. Và thế giới mà bạn đang mô tả thực sự trái ngược với điều đó. Nó là một thế giới mà bạn thực sự được thỏa mãn các nhu cầu sinh học ở mức độ sinh lý và không có một nơi rõ ràng nào cho thời gian rảnh của bạn, nếu đó là những gì bạn kết thúc với, để được sử dụng vào điều gì đó mà, bạn biết đấy, không có chỗ nào để phấn đấu. Và tôi hình dung gần như tốt nhất điều sẽ xảy ra là sẽ có những người được duy trì bởi một thu nhập cơ bản toàn cầu và sau đó bị ký sinh, bạn biết đấy, bất kỳ loại tiền tệ nào họ có để chi tiêu. Ai đó sẽ nhắm đến nó và họ sẽ nhắm đến nó với một hệ thống AI được hỗ trợ mà phát hiện những khiếm khuyết trong tính cách của họ. Ý tôi, lần nữa, chúng ta đã đang sống trong thế giới này, nhưng nó sẽ tồi tệ hơn khi AI đang quyết định, bạn biết đấy, loại khiêu dâm nào sẽ nhắm đến bạn một cách cụ thể. Đó là một kịch bản ác mộng.
Tôi thực sự nghĩ rằng sẽ đáng để con người chúng ta bắt đầu xem xét liệu chúng ta có sắp phải đối mặt với tình huống này hay không, và tìm cách giải quyết những nhu cầu cơ bản của một số lượng lớn người sẽ bị gạt sang một bên.
Thế giới sẽ phải trông như thế nào để họ có được ý nghĩa thực sự, không phải ý nghĩa giả tạo, không phải cái gì đó mà, bạn biết đấy, chỉ là bề ngoài, ví dụ như một trò chơi điện tử không mang lại ý nghĩa, ngay cả khi nó cảm giác rất có ý nghĩa vào thời điểm đó.
Tôi nghĩ rằng đó sẽ là một khoản đầu tư xứng đáng cho chúng ta để tìm ra cách sản xuất nó.
Nhưng thành thật mà nói, tôi không mong chúng ta có cuộc trò chuyện đó hoặc đi xa được trên con đường đó.
Tôi nghĩ rằng có khả năng cao hơn là chúng ta sẽ lãng phí khoản lợi nhuận từ sự giàu có mà AI sẽ tạo ra.
Thú vị là, bạn cũng thấy ở các nước phương Tây rằng khi chúng ta có nhiều thịnh vượng hơn, chúng ta bắt đầu có ít con hơn.
Và chúng ta đã thấy sự sụt giảm dân số kiểu này ở thế giới phương Tây, điều này khá đáng sợ.
Và tôi nghĩ điều này thường liên quan đến sự giàu có.
Người nào kiếm được nhiều tiền hơn thì có ít khả năng muốn có con, họ càng cố gắng bảo vệ tự do của mình.
Nhưng cũng ở điểm này về AI, mối quan hệ là khó khăn.
Bạn biết đấy, bạn gái của tôi có lúc thì vui, có lúc thì không vui.
Và tôi phải, như bạn biết đấy, trải qua cuộc đấu tranh đó cùng cô ấy, làm việc trong mối quan hệ.
Trẻ em là một thử thách.
Và nếu chúng ta đang tối ưu hóa bản thân, và, bạn biết đấy, lý do mà tôi tiếp tục cuộc đấu tranh với bạn gái của mình là, tôi chắc chắn, đến từ một lý do tiến hóa nào đó, vì tôi muốn sinh sản.
Và tôi muốn có họ hàng.
Nhưng nếu tôi không phải đối mặt với cuộc đấu tranh mà đi kèm với các mối quan hệ con người, lãng mạn hay platonic, sẽ có một tỷ lệ người thực sự chọn kết quả đó.
Và tôi tự hỏi điều gì sẽ xảy ra với tỷ lệ sinh trong một kịch bản như vậy, vì chúng ta đã đang gặp khó khăn.
Chúng ta đã ở trong tình huống mà trước đây, trong thập niên 1950, mỗi người phụ nữ có khoảng năm đứa con, giờ đã giảm xuống khoảng hai vào năm 2021.
Và chúng ta đang thấy sự sụt giảm.
Nếu bạn nhìn vào Hàn Quốc, tỷ lệ sinh của họ đã giảm xuống còn 0,72, mức thấp nhất được ghi nhận trên toàn cầu.
Và nếu xu hướng này tiếp tục, dân số của đất nước có thể giảm một nửa vào năm 2100.
Vậy, đúng rồi, mối quan hệ, kết nối.
Và tôi nghĩ chúng ta cũng phải chồng lên điều đó với đại dịch cô đơn, mà họ đã hứa với chúng ta về sự kết nối xã hội khi mạng xã hội ra đời.
Khi chúng ta có kết nối Wi-Fi, lời hứa là chúng ta sẽ trở nên kết nối hơn.
Nhưng rõ ràng là vì chúng ta dành quá nhiều thời gian một mình, cô lập, để nhu cầu của mình được đáp ứng bởi các tài xế Uber Eats, mạng xã hội, TikTok và Internet, chúng ta đang đầu tư ít hơn vào điều rất khó khăn là, như, đi làm bạn.
Và, như, đi tìm một bạn gái.
Giới trẻ ngày nay quan hệ tình dục ít hơn bao giờ hết.
Tất cả những gì liên quan đến công việc khó khăn của việc tạo ra các kết nối trong đời thực dường như đang biến mất.
Tôi sẽ lập luận rằng tất cả những gì chúng ta đã thảo luận ở đây, tất cả những điều tiêu cực liên quan đến sự cô đơn, về ý nghĩa, chúng đã hiện diện ở đây rồi.
Và tôi không nghĩ rằng đổ lỗi cho công nghệ về tất cả những điều đó là điều đúng đắn.
Tôi nghĩ có rất nhiều điều đã xảy ra do những động lực và xung lực của con người đã tồn tại.
Và tôi muốn quay lại nơi bạn bắt đầu vì tôi thực sự nghĩ rằng đây có thể là câu hỏi cơ bản.
Tại sao chúng ta đã sống trong một thế giới không mang lại hạnh phúc cho chúng ta?
Và đó có phải là trách nhiệm của công nghệ không?
Và tôi không nghĩ rằng đó chính xác là công nghệ.
Con người, giữa những món quà của chúng ta, về cơ bản là có tính công nghệ, dù chúng ta đang nói về máy tính lượng tử hay làm mũi tên bằng đá.
Điều gì đã xảy ra với chúng ta tạo ra một cơn ác mộng đang phát triển, lan rộng, và biến đổi là một quá trình mà Heather và tôi trong cuốn sách của chúng tôi, “Hướng dẫn của một thợ săn hái lượm cho thế kỷ 21”, gọi là siêu mới mẻ.
Siêu mới mẻ là thực tế rằng tỷ lệ thay đổi nhanh hơn khả năng của chúng ta để thích nghi với sự thay đổi.
Và chúng ta đã vượt qua ngưỡng mà thế giới mà chúng ta còn trẻ không phải là thế giới mà chúng ta trưởng thành.
Và sự không khớp này đang khiến chúng ta đau ốm ở nhiều lĩnh vực khác nhau.
Vì vậy, câu hỏi tôi đặt ra là, sự thay đổi mà bạn đang nói đến có giảm tỷ lệ thay đổi không?
Nếu vậy, chúng ta có thể xây dựng một thế giới đáp ứng tốt hơn các nhu cầu của con người, mở ra cơ hội theo đuổi công việc có ý nghĩa.
Hay nó sẽ tăng tỷ lệ thay đổi, mà theo ý kiến của tôi, đảm bảo sẽ khiến chúng ta trở nên tồi tệ hơn?
Vì vậy, nếu đó là một sự thay đổi một lần, đúng không, AI sẽ khởi đầu.
Nó sẽ mở ra đủ loại cơ hội mới.
Sẽ có một lượng lớn sự gián đoạn.
Nhưng từ đó, chúng ta sẽ có thể xây dựng một thế giới.
Liệu thế giới đó có ổn định không?
Hay nó sẽ chỉ là, bạn biết đấy, một sự kiện chân trời này sau sự kiện chân trời khác?
Nếu là cái sau, thì điều đó sẽ thực sự nói lên điều gì đó với con người, đó là nó sẽ phá hủy chúng ta.
Khi tôi nhìn vào xã hội, tôi nghĩ, được rồi, điều đó đang có tác động tiêu cực.
Khi tôi nhìn vào các trường hợp sử dụng cá nhân, nó đang có tác động tích cực sâu sắc, bao gồm cả đối với tôi.
Nó đang có tác động rất tích cực.
Vì vậy, đây là một trong những điều mà tôi tự hỏi, điều gì chúng ta cần dạy cho mọi người ở trường để họ hiểu thế giới mà chúng ta đang bước vào?
Bởi một trong những vấn đề lớn nhất mà chúng ta đang gặp phải là chúng ta đang gửi trẻ em đến trường với cái bản thiết kế này, cái mẫu này, rằng chúng sẽ có một sự nghiệp kéo dài mà không còn tồn tại, mà về cơ bản chúng ta đang đối xử với chúng như những LLM đang học.
Và chúng ta đang nói, được rồi, chúng ta sẽ gợi ý cho bạn.
Bạn sẽ cho chúng ta câu trả lời đúng.
Bạn sẽ tưởng tượng nó nếu có thể và, bạn biết đấy, rồi sau đó chúng ta nói, được rồi, giờ hãy ra ngoài thế giới.
Và chúng đi, ôi, nhưng khoan đã.
Tôi không biết tiền hoạt động như thế nào.
Tôi không biết xã hội hoạt động như thế nào.
Tôi không biết não bộ của tôi hoạt động ra sao.
Tôi không biết cách tôi phải xử lý vấn đề cái mới này.
Tôi không chắc phải tiếp cận ai đó trong một tình huống xã hội như thế nào và hỏi xem họ có muốn đi hẹn hò không. Vì vậy, tất cả những điều quan trọng thực sự là những cột mốc quan trọng mà mọi người muốn đạt được và mà công nghệ thực sự có thể ảnh hưởng đến, chúng tôi không có những hướng dẫn cụ thể. Vì vậy, tôi nghĩ một trong những điều lớn nhất cần xảy ra là chúng ta phải trang bị cho giới trẻ trong cả quá trình học để thực sự chuẩn bị cho họ cho thế giới sắp đến hoặc thế giới hiện tại.
Về một mặt, tôi nghĩ bạn đã phác thảo vấn đề rất tốt. Một cách hiệu quả, chúng ta có một mô hình về những gì trường học đúng ra có trách nhiệm, mà, bạn biết đấy, tốt nhất cũng chỉ tạm thời phù hợp với những năm 50 hoặc điều gì đó như vậy. Và nó thực sự thiếu sót trong việc chuẩn bị con người cho thế giới mà họ thực sự phải đối mặt. Nếu chúng ta sẽ chuẩn bị cho họ, tôi sẽ tranh luận rằng bộ công cụ duy nhất đáng có vào lúc này là một bộ công cụ rất tổng quát. Khả năng suy nghĩ ngay tại chỗ và điều chỉnh khi sự việc thay đổi chính là yếu tố quan trọng nhất đối với khả năng của chúng ta để chuẩn bị cho bạn trước.
Có thể một yếu tố hỗ trợ khác sẽ là dạy bạn những gì chúng tôi biết, điều mà nói thật là không đủ, về cách sống một cuộc sống lành mạnh, phải không? Nếu chúng ta có thể khơi dậy cho mọi người những thói quen hành vi và tiêu thụ thực phẩm đúng và sau đó đào tạo họ để suy nghĩ theo cách thích ứng, họ có thể có cơ hội trong thế giới đang đến. Nhưng vấn đề là chúng ta không có đủ giáo viên để thực hiện điều đó. Chúng ta không có những người biết. Và câu hỏi là AI có thể được sử dụng theo cách này để khơi dậy những thói quen tư duy đúng cho mọi người sống trong thế giới đó không?
Tôi dành nhiều thời gian cho công nghệ giáo dục. Một điều mà, như chúng tôi đã nói trên internet, là một “viên thuốc đen” về giáo dục nói chung và các can thiệp giáo dục, là có rất nhiều dữ liệu. Dữ liệu cho thấy có rất ít can thiệp mà bạn có thể thực hiện trong giáo dục để tạo ra kết quả tốt hơn. Vì vậy, đã có rất nhiều thí nghiệm về phương pháp dạy học, về cách cấu hình lớp học mà đã dẫn đến những cải tiến rất nhỏ. Chỉ có một can thiệp, và điều này đã được chứng minh nhiều lần, tạo ra hai sigma, tức là hai độ lệch chuẩn về kết quả tích cực trong giáo dục. Có nghĩa là bạn giỏi hơn 99% mọi người khác. Và đó là việc dạy kèm một đối một.
Tôi đã nghĩ vậy. Tôi đã định nói về lớp học nhỏ hơn và cá nhân hóa. Dạy kèm một đối một, đúng. Và nhân tiện, nếu bạn nhìn, có người cũng đã thực hiện một cuộc khảo sát về tất cả những thiên tài, những người hiểu biết trên thế giới, và đã thấy rằng tất cả họ đều được dạy kèm một đối một. Họ đều có một người trong cuộc sống quan tâm đến họ và hướng dẫn họ.
Vậy cái gì có thể tạo ra dạy kèm một đối một một cách tùy chọn cho mọi trẻ em trên thế giới? AI. Ừ. Bọn trẻ nhà tôi sử dụng nó, và thật tuyệt vời. Vâng. Như là, chúng đang tương tác, và nó đang điều chỉnh theo tốc độ của chúng. Vâng. Và nó đang đưa ra cho chúng những phương pháp so sánh khác nhau để làm việc. Ví dụ, con trai tôi đang học về phép chia, và nó đang hỏi con rằng hãy làm vỡ một cái kính và hỏi xem con làm vỡ nó thành bao nhiêu mảnh bằng cái búa này. Và, bạn biết đấy, nó nói những điều như: “Không, Xander, làm đi. Thực sự làm vỡ nó.” Và nó rất thích thú, phải không? Có phải đó là tổng hợp không? Vâng.
Tôi là một nhà đầu tư vào đối tượng này. Ồ, thật tuyệt khi xem mô phỏng việc dạy kèm một đối một vì nó đang nói chuyện với cậu ấy. Nó đang hỏi cậu ấy những câu hỏi. Brett, bạn là một nhà giáo dục. Bạn đã dành phần lớn cuộc đời để dạy dỗ mọi người tại các trường đại học. Bạn nhận thấy tất cả điều này như thế nào?
Vâng, về một mặt, tôi đồng ý rằng càng gần đến một đối một thì càng tốt. Nhưng tôi cũng cá nhân tin rằng không có gì tốt hơn so với không có gì cả. Và ý tôi là phần của những gì đã sai với hệ thống giáo dục của chúng ta là nó được thực hiện thông qua sự trừu tượng. Và hiệu quả, người quyết định xem bạn đã thành công hay thất bại trong việc học bài học là người đứng ở phía trước phòng học. Và điều đó thì oke nếu người đứng ở đó thực sự có hiểu biết sâu sắc. Và thật tệ nếu người đứng ở đó lại thiếu nội dung, điều này thường xuyên xảy ra.
Vậy điều gì không hoạt động theo cách đó là sự tương tác với thế giới vật lý mà không có ai phải nói với bạn xem bạn đã thành công hay thất bại. Nếu bạn đối mặt với một cái máy không hoạt động, bạn không thể tranh luận rằng nó sẽ hoạt động. Bạn phải tìm ra nguyên nhân gây ra sự cố đó. Và sau đó sẽ có một phần thưởng lớn khi bạn thay đổi điều đó và bỗng dưng nó hoạt động trở lại.
Vì vậy, tôi rất thích việc dạy học càng nhẹ nhàng càng tốt và cụ thể càng tốt. Nói cách khác, khi tôi thực hiện nó, không chỉ với học sinh mà còn với chính con cái tôi, tôi thích nói càng ít càng tốt. Và tôi thích để các hệ thống vật lý nói cho người đó biết xem họ đã thành công hay thất bại. Và điều đó tạo ra một sự hiểu biết mà bạn có thể suy diễn từ một hệ thống này sang hệ thống khác. Và bạn biết rằng bạn không chỉ suy diễn từ sự hiểu lầm của một người. Bạn đang suy diễn từ cách mọi thứ thực sự hoạt động.
Vì vậy, tôi không biết liệu AI có thể được tận dụng trong ngữ cảnh đó hay không. Cảm giác của tôi là có khả năng làm điều đó, nhưng người ta sẽ phải có chủ đích về điều đó. Đặc biệt là với robot và robot humanoid. Thực ra, nơi mà bạn có thể thực hiện điều này là với công nghệ robot. Đó, tôi thấy như vậy. Vâng, công nghệ robot sẽ dạy bạn phần tính toán vật lý của nó. Và sau đó câu hỏi là làm thế nào để bạn truyền phần này với AI để nó có thể, bạn biết đấy, nó khơi dậy bạn ra khỏi một vùng xoáy nào đó mà bạn đang mắc kẹt và chuyển bạn đến khả năng giải quyết một vấn đề mới mà bạn không thể tự tìm ra.
Bạn nghĩ rằng nên dạy gì trong lớp học với tất cả những gì bạn hiện biết? Vâng, tất cả các bạn đều là cha ở đây. Tất cả các bạn đều có con riêng của mình. Vì vậy, đó là một câu hỏi hay. Vâng. Các con bạn bao nhiêu tuổi? Bao nhiêu tuổi? Ba và năm. 19 và 21. Và sáu, bảy và mười. Con cái tôi còn rất nhỏ, nhưng chúng tôi đã bắt đầu sử dụng AI.
Tôi ngồi xuống với chúng và cùng nhau tạo ra ý tưởng và làm game. Tôi muốn nói rằng những gì Brett nói về tính tổng quát là rất quan trọng. Khả năng chuyển đổi và học hỏi kỹ năng một cách nhanh chóng. Sự sáng tạo là rất, rất quan trọng. Có một nhịp độ nhanh trong việc tạo ra ý tưởng và lặp đi lặp lại những ý tưởng đó. Chúng tôi ngồi xuống trước ChatGPT và con tôi tưởng tượng ra những kịch bản. À, nếu có một con mèo trên mặt trăng thì sao? Và rồi, nếu mặt trăng được làm từ phô mai thì sao? Và nếu có một con chuột bên trong nó thì sao? Và vì vậy, chúng tôi tiếp tục tạo ra những biến thể khác nhau của những ý tưởng này. Tôi thấy rằng điều đó làm cho chúng trở nên tưởng tượng hơn và sáng tạo hơn.
Quy tắc số một mà tôi nói với con tôi là tránh xa khiêu dâm bằng mọi giá. Tôi thà bạn gặp vấn đề về ma túy còn hơn là gặp vấn đề về khiêu dâm. Tôi thực sự có ý đó. Tôi nghĩ rằng khiêu dâm nguy hiểm hơn cho con người, tệ hại như vấn đề về ma túy vậy. Nhưng khi chúng ta đến với câu hỏi về cách đối diện với thế giới và những điều mà bạn sẽ được mong đợi làm trong nơi làm việc và tất cả những điều đó, điểm tôi muốn nói với chúng là bạn đang đối mặt với sự khởi đầu của kỷ nguyên hệ thống phức tạp mà bạn sẽ phải tương tác với. Và trong kỷ nguyên hệ thống phức tạp, bạn phải hiểu rằng bạn không thể lập kế hoạch cho một giải pháp. Bạn phải tiếp cận những hệ thống này với một bộ công cụ nâng cấp về sự khiêm tốn vì khả năng của hệ thống để làm những điều bạn không đoán trước lớn hơn rất nhiều so với một hệ thống rất phức tạp. Vì vậy, bạn phải dự đoán điều đó và nhạy cảm với thực tế rằng những gì bạn muốn xảy ra không phải là những gì sẽ xảy ra. Vì vậy, bạn phải theo dõi những hậu quả không mong muốn của bất kỳ hành động nào của bạn và có thực sự hai công cụ hoạt động, một trong số đó bạn vừa đề cập, chính là việc tạo prototype. Bạn tạo prototype cho những thứ. Bạn không tưởng tượng rằng mình biết giải pháp cho điều này và bạn sẽ xây dựng nó. Bạn tưởng tượng rằng, tôi nghĩ có một giải pháp nào đó. Tôi sẽ tạo ra một bằng chứng khái niệm và sau đó tôi sẽ khám phá những gì tôi không biết. Và tôi sẽ làm phiên bản tiếp theo, khám phá những gì tôi không biết. Cuối cùng, bạn có thể đi đến một điều gì đó thực sự hoàn thành được mục tiêu.
Vậy việc tạo prototype là một điều. Và thay vì sử dụng bản vẽ như là phép ẩn dụ trong đầu bạn, hãy điều hướng. Bạn có thể điều hướng ở đâu đó. Cách tôi nghĩ về điều đó là một tay lướt sóng ở một số khía cạnh là một người làm chủ một hệ thống phức tạp. Nhưng họ không làm điều đó bằng cách lập kế hoạch cho ngày lướt sóng của họ xuống những con sóng. Bạn không thể làm như vậy. Điều bạn có thể làm là bạn có thể trở thành chuyên gia trong việc hấp thụ phản hồi và điều hướng xuống sóng và đó là cách tiếp cận đúng cho một hệ thống phức tạp. Không có cách nào khác sẽ hoạt động. Vì vậy, tôi đoán phần cuối cùng là các công cụ tổng quát luôn, không chuyên môn hóa. Đây là kỷ nguyên của những người đa năng và hãy đầu tư vào những công cụ đó và chúng sẽ mang lại lợi ích. Vì vậy, triết lý hướng dẫn cho tôi là sản xuất ra những người đa năng có năng lực cao. Cuối cùng, tôi muốn chúng có động lực, tự khởi động và có một bộ công cụ tổng quát rộng rãi. Tôi tưởng tượng chúng giống như những gì bạn tưởng tượng, đó là hướng dẫn robot, hướng dẫn các tác nhân, nghĩ ra ý tưởng. Và tôi tưởng tượng chúng có một cuộc sống với tốc độ rất cao, nơi chúng có thể viết một cuốn sách, tổ chức một lễ hội, có một podcast, khởi nghiệp và tham gia vào việc kinh doanh của người khác cùng một lúc. Bởi vì chúng mang dấu hiệu của ADHD. Vâng. Vì vậy, người đa năng có năng lực cao là triết lý hướng dẫn. Một số điều chúng tôi làm là chơi cờ. Chúng tôi tập Brazilian jiu-jitsu. Chúng tôi học nhảy múa. Chúng tôi tham gia các lớp diễn xuất, chơi ở thiên nhiên, khởi nghiệp, hiểu rằng bạn có thể bắt đầu một quán nước chanh. Chúng tôi vừa có những quầy nước chanh, điều này thật tuyệt vời. Chúng tôi đã bán rất nhiều nước chanh trên đường phố. Vậy những thứ như vậy và nhảy từ điều này sang điều khác, nhưng cũng cố gắng tránh quá nhiều màn hình và buộc chúng phải tạo ra những thứ từ những gì đang diễn ra quanh ngôi nhà.
Một số sự phân biệt mà chúng tôi cố gắng truyền đạt cho chúng là sự khác biệt giữa sáng tạo và tiêu thụ, bởi vì tôi nghĩ AI có khả năng siêu phàm là làm cho bạn trở thành một người tiêu thụ cực độ hoặc một người sáng tạo cực độ. Và nếu bạn không hiểu sự phân biệt giữa sáng tạo và tiêu thụ, bạn sẽ rơi vào cạm bẫy tiêu thụ, có thể là khiêu dâm hoặc chỉ là tin tức hoặc những thứ mà bạn cảm thấy như bạn đang sản xuất, nhưng bạn thực sự chỉ đang tiêu thụ những thứ. Liệu đó có phải là AI thành công nhất không? Cái mà chơi đùa với dopamine của tôi nhiều nhất? Vâng, và làm cho bạn nghĩ rằng bạn đang đạt được điều gì đó trong khi thực sự bạn chỉ đang tiêu thụ cái gì đó. Vì vậy, cố gắng giúp chúng hiểu rằng có sự khác biệt này trong cuộc sống của chúng giữa sáng tạo và tiêu thụ và hãy ở phía sáng tạo.
Tôi bắt đầu doanh nghiệp đầu tiên của mình khi 12 tuổi, và tôi đã bắt đầu nhiều doanh nghiệp hơn khi 14, 15, 16, 17 và 18. Và vào thời điểm đó, điều tôi không nhận ra là việc trở thành người sáng lập mà không có tiền có nghĩa là tôi cũng phải là người tiếp thị, đại diện bán hàng, đội tài chính, dịch vụ khách hàng và người tuyển dụng. Nhưng nếu bạn bắt đầu một doanh nghiệp ngày hôm nay, thật may mắn có một công cụ mà thực hiện tất cả những vai trò đó cho bạn, nhà tài trợ của chúng tôi hôm nay, đó là Shopify. Nhờ vào tất cả các tích hợp AI của nó, việc sử dụng Shopify giống như bạn đã thuê một đội ngũ tăng trưởng hoàn toàn từ ngày đầu tiên, chăm sóc việc viết mô tả sản phẩm, thiết kế trang web của bạn và nâng cao hình ảnh sản phẩm của bạn, chưa kể đến những điều mà bạn mong đợi Shopify xử lý, như vận chuyển, thuế và kiểm kê. Và nếu bạn muốn khởi động doanh nghiệp của mình, hãy vào Shopify.com slash Bartlett và đăng ký dùng thử với giá 1 đô la mỗi tháng.
Điều mà tôi nghĩ rằng tất cả chúng ta đều đồng ý là điều này là không thể tránh khỏi. Bạn có đồng ý với điều đó không, Brett? Tôi nghĩ điều đó thật buồn khi nó là điều không thể tránh khỏi, nhưng tại thời điểm này, đúng là như vậy. Và phần nào trong đó bạn thấy buồn? Chúng ta đã lãng phí một thời gian dài về năng suất và hòa bình mà tại đó chúng ta có thể đã chuẩn bị cho khoảnh khắc này.
Và sự tập trung hẹp của chúng ta vào cạnh tranh đã tạo ra một thế giới mong manh mà tôi e rằng sẽ không thể sống sót qua những xáo trộn sắp xảy ra. Và điều này đã có thể được dự đoán từ trước. Nói thật, bộ phim 2001, ra mắt năm trước khi tôi sinh ra, đã dự đoán một số vấn đề này. Và bạn biết đấy, chúng ta đã xem nó quá nhiều như giáo dục, nghĩa là như giải trí và không đủ như giáo dục. Vì vậy, giờ đây, chúng ta đã bước vào kỷ nguyên AI mà chưa có một cuộc thảo luận nào về các hệ quả của nó đối với nhân loại. Hiện tại, vì lý do lý thuyết trò chơi, không có cách nào để làm chậm nhịp độ đó. Bởi vì như bạn đã chỉ ra, nếu chúng ta tự kiềm chế, chúng ta chỉ đơn giản là đặt AI vào tay những đối thủ của mình. Đó không phải là một giải pháp, vì vậy tôi không ủng hộ nó. Nhưng còn rất nhiều công việc chuẩn bị mà chúng ta có thể đã thực hiện. Chúng ta có thể đã nhận ra rằng có rất nhiều người trong những công việc sắp bị tiêu diệt. Và chúng ta có thể đã suy nghĩ sâu sắc về các hệ quả đạo đức và những giải pháp có sẵn cho chúng ta. Và nếu không chuẩn bị, sẽ có rất nhiều thiệt hại hơn mức cần thiết. Amjad, tôi nghe bạn nói một chút trước đó rằng điều chúng ta nên thảo luận là cách chúng ta đối phó với việc mất việc. Bạn có bất kỳ lý thuyết nào không? Nếu bạn là thủ tướng hoặc tổng thống thế giới và công việc của bạn là xử lý vấn đề mất việc làm, giả sử là ở Hoa Kỳ, bạn sẽ bắt đầu như thế nào? Điều đầu tiên tôi sẽ làm là dạy mọi người về những hệ thống này, cho dù đó là chương trình trên TV, hay các hoạt động tiếp cận, hay gì đi nữa, chỉ cố gắng giúp mọi người hiểu cách hoạt động của chat GPT, cách những thuật toán này hoạt động. Và khi những công việc mới xuất hiện, tôi nghĩ sẽ có cơ hội cho mọi người nhận ra rằng công việc này cần một bộ kỹ năng như thế này và tôi có những kinh nghiệm kiểu này. Và mặc dù kinh nghiệm của tôi có thể đã lỗi thời, tôi có thể tái sử dụng kinh nghiệm đó để làm công việc đó. Tôi sẽ đưa ra một ví dụ. Một giáo viên, tên là Adil Khan, bạn biết đấy, anh ấy đã bắt đầu sử dụng GPT-3 vào thời điểm đó và cảm thấy nó hoạt động tuyệt vời như một công cụ cho giáo viên hoặc thậm chí có thể là một giáo viên tự thân. Vì vậy, anh ấy đã học một chút lập trình và anh ấy đã sử dụng Replit và xây dựng công ty này. Chỉ hai năm sau, họ đã có giá trị hàng trăm triệu đô la. Rõ ràng, không phải ai cũng có thể tạo ra những doanh nghiệp lớn như vậy. Nhưng bởi vì bạn có kinh nghiệm trong một lĩnh vực cụ thể, bạn sẽ có thể xây dựng phiên bản tiếp theo của công nghệ người dùng đó. Vì vậy, ngay cả khi công việc của bạn bị mất đi, bạn sẽ có thể tìm ra, bạn biết đấy, điều gì có thể xảy ra tiếp theo. Tôi nghĩ rằng chuyên môn của mọi người mà họ đã xây dựng, tôi không nghĩ rằng tất cả đều là vô ích, ngay cả khi công việc của bạn không còn. Bạn không bao giờ thực sự có thể dự đoán những công việc nào sẽ đến. Ý tôi là, tôi nghĩ đến tình huống điên rồ này khi tôi nói với ông tôi về công việc huấn luyện viên thể hình cá nhân. Và ông ấy sẽ, tâm trí ông ấy sẽ bị sốc bởi ý tưởng này rằng, ồ, được rồi, tôi không thực sự muốn đến phòng tập thể dục. Vì vậy, tôi phải đặt lịch hẹn và trả tiền cho ai đó để đến phòng tập thể dục và gặp tôi ở đó. Và sau đó ông ấy đứng đó và bảo tôi nâng những vật nặng mà tôi không thực sự muốn nâng. Và rồi ông ấy đếm chúng và nói với tôi rằng tôi đã làm rất tốt. Và sau đó tôi để những vật nặng đó xuống. Và rồi ở cuối, tôi cảm thấy rất tốt và tôi trả cho ông ấy một đống tiền. Ông tôi sẽ như, cái quái gì vậy, bạn đã bị lừa đảo? Vì vậy, chúng ta không bao giờ có thể dự đoán công việc trong tương lai sẽ trông như thế nào. Ngay cả khi chỉ cách nhau 20, 30, 40 năm, các công việc nhanh chóng và thuyết phục chỉ có thể biến đổi thành cái gì đó khác. Tôi nghĩ nó rất nguy hiểm, ý tưởng rằng chúng ta cần tập trung vào kỹ năng. Tôi nghĩ rằng tương lai không nằm ở kỹ năng. Các kỹ năng đang bị thay thế. Đó là ý tưởng rằng hệ thống giáo dục cần ngừng bị phân đoạn và cần có cách tiếp cận học tập suốt đời. Bộ Giáo Dục cần nhìn nhận mọi người như những người học tập suốt đời, những người liên tục bị xáo trộn và cần được tái giáo dục. Thú vị. Nhưng đó sẽ trở thành vấn đề. Bộ Giáo Dục cần bắt đầu từ lúc trẻ em và kéo dài cho đến khoảng 70 tuổi. Bộ Giáo Dục có còn vai trò gì nữa không? Tùy thuộc vào định nghĩa của bạn về giáo dục. Tôi nghĩ nếu bạn đang cố gắng dạy trẻ em nhớ các sự kiện và số liệu từ một cuốn sách lịch sử, thì không. Nhưng nếu đó là về việc huấn luyện, hướng dẫn, bị mất việc, tìm kiếm điều tiếp theo, và có thể nếu nó dựa vào AI và tất cả những điều đó, thì đó là một sự thay đổi mô hình khác về giáo dục là gì và mục đích của nó là gì. Và nếu chúng ta xem nó như một điều linh hoạt, nơi chúng ta vẫy vào một cơ hội và sau đó vẫy lại vào giáo dục, phát hiện một cơ hội mới và sau đó quay trở lại đây, nếu chúng ta đang học hỏi, thay vì kỹ năng, mà chúng ta đang học công cụ. Vì vậy, đó là giáo dục dựa trên công cụ chứ không phải giáo dục dựa trên kỹ năng. Mục đích của giáo dục trong hầu hết lịch sử của nhân loại là về phẩm hạnh, về việc trở thành một người vĩ đại có phán đoán tốt và có những giá trị tốt. Và chúng ta không thực sự làm nhiều điều đó nữa. Nhưng tôi nghĩ nếu chúng ta cơ bản đặt câu hỏi, mục đích của giáo dục là gì và vị trí của nó trong cuộc sống của chúng ta và khung thời gian của nó ra sao? Và sau đó chúng ta chỉ cần tin rằng mọi người sẽ nghĩ ra những công việc kỳ lạ và tuyệt vời. Bạn biết đấy, điều này nghe có vẻ điên rồ, nhưng cũng, và đây là một phép so sánh kỳ lạ, con mèo của tôi vô cùng hạnh phúc. Làm thế nào bạn biết? Vâng, nó thể hiện tất cả các đặc điểm của một con mèo hạnh phúc. Và nó sống trong một thế giới siêu trí tuệ theo như nó nghĩ. Vì vậy có một ngôi nhà và thức ăn chỉ xảy ra một cách kỳ diệu. Nó không biết rằng có một lịch Google điều hành nhiều thứ xảy ra xung quanh nó. Thức ăn được giao. Tiền được tạo ra một cách kỳ diệu bởi một thứ gì đó mà có trí tuệ không thể tưởng tượng nổi hơn cả con mèo. Và tuy nhiên con mèo đã tiến hóa để sống cuộc sống có mục đích và ý nghĩa bên trong ngôi nhà. Theo như nó nhận thức, nó có một cuộc sống tuyệt vời.
Nhưng bạn có quyền năng vào bất kỳ thời điểm nào, nếu bạn đang có một ngày tệ, để làm điều gì đó không dễ chịu với con mèo đó. Và nó thực sự không thể đền đáp cho điều đó. Chính xác. Nhưng có điều gì trong việc làm tổn thương con mèo đó mà có ích cho tôi? Bởi vì trong phép ẩn dụ này… Bạn có thể muốn chuyển nhà và chủ nhà không cho phép nuôi mèo. Vì vậy bạn có một quyết định cần phải đưa ra. Có những thứ mà con mèo bị xáo trộn rất nhiều mà không phải do lỗi của nó. Tôi hiểu. Nhưng về vấn đề tồn tại của mèo và lịch sử của mèo, nếu bạn hỏi con mèo đó, liệu nó có muốn đổi chỗ với bất kỳ con mèo nào khác đã đến trước nó không, nó có lẽ sẽ nói, tôi không muốn mạo hiểm vì tất cả các con mèo khác phải tự lập trong cách mà tôi không phải. Rất có thể chúng ta sẽ sống một cuộc đời giống như mèo nhà, theo nghĩa là từ quan điểm của chúng ta, chúng ta đang có một cuộc sống rất thú vị với mục đích, ý nghĩa, và chỉ có một trí tuệ cao hơn khổng lồ đang điều hành mọi thứ. Và chúng ta không biết nó hoạt động như thế nào, nhưng cũng không thực sự quan trọng nó hoạt động như thế nào. Chúng ta là những người thụ hưởng và nó đang làm những việc quan trọng và chúng ta đang tận hưởng cuộc sống như những con mèo nhà trong cuộc đời của nó. Tôi có một vài điều muốn nói về điều này. Một, tôi khá chắc chắn rằng mèo của bạn không ấn tượng với khả năng của bạn như bạn nghĩ hoặc như bạn nghĩ rằng nó nghĩ. Tôi chỉ biết mèo đủ để chắc chắn về điều đó. Nhưng… Ôi, nó coi thường tôi. Vâng, bạn đúng. Tôi nghĩ đây là một điểm hợp lý rằng có sự tồn tại. Và thực sự, bạn biết đấy, vật nuôi thực sự có điều đó. Nếu chúng có những chủ nhân yêu thương, chúng thực sự có cuộc sống khá tốt. Và tôi cũng muốn chỉ ra rằng có một cách mà chúng ta đã sống như vậy. Hầu hết chúng ta không hiểu quá trình tạo ra điện từ các bức tường của ngôi nhà chúng ta hoặc nước chảy ra từ vòi. Và chúng ta hầu như ổn với thực tế rằng có ai đó chăm sóc điều đó và chúng ta có thể bận rộn với bất cứ điều gì mà chúng ta muốn. Nhưng điều mà tôi thấy có gì đó đáng lo lắng trong miêu tả của bạn là bạn nói rằng bản chất của những gì chúng ta làm là xử lý thực tế rằng những công việc luôn bị đảo lộn. Đó là một quá trình rất mới. Đó là quá trình siêu đổi mới. Ngày xưa, chỉ rất hiếm có một dân số nào đó gặp phải hoàn cảnh mà bạn không thực sự làm chính xác những gì tổ tiên gần nhất của bạn đã làm, đúng không? Nói chung, bạn nhận những công việc có sẵn, chọn một cái gì đó phù hợp với bạn, và bạn làm việc đó. Qua các thế hệ. Và điểm quan trọng là chúng ta hiện đã đến điểm mà ngay cả trong cuộc đời của bạn, điều có thể được trả tiền sẽ chuyển động theo những cách mà không ai có thể dự đoán. Và đó là một tình huống nguy hiểm. Có lẽ khoảng hai năm một lần, như hai hoặc ba năm. Và vì vậy có thể có một số mô hình mà chúng ta có thể lướt trên làn sóng đó và bạn có thể học một bộ công cụ của người tổng quát và, bạn biết đấy, sinh tồn của bạn không phụ thuộc vào việc bạn có thể, bạn biết đấy, chuyển đổi mỗi hai năm và không bỏ lỡ nhịp nào. Hoặc có lẽ chúng ta không thể. Nhưng tôi thực sự nghĩ rằng đáng để hỏi câu hỏi nếu tốc độ thay đổi công nghệ đã đưa chúng ta ra khỏi hoàn cảnh con người bình thường, nơi mà bạn có thể suy diễn những gì bạn có thể làm để kiếm sống dựa trên những gì tổ tiên của bạn đã làm và đưa chúng ta vào một tình huống mà những gì tổ tiên của bạn đã làm sẽ hoàn toàn không liên quan bất kể điều gì. Nhưng đó thực chất là một sự lựa chọn đã được đưa ra cho chúng ta. Và chúng ta có thể chọn để làm chậm tốc độ thay đổi để chúng ta sống trong một kiểu hòa hợp nơi mà môi trường phát triển của chúng ta và môi trường trưởng thành của chúng ta phù hợp với nhau. Bây giờ, với tư cách một nhà sinh vật học, tôi sẽ lập luận rằng nếu chúng ta không làm điều gì đó như vậy, đây là một vấn đề của thời gian. Chúng ta sẽ thay đổi như thế nào? Làm thế nào để chúng ta làm chậm tốc độ thay đổi? Chà, ý tôi là, bạn có thể là người Amish, đúng không? Bạn có thể là người Amish và sống trong cộng đồng của mình. Và tôi sẽ giả định một số người sẽ muốn điều đó. Chà, bạn biết đấy, khi Heather và tôi viết cuốn sách của chúng tôi, tôi muốn chương đầu tiên là, liệu người Amish có đúng không? Và câu trả lời là họ không thể hoàn toàn đúng vì họ đã chọn một thời điểm tùy ý để bước xuống khỏi thang cuốn. Nhưng họ có đúng rằng có điều gì đó nguy hiểm về mô hình thay đổi công nghệ liên tục này không? Rõ ràng là họ đúng. Người Amish làm gì cho những ai không biết? Người Amish sống như thể họ vẫn đang ở, gì nhỉ, năm 1880? Năm 1850 hoặc gì đó. Vì vậy, họ sống trong một… họ không sử dụng ô tô. Họ, tôi nghĩ họ có điện thoại, nhưng họ không có điện. Về cơ bản, họ, họ tự nguyện chấp nhận một công nghệ, họ về cơ bản là một cộng đồng Luddite và họ hóa ra đã đối phó khá tốt với nhiều thứ đã làm đảo lộn xã hội hiện đại. COVID là một trong số đó, đúng không? Vâng, COVID, họ đã làm rất tốt. Là những người khá hạnh phúc. Tỉ lệ tự kỷ rất thấp. Họ có rất nhiều lợi thế. Vì vậy, nói chung, tôi không lập luận rằng chúng ta nên sống như người Amish. Tôi không thấy vậy. Nhưng tôi thực sự nghĩ rằng ý tưởng rằng họ có một cái nhìn sâu sắc, rằng bạn cần phải bước xuống khỏi thang cuốn đó vì bạn chỉ sẽ làm mình đau ốm hơn, có lẽ là đúng. Bây giờ, có thể đây là một sự chuyển đổi một lần. Chúng ta đã bước qua chân trời sự kiện. Chúng ta sẽ sống trong thế giới AI. Và có thể nếu chúng ta cẩn thận, chúng ta có thể tìm ra cách biến cảnh quan vô hạn mà bạn đang mô tả thành một nơi không thay đổi, nơi bạn luôn có cơ hội để quyết định điều gì cần phải được thực hiện. Nhưng việc sống trên chân trời sự kiện đó không phải là một quá trình luôn thay đổi. Đó chỉ là ranh giới tiếp theo.
Tôi cũng muốn đề xuất hoặc đặt câu hỏi khi chúng ta nói về thế giới đang thay đổi mạnh mẽ của mình, liệu có phải điều đó khó khăn hơn cho người lớn tuổi trong việc học không, vì cơ chế hoạt động của não bộ liên quan đến tốc độ xử lý và tính linh hoạt trong trí nhớ?
Vì vậy, tôi tự hỏi liệu có tình huống giống như cha tôi đã trải qua, do não bộ của ông và sự giảm tính linh hoạt trong trí nhớ cũng như tốc độ xử lý mà người lớn tuổi sẽ gặp phải, sẽ gặp khó khăn nhiều hơn so với cháu gái tôi, người có vẻ như có thể học được nhiều điều.
Tôi muốn nói rằng cháu gái tôi biết năm thứ tiếng trong khi chỉ mới bảy tuổi hoặc có thể là điều gì đó điên rồ như vậy.
Năm thứ tiếng.
Nhưng ý tôi là, não bộ có tính linh hoạt cao hơn nhiều, có đúng không?
Vì vậy, điều đó trở về với tâm lý học tiến hóa của chúng ta, mà bạn biết rất rõ, lịch sử tiến hóa mà bạn hiểu thấu hơn tôi rằng chúng ta được định sẵn để học những bài học khi còn trẻ, sử dụng thông tin đó cho suốt đời.
Nhưng nếu thông tin đó thay đổi nhanh chóng.
Chà, ý tôi là, đây chính xác là điều tôi đang chỉ ra.
Không bình thường khi môi trường phát triển của bạn không chuẩn bị cho bạn cho môi trường trưởng thành.
Điều bình thường là khi bạn còn trẻ, bạn gánh vác ngày càng nhiều trách nhiệm của môi trường trưởng thành.
Và sau đó, đến một thời điểm nào đó, trong một nền văn hóa hoạt động bình thường, sẽ có một nghi thức chuyển giao, bạn vào rừng trong 10 ngày, bạn quay về với một con thú lớn.
Giờ đây bạn là người lớn và bạn thực hiện chương trình mà bạn đã xây dựng và kích hoạt nó.
Và, bạn biết đấy, bạn sẽ là một người hạnh phúc hơn rất nhiều.
Bạn cảm thấy thỏa mãn hơn rất nhiều nếu cuộc sống của bạn có kiểu liên tục như vậy.
Và bạn biết, tôi không phản đối ý tưởng rằng chúng ta đã cho phép bản thân làm những điều không thể làm nếu đó là giới hạn.
Nhưng chúng ta cũng đã gây tổn hại nặng nề cho chính mình.
Và tôi muốn tách rời khả năng cải thiện hạnh phúc của chúng ta khỏi những vết thương tự gây ra mà đến từ nhịp độ thay đổi không ngừng này.
Và tôi không biết liệu điều đó có khả thi không, nhưng tôi nghĩ đó là một mục tiêu đáng giá.
Một điều thú vị, tôi không biết liệu nó có phải là một ý kiến phản biện không, nhưng trong thời kỳ COVID, đặc biệt là, và thông qua sự thay đổi công nghệ gần đây, một số người đã bắt đầu sống gần hơn với môi trường tổ tiên hơn.
Vì vậy, những người có công việc trực tuyến.
Một số người bạn của tôi, như đã xây dựng các cộng đồng, kiểu hợp tác, nơi họ sống và tạo ra trang trại, họ ăn uống và có công việc qua email.
Họ làm công việc qua email trong năm giờ rồi ra ngoài và họ đều có con cái.
Và đó là một cuộc sống thú vị.
Và có rất nhiều suy nghĩ lại trong Silicon Valley về cách chúng ta sống.
Và có một nhóm các công ty khởi nghiệp đang cố gắng tạo ra các thành phố, họ nói, được rồi, chúng tôi biết rằng chúng tôi đang gặp khó khăn vì thành phố của chúng tôi không thực sự thân thiện cho việc đi bộ.
Và có rất nhiều lý do khiến chúng tôi gặp khó khăn.
Đầu tiên, chúng tôi không di chuyển đủ.
Thứ hai, có một khía cạnh xã hội của thành phố thân thiện với việc đi bộ, nơi bạn có thể tương tác với mọi người.
Bạn sẽ kết bạn chỉ bằng việc tình cờ ở cùng một chỗ với những người khác.
Thực sự hãy xây dựng những thành phố thân thiện với việc đi bộ.
Và nếu chúng ta muốn vận chuyển nhanh hơn, chúng ta sẽ có những chiếc xe tự lái ở rìa thành phố đang đi quanh.
Và tôi nghĩ có những cách mà công nghệ có thể giúp chúng ta sống theo cách đảo ngược, có lẽ, theo cách địa phương hơn.
Tôi thích tầm nhìn đó.
Nhưng tôi cũng nhận thức được rằng có một tầm nhìn khác, phải không?
Bạn thấy những người ở Palo Alto, ví dụ, thực sự áp đặt những kiểm soát rất mạnh về lượng thời gian mà con cái họ tiếp xúc với điện thoại.
Tôi sống ở Palo Alto.
Vâng.
Vì vậy, bạn thấy điều đó.
Mặt khác, điều tôi lo lắng là các tầng lớp tinh hoa của Palo Alto không nhận ra rằng những gì họ đang làm là họ đang tìm cách giảm thiểu tổn hại cho chính gia đình mình trong khi họ xuất khẩu tổn hại đó cho thế giới thông qua những công nghệ mà đối với mọi người khác là không được kiểm soát.
Vì vậy, câu hỏi là, liệu chúng ta có thể đưa tất cả mọi người cùng đi với nhau không nếu cuộc cách mạng AI sẽ thay đổi mối quan hệ của chúng ta với công việc và mọi thứ khác, liệu chúng ta có thể đưa tất cả mọi người cùng đi với nhau để vào cuối quá trình này, thay vì nói rằng, ồ, thật tiếc khi ba tỷ người đã bị hy sinh cho sự chuyển đổi này.
Nhưng tiến bộ là tiến bộ, chúng ta thực sự có thể nói rằng, chà, chúng ta đã giải quyết được vấn đề.
Và tất cả mọi người hiện đang sống trong một phong cách gần gũi hơn với lập trình của họ và gần với những mong đợi của cơ thể vật lý của họ.
Bạn biết đấy, nếu điều đó là đúng, thì tôi sẽ rất thích sai lầm trong những nỗi sợ hãi của mình về những gì đang đến.
Nhưng thật không may, thị trường sẽ không giải quyết vấn đề này nếu không có chúng ta chủ động buộc nó phải làm như vậy.
Nỗi sợ lớn nhất của bạn là gì?
Khi bạn nói đến nỗi sợ hãi của tôi về những gì đang đến, bạn có thể hình dung ra điều gì?
Ồ, đó thực sự là một chủ đề hoàn toàn khác.
Nỗi sợ của tôi liên quan đến công nghệ và AI là điều này là một quá trình không thể kiểm soát và rằng quá trình không thể kiểm soát này sẽ tương tác rất xấu với một số chương trình tiềm ẩn của con người.
Có thể nói rằng, nhu cầu về lao động hầu như sẽ biến mất và những người đứng đầu các quy trình dẫn đến việc loại bỏ nhu cầu lao động đó bắt đầu nói về những kẻ ăn không ngồi rồi.
Có thể họ sẽ đưa ra một thuật ngữ mới lần này.
Giảm bớt đàn đuôi.
Chính xác.
Hoặc họ để cho sức mạnh bị giảm bớt hay điều gì đó tương tự.
Brett, tôi đã nghe bạn nói về năm mối lo ngại chính mà bạn có hay năm mối đe dọa chính mà bạn đã đề cập trước đây.
Bạn có thể kể ra năm điều đó không?
Điều đầu tiên là điều tôi lo lắng ít nhất.
Tôi không hoàn toàn không lo lắng về nó, nhưng tôi lo lắng ít nhất về nó, đó là trí tuệ nhân tạo ác ý mà những người bi quan tập trung vào.
Điều thứ hai là ý tưởng rằng, bạn biết đấy, một AI có thể không đồng nhất không phải vì nó có lợi ích khác biệt mà vì nó chỉ hiểu sai những gì mà bạn đã yêu cầu những tác nhân tự động này.
Bạn biết đấy, ví dụ nổi tiếng là bạn yêu cầu chúng sản xuất càng nhiều kẹp giấy càng tốt và chúng bắt đầu tiêu hủy vũ trụ để làm kẹp giấy.
Và, bạn biết đấy, đây là một vấn đề kiểu như học trò của pháp sư.
Điều thứ ba tôi muốn nói thực sự là tất cả những điều còn lại trong số đó tôi sẽ cho là đảm bảo, và điều thứ ba là sự rối loạn trong trí tuệ con người, rằng chúng ta đang sống trong một thế giới mà rất khó để biết sự thật có nghĩa là gì, đúng không?
Sự thật bị lọc rất nhiều và chúng ta bị thuyết phục bởi các thuật toán đến nỗi, bạn biết đấy, khả năng tự tin của chúng ta ngay cả trong những sự thật cơ bản, thậm chí trong chính lĩnh vực của chúng ta đôi khi ở mức thấp nhất từ trước đến nay và tình hình đang ngày càng xấu đi.
Vấn đề đó sẽ mạnh mẽ hơn khi bạn có khả năng tạo ra những video giả mạo không thể bị phát hiện, đúng không?
Điều này sẽ làm thay đổi thế giới một cách triệt để khi sự thật rằng bạn đang xem video một người nào đó cướp ngân hàng không có nghĩa là họ đã cướp ngân hàng hay thậm chí là một ngân hàng nào đó đã bị cướp.
Vậy thì, tôi gọi điều này là lá bài.
Chúng tôi thường xuyên đối phó với điều này, nhân tiện.
Tôi nghĩ mỗi tuần, mỗi tuần tôi đều gửi cho những người trong nhóm trò chuyện của tôi, những người hiện đang dành, tôi sẽ nói là 30% thời gian của họ để xử lý những video giả mạo về tôi, thực hiện các trò lừa đảo tiền điện tử, mời mọi người tham gia các nhóm Telegram, và sau đó yêu cầu họ cung cấp thông tin thẻ tín dụng.
Chúng tôi đã gặp một trường hợp trên X. Tôi nghĩ bạn có thể đã thấy nó, Dan, đúng không, về tôi?
Có người đã chạy quảng cáo, quảng cáo video giả mạo về tôi trên X.
Và không chỉ có một quảng cáo. Họ đã có cả chục quảng cáo.
Tôi đã nhắn tin cho X và có thêm 10 quảng cáo nữa.
Rồi ngày hôm sau lại có thêm 10 quảng cáo nữa. Ngày tiếp theo cũng có 10 quảng cáo nữa.
Rồi chuyện này bắt đầu xảy ra trên Meta.
Vì vậy, đó là một video của tôi cơ bản đang mời bạn tham gia vào một nhóm Telegram nơi mọi người đang bị lừa đảo và các thành viên trong khán giả của tôi cũng đang bị lừa đảo.
Và khi tôi gửi chúng cho Meta, họ đã gỡ bỏ chúng một cách may mắn.
Nhưng sau đó vẫn còn năm quảng cáo nữa.
Và tôi đã vào LinkedIn ngày hôm qua và trong hộp thư đến của tôi có rất nhiều thông điệp, Steve, nhân tiện, có một trò lừa đảo mới này.
Thực ra, vào lúc này, tôi cần một người làm toàn thời gian chỉ để gửi điều này cho Meta.
Tôi cũng tương tự nhưng ở quy mô nhỏ hơn.
Mỗi tuần, đều có người hỏi tôi rằng, liệu bạn có thật sự nhắn tin cho tôi trên Facebook để yêu cầu tôi cung cấp ví tiền điện tử của mình không và vân vân.
Điều tôi không thích nhất là khi những người mẹ đơn thân nhắn tin cho tôi nói rằng họ vừa chi 500 bảng tiền của mình và họ buồn bã như thế nào.
Và tôi cảm thấy có nghĩa vụ đạo đức để trả lại tiền cho họ vì họ đã rơi vào một trò lừa đảo nào đó.
Đó là tôi.
Đó là giọng nói của tôi.
Đó là một video của tôi đang nói với họ điều gì đó.
Và tôi không biết, không biết bạn giải quyết điều đó như thế nào.
Nhưng xin lỗi, hãy tiếp tục.
À, ý tôi là, điều này thực sự nằm trong danh sách ở đây.
Cuộc cách mạng lớn đối với cách mọi thứ hoạt động, cả vì nhiều người sẽ bị thất nghiệp với số lượng lớn và vì những người không tuân thủ hợp đồng xã hội của chúng ta sẽ tìm thấy mình được trao quyền hơn cả những người tuân thủ.
Vậy trong trường hợp này, không chỉ người phụ nữ đáng thương này mà giờ mất 500 đô la cho bất kỳ trò lừa đảo nào, mà bạn cũng đã bị cướp, dù bạn có hoàn lại cho cô ấy số tiền mà cô ấy nghĩ rằng mình đã mua hay không.
Uy tín của bạn đang bị đánh cắp bởi ai đó và bạn không có khả năng để ngăn chặn điều đó.
Điều này cũng đã xảy ra với tôi và nó thật sự disturbing.
Và đó chỉ là một trong hàng tá cách mà AI cho phép những người hoàn toàn sẵn sàng thu hẹp miếng bánh mà tất cả chúng ta thu được để mở rộng miếng của họ.
Bạn biết đấy, có vô số cách mà điều này có thể xảy ra.
Và tôi nghĩ rằng mọi người không thấy trước được điều đó.
Họ không hiểu có bao nhiêu cách khác nhau họ sẽ bị cướp, chắc chắn như thể ai đó đang in tiền.
Và rồi điều cuối cùng là điều này đơn giản chỉ là tăng tốc các quá trình dân số có thể dẫn đến việc giải phóng các công nghệ đã tồn tại trước AI.
Bạn biết đấy, điều này có thể dễ dàng dẫn đến việc leo thang thành các cuộc chiến tranh hạt nhân.
Vì vậy, dù sao đi nữa, tôi nghĩ rằng danh sách này có thể được mở rộng hơn tại thời điểm này, giờ mà chúng ta đã, bạn biết đấy, đã dành một chút thời gian trong kỷ nguyên AI.
Chúng ta có thể bắt đầu thêm nhiều khía cạnh hơn cho những điều có thể xảy ra trong kỷ nguyên này và những gì chúng ta nên lo sợ.
Một trong những điều đó, bạn đã đề cập đến sự thật, bạn biết đấy, vấn đề của sự thật.
Bạn có nghĩ, chỉ là một cuộc thí nghiệm tư tưởng, rằng một người bình thường hôm nay, như một người trung bình, được đại học đào tạo, ví dụ, người đó có bị tuyên truyền hay bị lừa dối nhiều hơn so với một người ở Liên Xô cũ không?
Chà, tôi không biết vì tôi không sống ở Liên Xô.
Nhưng hiểu biết của tôi từ những người đã sống là họ đã có một sự nhận thức rất rộng rằng tuyên truyền không đúng sự thật.
Điều này không có nghĩa là họ biết điều gì là đúng.
Nhưng có một sự hoài nghi, điều mà tôi sợ ở đây, là bạn biết đấy, bạn thực sự chịu khó chọn giữa hai lựa chọn tồi tệ.
Trong một thế giới mà bạn không thể phân biệt điều gì là đúng, bạn có thể hoặc là quá tin tưởng và luôn là người bị lừa, hoặc bạn có thể trở thành một người hoài nghi và bạn có thể bị tê liệt bởi thực tế là bạn chẳng tin điều gì cả.
Nhưng cả hai đều không phải là công thức tốt.
Bạn nghĩ rằng việc tìm kiếm trên Google trước và có thể bây giờ ChatGPT đã giúp mọi người nhiều hơn hay ít hơn trong việc tìm kiếm sự thật?
Tôi nghĩ rằng điều không phải là ChatGPT chính xác, nhưng tất cả các công cụ AI khác nhau đã tạm thời nâng cao khả năng của chúng ta để biết điều gì là đúng, bởi vì, thực tế, chúng cho phép chúng ta nhìn thấy sự thao túng thuật toán vì AI không được giám sát chặt chẽ.
Bạn có thể làm cho nó nhận ra những mẫu mà mọi người sẽ thề là không đúng.
Và vì vậy, nhiều người trong số chúng ta đã thấy điều này hữu ích trong việc đơn giản là tách rời cái gọi là “gaslighting”.
Vì vậy, điều đó đã rất tích cực.
Nhưng tôi cũng nhớ những ngày đầu của việc tìm kiếm, và việc tìm kiếm trước đây thường chỉ là có một số trang nào đó ngoài kia. Tôi không biết chúng ở đâu.
Dưới đây là bản dịch sang tiếng Việt của đoạn văn trên:
Đây là một thứ máy móc mà đã xem xét những thứ này và chỉ cần chỉ cho tôi hướng của những thứ chứa những từ này, đúng không, trước khi sự thao túng thuật toán bắt đầu dẫn dắt chúng ta vào việc tin vào những điều vô lý thuần túy vì ai đó kiểm soát những thứ này đã quyết định rằng điều đó là hữu ích cho chúng ta khi tin vào những điều đó. Vì vậy, theo tôi nghĩ, hiện tại, AI đang nâng cao khả năng nhìn nhận của chúng ta một cách rõ ràng hơn, nhưng điều đó thực sự phụ thuộc vào một dạng thỏa thuận nào đó để bảo vệ khả năng đó mà tôi không biết là chúng ta có. Angela, bạn đang ngụ ý rằng AI sẽ bảo vệ chúng ta khỏi chính AI, tức là người phụ nữ đã bị lừa trong khán giả của tôi, các nền tảng sẽ có một công cụ được tích hợp sẵn có thể nhanh chóng xác định rằng đó không phải là tôi, và quảng cáo đã được phát động bởi ai đó ở một quốc gia khác. Và khi cô ấy bắt đầu bị yêu cầu cung cấp thông tin thẻ tín dụng theo cách nào đó trên Telegram 10 phút sau, hệ thống sẽ có khả năng hiểu rằng đó có thể là một trò lừa đảo tại thời điểm đó. Và đó cũng sẽ là sự phòng thủ, không chỉ là tấn công. Câu hỏi đầu tiên, liệu Meta có được khuyến khích để giải quyết vấn đề này không? Có. Và vì vậy, Meta có thể đang làm việc tích cực với AI. Và một lần nữa, đây sẽ là một trò chơi mèo vờn chuột, giống như mọi sự lạm dụng xảy ra ở đó. Vì vậy, tôi nghĩ rằng thị trường sẽ tự nhiên đáp ứng với những thứ như vậy. Theo cách mà chúng ta cài đặt phần mềm diệt virus, dù có phiền phức đến đâu, tôi nghĩ chúng ta sẽ cài đặt AI trên máy tính của mình, điều đó sẽ giúp chúng ta phân loại ít nhất là giữa giả và thật. Nhưng hãy lấy ví dụ mà bạn nói. Liệu Meta có được khuyến khích để giải quyết vấn đề này không? Bề ngoài, có vẻ như nó nên như vậy. Nhưng đã có bao nhiêu lần trong lịch sử gần đây mà chúng ta thấy một tập đoàn tự nuốt chửng chính doanh nghiệp của mình vì điều mà tối đa chỉ là những mong muốn kỳ quái của các cổ đông của nó? Tại sao X lại loại bỏ những người có tài khoản lớn hoặc Facebook hoặc Google? Có vẻ như bạn sẽ mong đợi, dựa trên việc thị trường chọn các công cụ tìm kiếm hoặc mạng xã hội, bạn sẽ mong đợi những công ty này hoàn toàn tham lam và nói, bạn biết đấy, nếu Alex Jones có một lượng khán giả lớn, chúng tôi thì có quyền gì để nói? Đó là điều tôi đã mong đợi. Thay vào đó, bạn có những công ty này giám sát đạo đức tư tưởng, mặc dù điều đó đã làm giảm quy mô của dân số sử dụng các nền tảng. Tôi khó khăn trong việc giải thích tại sao điều đó xảy ra, nhưng tôi có mọi lý do để mong đợi điều tương tự sẽ xảy ra với AI. Bạn hào hứng về AI ở khía cạnh nào? Quan điểm lạc quan của bạn là gì? Bởi vì ở đầu cuộc trò chuyện này, bạn đã nói rằng có vô số cách mà nó có thể cải thiện cuộc sống của chúng ta, và có gấp 10 lần số cách mà nó có thể gây hại cho cuộc sống của chúng ta. Nhưng hãy điều tra một số cách mà nó có thể cải thiện cuộc sống của chúng ta một cách đáng kể. Có một số cách khác nhau. Thứ nhất, như chúng ta đã đề cập trước đây, chúng ta đang thiếu thốn giáo viên và giáo sư có năng lực. Và đó là một vấn đề sẽ mất ít nhất ba thế hệ để giải quyết nếu những gì chúng ta sẽ làm là bắt đầu từ ngày mai và bắt đầu giáo dục mọi người theo cách đúng đắn để làm cho họ đủ năng lực đứng ở phía trước một căn phòng và giáo dục. Nhưng nếu chúng ta có thể tăng cường quy trình đó, nếu chúng ta có thể tận dụng một công cụ như AI để, bạn biết đấy, một số ít giáo viên có năng lực có thể tiếp cận một số lượng lớn học sinh hơn, điều đó là khả thi, tôi nghĩ. Thứ hai là chúng ta có rất nhiều vấn đề là trở ngại cho việc sống tốt trên hành tinh này mà AI có thể quản lý mà trí tuệ con người một mình không thể làm được, đúng không? Cũng giống như việc, bạn biết đấy, sức mạnh tính toán có thể tính toán mọi thứ với tốc độ mà con người không thể theo kịp, và có một số thứ bạn muốn tính toán rất chính xác. Cũng có một số vấn đề về lý luận. Bạn có thể tưởng tượng rằng thay vì có những quy định tĩnh quản lý hành vi kém vì chúng bị lợi dụng, bạn có thể có một tương tác động. Bạn có thể chỉ định một mục tiêu của một thứ gì đó như một quy định, và sau đó bạn có thể theo dõi xem một can thiệp cụ thể có thành công trong việc hướng bạn theo hướng mà bạn hy vọng hay làm điều gì đó nghịch lý, điều luôn xảy ra. Và bạn có thể có, bạn có thể về cơ bản có chính phủ được nhắm mục tiêu vào việc điều hướng và thử nghiệm thay vì chỉ định một bản kế hoạch cho cách chúng ta phải sống. Vì vậy, chúng ta sẽ không cần các chính trị gia. Hiện tại, chúng ta đang mắc kẹt với, bạn biết đấy, các bảo vệ hiến pháp tốt nhất mà đã được xây dựng và vẫn không đủ cho những thực tế hiện đại. Dan, bạn hào hứng về AI ở cấp độ cá nhân, nhưng cũng từ một cấp độ xã hội như thế nào? Vâng, những thứ lớn mà tôi thấy là chăm sóc sức khỏe và giáo dục. Ý tôi là, thật vô lý khi bạn ngồi đó trong cơn đau sau khi đã làm MRI, và vẫn chưa có ai để xem xét MRI đó và nói cho bạn biết bạn nên làm gì. Và điều đó có thể dễ dàng được giải quyết. Có rất nhiều vấn đề về chăm sóc sức khỏe, và không chỉ vậy, trên toàn thế giới, có những nơi mà không có bác sĩ đa khoa và họ không có, bạn biết đấy, các cố vấn y tế. Và, bạn biết đấy, những bước đột phá trong chăm sóc sức khỏe toàn cầu sẽ là phi thường. Và những bước đột phá trong giáo dục toàn cầu có thể biến đổi hành tinh. Tôi cảm thấy hào hứng ở cấp độ cá nhân vì tôi nghĩ rằng thời đại công nghiệp đã tạo ra rất nhiều công việc rất mất nhân tính, và chúng ta chỉ đơn giản đã quen với chúng và chấp nhận chúng. Ý tưởng rằng công việc phải lặp đi lặp lại và, bạn biết đấy, bạn chỉ lặp đi lặp lại cùng một quy trình một lần nữa và một lần nữa, và trong một khoảng thời gian 10 năm, bạn có thể tốt nghiệp lên một năm và tất cả những thứ đó. Tôi không nghĩ rằng điều đó là rất con người. Ý tưởng rằng bạn có thể đồng thời viết một cuốn sách, khởi động một doanh nghiệp, điều hành một nhóm, tổ chức một lễ hội, tổ chức một sự kiện, rằng bạn thực sự có thể làm những điều kiểu như công việc mini vương quốc nơi bạn có một chút, bạn biết đấy, hệ sinh thái xung quanh mình với những điều thú vị mà bạn tham gia.
Điều đó thực sự có thể được thực hiện cho đại đa số mọi người nếu họ chấp nhận những công cụ như vậy. Bạn có thể sống một cuộc sống vô cùng trọn vẹn, tuyệt vời và có ảnh hưởng, hoặc tôi biết rằng tôi đã làm như vậy, nhờ vào việc có những công cụ này trong cuộc sống của mình. Tôi đang làm những điều mà tôi chỉ có thể mơ ước khi còn nhỏ.
Và bạn nói gì với các doanh nhân? Tôi biết bạn làm việc với hàng ngàn doanh nhân. Bạn đang nói gì với họ về các doanh nghiệp hiện tại hoặc các cơ hội kinh doanh mà bạn dự đoán? Tôi nghĩ rằng các nhóm nhỏ hiện có sức ảnh hưởng vô hạn, và khi bạn có một nhóm, chẳng hạn, từ năm đến mười người chia sẻ một niềm đam mê tuyệt vời cho một vấn đề có ý nghĩa trong thế giới, và họ muốn thấy vấn đề có ý nghĩa đó được giải quyết, và họ hợp tác cùng nhau với tinh thần khởi nghiệp để giải quyết vấn đề đó, thì nhóm nhỏ với từ năm đến mười người đó, trang bị công nghệ mà chúng ta hiện đang có, có thể tạo ra một tác động lớn. Bạn có thể kiếm được rất nhiều tiền, bạn có thể có nhiều niềm vui, bạn có thể giải quyết những vấn đề có ý nghĩa trong thế giới, bạn có thể mở rộng các giải pháp, bạn có thể làm nhiều hơn trong khoảng thời gian ba năm so với hầu hết mọi người đã làm trong một sự nghiệp 30 năm.
Và nhóm nhỏ từ năm đến mười người đó có thể cùng nhau giải quyết một vấn đề có ý nghĩa mới, hoặc họ có thể giải tán và làm việc với các nhóm khác về những vấn đề có ý nghĩa khác. Trong một thế giới mà bạn có đủ loại sức ảnh hưởng vô hạn như vậy, nhưng mọi người khác cũng có quyền truy cập vào cùng một sức ảnh hưởng vô hạn, thì điều gì trở thành điểm độc đáo của bạn? Quay trở lại với ý tưởng về hào nước, như vậy, điều gì là giá trị khi tất cả chúng ta đều có quyền truy cập vào 20 đô la sức ảnh hưởng vô hạn?
Chà, trước tiên, điều bạn cần làm, bạn cần phải hiểu, là khoảnh khắc này là khoảnh khắc ít cạnh tranh nhất. Nếu bạn hiểu cách sử dụng những công cụ này, bạn có thể bắt đầu kiếm tiền ngay từ ngày mai. Tôi thấy vô số ví dụ về những người kiếm được hàng ngàn đô la từ những công việc mà tôi đã đề cập, hoặc xây dựng các doanh nghiệp tạo ra hàng triệu đô la trong vài tháng đầu tiên tồn tại. Vì vậy, tôi sẽ nói, hãy bắt đầu hành động ngay bây giờ, hãy bắt đầu xây dựng những thứ. Đây là thời điểm chưa từng có về việc tạo ra sự giàu có.
Rõ ràng, vào một thời điểm nào đó, khi thị trường trở nên hiệu quả hơn, khi càng nhiều người hiểu cách sử dụng những công cụ này, khả năng tạo ra những doanh nghiệp lớn nhanh chóng sẽ giảm đi. Và chúng ta đã thấy điều này, như sự khởi đầu của internet hoặc sự khởi đầu của web, việc tạo ra Facebook dễ dàng hơn nhiều so với bây giờ. Rồi chúng ta có điện thoại di động. Và trong ba, bốn, năm năm, việc tạo ra những doanh nghiệp lớn rất dễ dàng. Và sau đó, nó trở nên khó khăn hơn. Việc đứng ở rìa của những gì có thể sẽ rất, rất quan trọng trong vài năm tới. Và điều đó khiến tôi thật sự phấn khích, vì những doanh nhân chú ý sẽ có nhiều niềm vui nhất, nhưng họ cũng sẽ có khả năng kiếm được nhiều tiền.
Có bao nhiêu ứng dụng đã được xây dựng trên Replit cho đến nay?
Bạn biết đấy, tôi có thể nói về hàng triệu thứ đã được xây dựng kể từ khi chúng tôi bắt đầu công ty. Nhưng chỉ riêng từ tháng 9, khi chúng tôi ra mắt Replit Agent, đã có khoảng ba triệu ứng dụng được xây dựng hoàn toàn bằng ngôn ngữ tự nhiên, không cần lập trình gì cả, hoàn toàn là ngôn ngữ tự nhiên. Và trong số đó, tôi nghĩ có khoảng 300.000 đến 400.000 ứng dụng đã được triển khai thực sự, tức là trang web đã được triển khai và đang được sử dụng, một số là doanh nghiệp, một số là công cụ nội bộ. Tôi đã xây dựng một cái vào tối qua.
Một công cụ nội bộ? Tôi đã xây dựng một ứng dụng để theo dõi việc con cái tôi kiếm tiền tiêu vặt. Tuyệt vời. Vì vậy, tôi chỉ cần nói với nó rằng tôi muốn theo dõi các nhiệm vụ diễn ra quanh nhà và gán giá trị cho chúng. Và tôi muốn có thể, vào cuối tuần, chỉ cần nhấn một nút và nhận được bản tóm tắt về số tiền phải trả cho từng đứa trẻ để tiêu vặt. Chúng ta thật sự gặp rắc rối. Và trong vòng 15 phút, nó đã tạo ra ứng dụng này. Và điều đó thật tuyệt vời. Bạn có thể chuyển đổi giữa, như đây là nơi bạn có các con, và đây là các báo cáo hàng tuần, và đây là số tiền mỗi nhiệm vụ, và bạn có thể đánh dấu các nhiệm vụ hoặc xóa các nhiệm vụ hoặc thêm nhiệm vụ.
Vì vậy, giờ tôi có ứng dụng này, mà chỉ mất 15 phút nói về những gì tôi muốn, và giờ tôi có một ứng dụng để quản lý tình hình tiêu vặt trong nhà. Và nhân tiện, đó là điều mà, khi điều hành một công ty công nghệ thông tin cách đây nhiều năm, chúng tôi sẽ tính phí 5.000 đến 10.000 bảng để tạo ra, 5.000 đến 10.000 đô la để tạo ra. Và mất bao nhiêu thời gian? Có lẽ là một dự án kéo dài ba, bốn tuần. Và giờ chúng ta đang ở đầu của đường cong S mà bạn đang mô tả, và nó đã, nếu nó là 20 đô la, thì Replit khoảng 20 đô la một tháng. 25 đô la. Đối với trường hợp cơ bản, bạn đã sử dụng một ngày. Giả sử nó là một đô la. Ừ. Nó tốn bạn, và nó tốn bạn vài phút và một đô la bây giờ, và chúng ta đang ở đầu đường cong S.
Và bạn nói chuyện với nó như thể bạn đang trò chuyện với một lập trình viên. Một trong những điều làm chậm quá trình phát triển là bạn phải gửi thông tin cho một lập trình viên, và họ cần hiểu nó, và sau đó họ cần tạo ra một cái gì đó, và rồi trở lại với bạn. Điều này chỉ xảy ra trước mắt bạn trong khi bạn đang quan sát, và nó thực sự cho bạn thấy những gì đang được xây dựng. Nó thật sự kỳ diệu. Thay đổi này đã biến đổi cách đội của tôi và tôi chuyển động, tập luyện và suy nghĩ về cơ thể của chúng tôi. Khi tiến sĩ Daniel Lieberman xuất hiện trên Diary of Recio, ông ấy đã giải thích cách mà những đôi giày hiện đại, với phần đệm và hỗ trợ của chúng, đang làm cho chân chúng ta yếu đi và kém khả năng thực hiện những gì mà thiên nhiên đã dự định. Chúng ta đã đánh mất sức mạnh và tính linh hoạt tự nhiên ở chân, và điều này đang dẫn đến các vấn đề như đau lưng và đau đầu gối.
Tôi đã mua một đôi giày Viva Barefoot, vì vậy tôi đã cho Daniel Lieberman xem, và ông ấy bảo tôi rằng chúng chính là loại giày sẽ giúp tôi phục hồi chuyển động tự nhiên của bàn chân và xây dựng lại sức mạnh của mình. Nhưng tôi nghĩ rằng tôi đã mắc bệnh viêm fascial gan chân, khi mà đột nhiên bàn chân tôi bắt đầu đau liên tục, và sau đó tôi quyết định bắt đầu củng cố bàn chân mình bằng cách sử dụng giày Viva Barefoot.
Nghiên cứu từ Đại học Liverpool đã chứng minh điều này. Họ đã chỉ ra rằng việc đi giày Vivo Barefoot trong sáu tháng có thể tăng cường sức mạnh của bàn chân lên tới 60%. Hãy truy cập vivobarefoot.com/doac và sử dụng mã DIARY20 từ nhà tài trợ của tôi để được giảm 20%. Một cơ thể khỏe mạnh bắt đầu từ những đôi chân khỏe mạnh. Điều này chưa từng xảy ra trước đây.
Một bản tin được điều hành bởi 100 CEO hàng đầu thế giới. Thỉnh thoảng, mọi người nói với tôi, họ nói, “Bạn có thể hướng dẫn tôi không? Bạn có thể khiến người này hướng dẫn tôi không? Làm thế nào tôi có thể tìm một người hướng dẫn?” Vậy nên đây là những gì chúng ta sẽ làm. Bạn sẽ gửi cho tôi một câu hỏi, và câu hỏi nào phổ biến nhất mà bạn gửi cho tôi, tôi sẽ nhắn tin cho 100 CEO, trong số đó có một số CEO hàng đầu thế giới điều hành những công ty trị giá 100 tỷ đô la, và sau đó tôi sẽ trả lời bạn qua email về cách họ đã trả lời câu hỏi đó.
Bạn có thể hỏi, “Làm thế nào để bạn duy trì mối quan hệ khi bạn đang xây dựng một startup?” “Điều quan trọng nhất là gì nếu tôi có một ý tưởng và không biết bắt đầu từ đâu?” Chúng tôi sẽ gửi email cho các CEO, họ sẽ phản hồi, chúng tôi sẽ lấy năm, sáu câu trả lời tốt nhất và gửi email cho bạn. Tôi đã lo lắng bởi vì tôi nghĩ rằng marketing có thể không khớp với thực tế, nhưng sau đó tôi thấy những gì các nhà sáng lập đang phản hồi và sự sẵn lòng của họ để trả lời, và tôi nghĩ rằng “Thực sự, điều này rất tốt.” Và tất cả những gì bạn cần làm là đăng ký. Hoàn toàn miễn phí.
Tôi không nghĩ chúng ta đã dành nhiều thời gian để nói về vũ khí tự động. Đây là điều thực sự khiến tôi lo lắng. Và điều khiến mọi người lo lắng về trí tuệ nhân tạo là ý tưởng này là một hệ thống đang nổi lên, và không có một điều gì đứng đằng sau nó. Nó có thể hành động theo cách không thể đoán trước và không thực sự do con người hướng dẫn. Tôi cũng nghĩ rằng điều này cũng đúng với các tập đoàn, các chính phủ. Và vì vậy tôi nghĩ rằng cá nhân có thể có ý định tốt nhất, nhưng tập thể có thể dẫn đến những hành động gây hại hoặc trái với đạo đức. Và tôi nghĩ chúng ta đã nói về Trung Quốc so với Hoa Kỳ, và điều đó tạo ra một động lực nhất định về cuộc đua khi cả hai đều được khuyến khích để cắt giảm chi phí và có thể thực hiện những hành động có hại. Và trong thế giới địa chính trị và chiến tranh, điều tôi thực sự sợ là vũ khí tự động. Và tại sao điều đó khiến bạn sợ?
Bạn biết đấy, bạn có thể tưởng tượng những chiếc drone tự động được huấn luyện trên khuôn mặt của ai đó. Và bạn có thể gửi một đội drone, và chúng có thể trở thành những cỗ máy giết người tự động, máy ám sát. Và nó có thể hoạt động như một công nghệ giữa các quốc gia trong thế giới chiến tranh, điều đó vẫn thật điên rồ. Nhưng nó cũng có thể trở thành một công cụ cho chính phủ để áp bức công dân. Và mọi người nghĩ rằng chúng ta an toàn ở phương Tây. Nhưng tôi nghĩ rằng trải nghiệm với COVID đã cho thấy rằng ngay cả hệ thống ở phương Tây cũng có thể nhanh chóng trở nên tàn bạo.
Thực ra, tôi đã nghe ở Iran rằng họ có những camera nhận diện khuôn mặt phát hiện xem liệu phụ nữ có đang đội hijab trong xe của họ hay không, và nó tự động bắt giữ xe nếu bạn đang lái và không đeo hijab. Nếu bạn đang đi bộ trên đường, nó sẽ ngay lập tức phát hiện và bạn sẽ gặp rắc rối. Nó hoạt động như một sĩ quan cảnh sát và một thẩm phán. Bạn biết đấy, một lập pháp, một lập pháp, nó thực sự là thẩm phán, bồi thẩm đoàn và kẻ hành quyết. Và mọi thứ xảy ra ngay lập tức.
Điều này cũng đã xảy ra ở Canada với các cuộc biểu tình của tài xế xe tải, nơi họ đã đóng băng tài khoản ngân hàng của họ chỉ vì họ có mặt ở đó. Chỉ bởi vì ở đó. Vâng. Và để xác nhận điều đó, Iran đã thực hiện một hệ thống giám sát toàn diện để thực thi các luật hijab bắt buộc của mình bằng cách sử dụng nhiều công nghệ khác nhau, trong đó có camera và công nghệ nhận diện khuôn mặt.
Vì vậy, họ đã lắp camera ở những nơi công cộng để xác định các phụ nữ không tuân thủ quy định về trang phục hijab. Vâng. Và chỉ cần nói về điều đó, London vừa mới lắp đặt các hệ thống nhận diện khuôn mặt này ở London, và cũng ở khắp Wales. Và chúng đang được triển khai nhanh chóng. Và tất cả những gì bạn cần là một sự thay đổi chính phủ muốn thực hiện điều gì đó tương tự và tất cả công nghệ cơ bản đã có sẵn. Tình hình trở nên tồi tệ hơn ở Iran vì họ có một ứng dụng mới gọi là ứng dụng Nizar, nơi chính phủ đã giới thiệu ứng dụng di động Nizar, cho phép bạn là công dân báo cáo một công dân khác không đội hijab. Nó ghi lại vị trí của họ, thời gian khi họ không đội hijab, và biển số xe. Với dữ liệu thu thập từ đám đông, nó có thể truy tìm cá nhân đó.
Tôi cũng muốn chỉ ra rằng tôi nghĩ chúng ta không đủ sáng tạo. Tôi đồng ý với bạn. Tôi có cùng sự quan tâm về những vũ khí tự động này, nhưng tôi cũng nghĩ rằng điều này không nhất thiết phải xảy ra trong bối cảnh chiến tranh hoặc thậm chí đàn áp chính phủ, mà hoàn toàn có thể xảy ra rằng điều này cho phép, điều này giảm giá của một tội phạm không thể phát hiện hay không thể bị truy tố. Và có thể các “lũy kinh tế” sẽ trở lại dưới dạng những người loại bỏ đối thủ của họ hoặc bất kỳ ai cố gắng cạnh tranh với họ bằng cách sử dụng một drone tự động mà không thể bị truy ngược lại họ, bạn biết đấy, theo dõi nhận diện khuôn mặt. Và, bạn biết đấy, bạn không cần phải giết nhiều người cho người khác hiểu rằng đây là một khu vực mà bạn không nên động vào.
Vì vậy, tôi có thể tưởng tượng, bạn biết đấy, một loại tội phạm có tổ chức cao cấp mới mà bảo vệ các đường dây và kiếm được hàng tấn tiền và áp bức những người không làm gì sai. Tôi đã có Mustafa Solomon trên podcast vào năm 2023 khi mọi chuyện bắt đầu diễn ra. Và anh ấy là CEO của Microsoft AI. Bạn có quen biết Mustafa không? Tất nhiên rồi.
Vâng. Và một trong những điều anh ấy đã nói với tôi vào thời điểm đó là: “Một trong những nỗi sợ của tôi là một nhóm người nhỏ bé muốn gây hại sẽ có quyền truy cập vào các công cụ có thể ngay lập tức làm mất ổn định thế giới của chúng ta. Đó là thách thức. Làm thế nào để ngăn chặn điều gì đó có thể gây hại hoặc có khả năng giết chết. Đó là nơi chúng ta cần đến sự kiềm chế.” Và nó có vẻ hơi giống những gì bạn đang nói, Amjad, rằng chúng ta giờ đây sẽ có những công cụ này. Bạn đã đề cập trong bối cảnh quân đội, nhưng như Brett đã nói ở đó, ngay cả những nhóm người nhỏ hơn có thể là, tôi không biết, các băng nhóm hoặc băng đảng cũng có thể gây ra tổn hại tương tự. Và hiện tại, về vũ khí tự động, cả Mỹ và Trung Quốc đều đang đầu tư mạnh vào vũ khí sử dụng AI, máy bay không người lái tự động và chiến tranh mạng, vì họ sợ rằng bên kia sẽ có được nó trước. Và chúng ta đã nói về việc bao nhiêu phần cuộc sống của chúng ta vận hành trên Internet, nhưng vũ khí mạng và các tác nhân AI mạng có thể được triển khai để hạ gục X, Y hoặc Z của Trung Quốc, hoặc ngược lại, là một mối lo ngại thực sự.
Vâng. Tôi nghĩ tất cả những điều đó đều là một mối lo ngại thực sự. Khác với Mustafa, tôi không nghĩ rằng sự kiềm chế là có thể. Một phần lý do của hệ thống lý thuyết trò chơi cạnh tranh giữa Mỹ, Trung Quốc, các tập đoàn, cá nhân khiến cho công nghệ này đã có sẵn, rất khó để đưa nó quay trở lại túi. Tôi đã hỏi anh ấy câu hỏi này, và tôi nhớ câu trả lời của anh ấy vì đó là một khoảnh khắc rất sắc nét đối với tôi. Tôi đã nói với Mustafa, “Bạn có nghĩ rằng có thể kiềm chế nó không?” Và anh ấy trả lời, “Chúng ta phải.” Vì vậy, tôi đã hỏi lại, tôi nói, “Bạn có nghĩ rằng có thể kiềm chế nó không?” Và anh ấy trả lời, “Chúng ta phải.” Và tôi hỏi lại, tôi đã nói, “Bạn có nghĩ rằng có thể không?” Và anh ấy nói, “Chúng ta phải.”
Vậy vấn đề với chuỗi tư duy đó là nó có thể dẫn đến một hệ thống áp bức. Có một trong số những người nói về sự diệt vong hoặc triết gia về AI mà tôi kính trọng công việc của ông. Tên ông là Nick Bostrom. Và ông ấy đã cố gắng nghĩ ra những cách mà chúng ta có thể kiềm chế AI. Và điều mà ông ấy đưa ra có thể còn áp bức hơn những gì mà AI sẽ đưa ra. Đó là như một nhà nước giám sát toàn diện. Bạn cần có sự giám sát toàn diện trên máy tính, trên ý tưởng của mọi người để không phát minh ra AI hay AGI. Giống như việc lấy đi súng hay cái gì đó.
Đúng vậy, chính xác. Ý tôi là, luôn có vấn đề này về việc kiềm chế bất kỳ loại công nghệ nào, rằng bạn cần đến sự áp bức và chính sách hà khắc để làm điều đó.
Bạn có sợ điều gì khác hoặc lo ngại về điều gì khác liên quan đến AI, ngoài vũ khí tự động không?
Bạn biết đấy, chúng ta đã nói về cuộc khủng hoảng đe dọa sinh sản. Và tôi nghĩ một vấn đề tổng quát hơn ở đó là việc tạo ra các môi trường ảo thông qua VR nơi mọi người sống trong vũ trụ do chính họ tạo ra. Và nó thật hấp dẫn. Thậm chí tạo ra simulates công việc và giả lập cuộc đấu tranh đến mức bạn thực sự không cần phải rời khỏi thế giới này. Và vì vậy, mỗi chúng ta sẽ trở nên ích kỷ, bạn biết đấy, tương tự như trong phim ma trận.
Ready Player One.
Ready Player One. Ready Player One. Chúng ta đều như kiểu, thậm chí còn tồi tệ hơn cả Ready Player One, vì ít nhất đó là một môi trường liên kết mạng lớn. Tôi đang nói về AI giả lập mọi thứ cho chúng ta. Và do đó, bạn thực sự đang ở trong ma trận, bạn biết đấy, có thể đây là cùng một ý tưởng.
Tôi đã tận hưởng sự giả lập tuyệt vời này.
Vâng. Vậy, bạn có quen thuộc với nghịch lý Fermi không?
Không, tôi không quen.
Vậy nghịch lý Fermi là câu hỏi của một giáo sư, tên ông là Fermi. Ông ấy đã đặt câu hỏi rằng, nếu vũ trụ rộng lớn đến vậy, vậy người ngoài hành tinh ở đâu? Sự tồn tại của con người, bạn có thể suy luận rằng các nền văn minh khác tồn tại. Và nếu chúng tồn tại, vậy tại sao chúng ta không thấy chúng? Và sau đó điều đó đã thúc đẩy một loạt các giải pháp Fermi. Tôi không biết, bạn có thể tìm thấy hàng trăm giải pháp trên Internet. Một trong số chúng là các thí nghiệm tư tưởng về mèo nhà, nơi người ngoài hành tinh thực sự tồn tại, nhưng họ kind of đặt chúng ta vào một môi trường giống như người Amish ở một thời điểm nhất định và không phơi bày chúng ta ra bên ngoài. Vậy chúng ta là thú cưng. Có thể họ đang quan sát chúng ta và tận hưởng những gì chúng ta đang làm. Ngăn chặn chúng ta gây hại cho bản thân.
Ngăn chặn chúng ta gây hại cho bản thân. Có rất nhiều điều, nhưng một trong những điều mà tôi nghĩ là có thể là một giải pháp cho nghịch lý Fermi và một trong những kết quả buồn nhất là các nền văn minh tiến bộ cho đến khi họ phát minh ra công nghệ sẽ khóa chúng ta vào niềm vui vô hạn và giả lập vô hạn, đến mức chúng ta không có động lực để đi vào không gian để tìm kiếm sự khám phá các nền văn minh ngoài hành tinh khác. Và có thể điều đó là một kết quả xác định của nhân loại hoặc như một kết quả rất có khả năng của bất kỳ loài nào giống như nhân loại. Chúng ta thích thú vui. Niềm vui và nỗi đau là động lực chính. Và vì vậy nếu bạn tạo ra một cỗ máy niềm vui vô hạn, điều đó có nghĩa là chúng ta chỉ ở nhà trong môi trường VR của chúng ta với mọi thứ được chăm sóc cho chúng ta và thật sự giống như trong ma trận?
Và thế giới, thế giới thực sẽ thật khủng khiếp trong kịch bản đó.
Vâng, nó sẽ thật tồi tệ. Ý tôi là, giải thích đơn giản khác của nghịch lý Fermi là bạn phát triển công nghệ đủ để có thể kết thúc loài của mình. Và chỉ có một thời gian nữa từ điểm đó, mà bạn biết đấy, chúng ta có thể bàn luận về vũ khí hạt nhân. Chúng ta có thể bàn về AI, nhưng liệu một số công nghệ nào đó, nếu chúng ta tiếp tục trên cái thang này, thì liệu một số công nghệ mà chúng ta tạo ra cuối cùng…
Bất kỳ điều gì cho phép bạn rời khỏi hành tinh sẽ cho phép bạn thổi tung hành tinh.
Đúng vậy.
Tôi muốn mọi người chia sẻ suy nghĩ và nhận xét cuối cùng của mình.
Và hy vọng trong những nhận xét cuối cùng của bạn, bạn có thể nêu ra điều gì đó hữu ích cho những cá nhân đang lắng nghe điều này ngay bây giờ trong chuyến đi làm của họ, hoặc cho người mẹ đơn thân, hoặc cho người bình thường, người có thể không có nền tảng công nghệ tiên tiến như nhiều người trong số chúng ta ở đây, nhưng đang cố gắng điều hướng qua điều này để tìm cách sống một cuộc sống tốt đẹp trong 10, 20, 30 năm tới.
Vâng.
Và hãy dành thời gian bạn cần.
Tôi nghĩ chúng ta đang sống trong thời điểm thú vị nhất trong lịch sử nhân loại.
Dành cho những người mẹ đơn thân đang lắng nghe, cho những ai không nằm trong hình mẫu điển hình của một người làm công nghệ, đừng nghĩ rằng bạn không thể làm những điều này. Hôm nay, mọi thứ đã trở nên dễ tiếp cận hơn bao giờ hết trong công việc của bạn. Bạn có thể trở thành một doanh nhân. Bạn không cần phải mạo hiểm lớn để bắt đầu một doanh nghiệp, nghỉ việc và khởi nghiệp. Có vô số ví dụ. Chúng tôi có một người dùng là giám đốc sản phẩm tại một doanh nghiệp bất động sản lớn. Anh ấy đã xây dựng một sản phẩm giúp gia tăng tỷ lệ chuyển đổi lên 10%, tạo ra hàng triệu đô la cho doanh nghiệp đó. Và người đó đã trở thành một nhân vật nổi tiếng tại công ty và trở thành người nâng đỡ những người khác, dạy họ cách sử dụng những công cụ này. Rõ ràng điều đó rất tốt cho sự nghiệp của bất kỳ ai. Bạn sẽ được thăng chức và ví dụ về việc xây dựng một phần mềm cho gia đình của bạn, cho con cái bạn, để cải thiện và học hỏi nhiều hơn, trở thành những đứa trẻ tốt hơn như một ví dụ về việc trở thành doanh nhân trong gia đình bạn. Vì vậy, tôi thật sự muốn mọi người phá vỡ khái niệm về việc doanh nhân chỉ là… tôi nghĩa là, đây là podcast của bạn, Nhật ký của một Giám đốc điều hành. Bạn đã bắt đầu podcast này bằng cách nói chuyện với các giám đốc điều hành, đúng không? Và theo thời gian, nó đã thay đổi thành mọi người đều có thể trở thành giám đốc điều hành. Ai cũng là một kiểu giám đốc điều hành trong cuộc sống của họ. Tôi nghĩ rằng chúng ta đang có cơ hội chưa từng có về công cụ để biến tầm nhìn đó thành hiện thực.
Thực sự, đây rõ ràng là một thời điểm chuyển tiếp mang tính chất nhân văn, điều mà tôi tin rằng sẽ tương đương với phát hiện về nông nghiệp, viết chữ hoặc điện năng. Và bóng tối mà tôi nghĩ là hợp lý khi nhìn vào tất cả các kết quả có thể xảy ra trong kịch bản này thực ra cũng có thể là phần của một câu chuyện khác. Trong sinh học tiến hóa, chúng tôi nói về một cảnh quan thích nghi, trong đó một ngách được đại diện bởi một đỉnh núi và một ngách cao hơn. Một ngách tốt hơn được đại diện bởi một đỉnh cao hơn. Nhưng để đến từ ngách thấp hơn đến ngách cao hơn, bạn phải vượt qua cái mà chúng tôi gọi là thung lũng thích nghi. Không có đảm bảo bạn sẽ vượt qua thung lũng này. Thực tế, bản vẽ mà chúng tôi đưa lên bảng, tôi nghĩ là quá lạc quan vì nó đặt trên hai chiều. Nó trông giống như bạn biết chính xác phải đi đâu để leo lên đỉnh tiếp theo. Thực tế, nó giống như các đỉnh là những hòn đảo trong một quần đảo đang trong sương mù, nơi bạn không thể xác định hướng của đỉnh đó. Bạn phải suy luận rằng có thể nó ở hướng đó và hy vọng không bỏ lỡ nó chỉ một vài độ. Nhưng trong mọi trường hợp, bóng tối đó chính là điều bạn sẽ mong đợi nếu chúng ta sắp khám phá ra một giai đoạn tốt hơn cho con người. Tôi nghĩ chúng ta nên rất cẩn thận về điều này lần này. Tôi nghĩ chúng ta nên suy nghĩ kỹ về cách mà chúng ta không cho phép sự kết hợp của công nghệ cực mạnh mới này và các lực thị trường biến điều này thành một hình thức nô lệ mới. Và tôi không nghĩ điều đó phải như vậy. Tôi nghĩ tiềm năng ở đây cho phép chúng ta tái cấu trúc gần như mọi thứ. Có thể cuối cùng chúng ta đã đến nơi mà công việc tầm thường không còn cần tồn tại nữa, và việc tìm kiếm ý nghĩa có thể thay thế nó. Nhưng điều đó sẽ không xảy ra tự động nếu chúng ta không tìm ra cách để thực hiện điều đó. Và tôi hy vọng rằng chúng ta có thể nhận ra rằng mối nguy của thời điểm này được sử dụng tốt nhất nếu nó thúc đẩy chúng ta đối mặt với câu hỏi đó một cách trực tiếp. Mỗi một người trong chúng ta có hai cha mẹ, bốn ông bà, tám cụ bà, 16, 32, 64. Bạn có một dòng dõi tổ tiên dài như vậy, tất cả đã phải gặp nhau, họ phải sống sót qua các cuộc chiến, họ phải sống sót qua bệnh tật và dịch bệnh. Mọi thứ phải xảy ra cho chúng ta. Mỗi cá nhân, tất cả những điều này phải xảy ra để chúng ta có mặt ở đây. Và nếu chúng ta nghĩ về tất cả những người trong hàng ngàn và hàng ngàn người đó, từng người một trong số họ sẽ sẵn sàng đổi chỗ trong chớp mắt nếu họ có cơ hội được sống ở thời điểm này. Họ sẽ nói rằng cuộc sống của họ thực sự là rất nhiều công việc tầm thường và vô nghĩa, nó rất nguy hiểm. Bạn biết đấy, chắc chắn mỗi người trong chúng ta đều có tổ tiên từng bị nô lệ, có tổ tiên đã chết quá sớm, có tổ tiên đã làm việc trong điều kiện khủng khiếp. Chúng ta ai cũng có điều đó. Họ sẽ nhìn vào thời điểm này và nói, wow, vậy bạn đang nói với tôi rằng bạn có khả năng giải quyết các vấn đề có ý nghĩa, để tạo ra những cuộc phiêu lưu, để đi du lịch khắp thế giới, để trò chuyện với bất kỳ ai trên hành tinh mà bạn muốn trò chuyện? Bạn có thể chỉ cần nghe một podcast, bạn có thể chỉ cần xem một video, bạn có thể trò chuyện với một AI. Bạn đang nói rằng bạn đang sống ở thời điểm này? Hãy tận dụng nó một cách tối đa. Hãy làm điều gì đó với điều đó. Bạn biết đấy, bạn có thể ngồi đó lý luận về xã hội và cách mà xã hội có thể hoạt động, nhưng cuối cùng tất cả đều quy về những gì bạn làm với khoảnh khắc này. Giải quyết các vấn đề có ý nghĩa, dũng cảm, vui vẻ, tạo dấu ấn nhỏ của bạn trong vũ trụ, đấy chính là điều quan trọng. Và tôi cảm thấy có một trách nhiệm với tổ tiên của bạn để tận dụng tối đa thời điểm này.
Cảm ơn tất cả mọi người đã đến đây. Tôi đã học được rất nhiều và đã phát triển cách nghĩ của mình, điều đó là lý do lớn mà tôi muốn tất cả điều này được tập hợp lại, vì tôi biết các bạn đều có những kinh nghiệm khác nhau, nền tảng giáo dục khác nhau, các bạn đang làm những điều khác nhau, nhưng cùng nhau nó giúp tôi sort out tất cả những ý tưởng này để tìm ra nơi tôi nằm. Và tôi đặt ra nhiều câu hỏi, nhưng thực sự tôi tin tưởng vào con người. Tôi, tôi đã suy nghĩ về điều này ngay giây phút trước, tôi đã suy nghĩ, liệu tôi có lạc quan về khả năng của con người trong việc điều hướng điều này chỉ vì tôi không có lựa chọn nào khác không? Vì như bạn đã nói, sự thay thế thực sự không đáng để suy nghĩ. Và vì vậy tôi có một sự lạc quan đối với cách mà tôi nghĩ chúng ta sẽ điều hướng điều này, một phần vì chúng ta đang có những cuộc trò chuyện như thế này.
Và chúng ta, trong lịch sử, không phải lúc nào cũng có chúng vào lúc bắt đầu một cuộc cách mạng mới. Khi chúng ta nghĩ về mạng xã hội và những tác động mà nó mang lại, chúng ta đang bắt kịp với những hệ quả hạ nguồn. Và tôi đầy hy vọng. Có thể đó là bởi tâm hồn doanh nhân trong tôi. Tôi cảm thấy phấn khích. Có lẽ đó cũng chính là tâm hồn doanh nhân trong tôi. Nhưng cùng lúc đó, với nhiều điểm mà Brett, Amjad và Dan đã đưa ra, có những vấn đề nghiêm túc mà chúng ta phải suy ngẫm khi bơi từ hòn đảo này sang hòn đảo khác. Bởi vì tốc độ và quy mô của sự chuyển đổi này mà Brett đã nhấn mạnh, và khi bạn nhìn vào thống kê về sự phát triển của công nghệ này và cách nó lan rộng như cháy rừng, và khi tôi thử Replit, tôi đã đi thẳng ra ngoài và ngay lập tức nói với Cozzy rằng, Cozzy, hãy thử cái này. Và cô ấy đã sử dụng ngay và say mê. Rồi tôi gọi cho bạn gái của tôi ở Bali, người thực hành thở. Tôi nói, hãy gõ cái này vào trình duyệt của bạn, R-E-P-L-I-T. Và sau đó cô ấy đang tạo ra các lịch trình thở với tất cả thông tin của khách hàng trước khi chuyến retreat mà cô ấy chuẩn bị thực hiện diễn ra. Nó lan rộng như cháy rừng bởi vì chúng ta là người bản địa internet. Chúng ta đã sinh ra với công nghệ này. Vì vậy, đây không phải là một công nghệ mới. Đó là một điều gì đó nằm trên nền tảng mà chúng ta đã quen thuộc. Vì vậy, sự chuyển giao, như Brett mô tả, từ đỉnh này sang đỉnh khác, hay từ hòn đảo này sang hòn đảo khác, tôi nghĩ sẽ vô cùng bất ổn.
Và sau khi phỏng vấn rất nhiều nhà lãnh đạo trong lĩnh vực này, từ Reid Hoffman, người sáng lập LinkedIn, đến Giám đốc điều hành của Google, đến Mustafa, người mà tôi đã đề cập, họ không đồng ý với nhiều điều. Nhưng điều mà họ đều đồng ý, và Sam Altman cũng đồng ý, là tương lai lâu dài, cách mà xã hội của chúng ta hoạt động sẽ hoàn toàn khác biệt. Mọi người tranh cãi về ngắn hạn. Thỉnh thoảng họ thậm chí còn tranh cãi về trung hạn hoặc thời gian biểu, nhưng họ đều đồng ý rằng tương lai sẽ trông hoàn toàn khác biệt. Amjad, cảm ơn bạn đã làm những gì bạn đang làm. Chúng tôi không có nhiều thời gian cho điều đó hôm nay, và đó thường là điều tôi làm ở đây. Nhưng câu chuyện của bạn thật sự rất truyền cảm hứng. Rất truyền cảm hứng từ nơi bạn đến, những gì bạn đã làm, những gì bạn đang xây dựng.
Và bạn đang dân chủ hóa và tạo ra sân chơi cho các doanh nhân ở Bangladesh, đến Cape Town, đến San Francisco, có thể biến ý tưởng của họ thành hiện thực. Và tôi thực sự nghĩ, chỉ với điều này, đây là một điều tuyệt vời, rằng tôi sinh ra ở Botswana ở châu Phi, và tôi có thể có cùng quyền truy cập để biến trí tưởng tượng của mình thành cái gì đó thay đổi cuộc đời tôi, nhờ vào công việc mà bạn đang làm tại Replit. Và tôi rất khuyến khích mọi người hãy đi xem nó. Bạn có thể sẽ không ngủ được đêm đó, bởi vì với một người như tôi, thật sự rất nghiện khi có thể làm điều đó, vì đó là rào cản trong việc sáng tạo suốt cuộc đời tôi. Tôi luôn phải gọi cho ai đó để xây dựng cái gì đó. Dan, cảm ơn bạn thêm một lần nữa, bởi vì bạn đại diện cho tiếng nói của các doanh nhân, và bạn thực sự đã trở thành một nhân vật quan trọng như một nhà tư tưởng cho các doanh nhân ở Vương quốc Anh. Và trong bối cảnh, sự cân bằng đó là vô cùng quan trọng. Vì vậy, tôi thực sự, thực sự đánh giá cao việc bạn có mặt ở đây, như thường lệ. Và bạn là một trong những người được yêu thích nhất trong chương trình của chúng tôi. Và Brett, cảm ơn bạn triệu lần vì đã trở thành một cái nhìn con người về những thách thức phức tạp. Và bạn thực hiện điều đó với một sự dũng cảm mà tôi nghĩ là rất cần thiết để chúng ta tìm ra sự thật trong những tình huống như vậy, nơi mà một số người trong chúng ta có thể chạy đi với lạc quan. Và chúng ta có thể đang chạy tới cái bẫy vì thích phô mai. Và tôi nghĩ bạn là một sự cân bằng quan trọng và có tiếng nói trong thế giới vào lúc này.
Vì vậy, cảm ơn tất cả các bạn đã có mặt ở đây. Tôi thật sự, thật sự đánh giá cao điều đó. Và chúng ta sẽ còn gặp nhau. Tôi thấy điều thật sự thú vị là khi chúng ta nhìn vào mặt sau của Spotify và Apple và các kênh audio của chúng ta, thì phần lớn mọi người xem podcast này vẫn chưa nhấn nút theo dõi hoặc nút đăng ký, bất kể bạn đang nghe ở đâu. Tôi muốn làm một thỏa thuận với bạn. Nếu bạn có thể làm cho tôi một đặc ân lớn lao và nhấn nút đăng ký, tôi sẽ làm việc không ngừng nghỉ từ bây giờ cho đến mãi mãi để làm cho chương trình trở nên ngày càng tốt hơn. Tôi không thể nói với bạn rằng điều đó giúp được bao nhiêu khi bạn nhấn nút đăng ký. Chương trình sẽ phát triển hơn, điều đó có nghĩa là chúng tôi có thể mở rộng sản xuất, mời tất cả các khách mời mà bạn muốn thấy và tiếp tục làm điều mà chúng tôi yêu thích. Nếu bạn có thể làm cho tôi một ân huệ nhỏ như vậy và nhấn nút theo dõi, bất kể bạn đang nghe ở đâu, điều đó sẽ có ý nghĩa rất lớn đối với tôi. Đó là ân huệ duy nhất mà tôi sẽ từng yêu cầu bạn. Cảm ơn bạn rất nhiều vì thời gian của bạn. Cảm ơn!
我認為很多人未意識到人工智能將對他們的生活產生多麼巨大的正面影響。
我會主張,認為這次人工智能的顛覆不會導致人類災難的想法是樂觀的。
例如,人們將會大規模失業。
你同意這一點,對嗎?
是的。如果你的工作是例行公事,那麼在接下來的幾年裡,它將消失。
但這將創造出新的財富創造機會。
讓我這樣告訴你。我們創造了一種新物種,而地球上的任何人都無法預測將會發生什麼。
我們邀請了三位領軍人物來辯論史上最具顛覆性的變化——人工智能的崛起。
他們正在回答你們最關心的問題。
這項技術將變得更加強大。
是的,我們將經歷一段顛覆的時期,但在另一端,我們將創造一個公平的世界。
它使人們能夠經營自己的業務,賺取大量金錢。
而且你可以解決有意義的問題,例如全球健康照護和教育的突破。
這將是非凡的,你可以過上令人難以置信的充實生活。
好吧,我想在這方面說,這一直是技術專家的幻想。
在空閒時間做令人驚奇的事情,但我們卻最終沉迷於滾動手機屏幕。
孤獨的流行病。
對,生育率下降。
所以這裡的潛在好處是無限的,而壞處的潛力是十倍。
例如,戰爭、不可檢測的假冒產品和詐騙。
所以人們不明白他們將會被盜的多種方式。
看,我不認為把所有問題都歸咎於科技是正確的。
所有這些問題,它們已經存在。
它們都已經來臨。
那麼你在對你的孩子說什麼呢?
首先……
我覺得非常有趣的是,當我們查看 Spotify 和 Apple 的後台以及我們的音頻頻道時,大多數觀看這個播客的人還沒有按下關注或訂閱按鈕,不管你在哪裡收聽。
我想和你達成一個交易。
如果你能幫我一個大忙,按下那個訂閱按鈕,我將不斷努力,讓這個節目變得越來越好,直到永遠。
我無法告訴你按下訂閱按鈕有多大的幫助。
這個節目變得更大,這意味著我們可以擴大製作,引入你想見的所有嘉賓,並繼續做這件我們喜愛的事情。
如果你能幫我這個小忙,按下關注按鈕,無論你在哪裡收聽,這對我來說將是非常重要的。
這是我唯一會請你幫忙的事情。
非常感謝你的時間。
我之所以想和大家進行這次對話,是因為人工智能這個主題,特別是人工智能代理,佔據了我幾週的空閒時間。
實際上,Amjad,當我開始使用 Replit 時,對我來說,這是一個範式轉變。
在大約一週的時間內,發生了兩次範式轉變。
ChatGPT 發布了那個圖像生成模型,你可以創建任何圖像。
它的細節非常詳盡,配合文本和所有那些東西。
那是一個巨大的範式轉變。
然後在同一周,我終於妥協,試著弄清楚我在網上聽到的「人工智能代理」這個術語。
我聽到了 Vibe 編碼。
我聽到了人工智能代理。
我想我試試看。
當我使用 Replit 時,20 分鐘後,我的思維被震撼了。
我想那晚我一直熬夜到凌晨 3 或 4 點。
對於那些不知情的人來說,Replit 是一款讓你幾乎可以創建任何軟體的軟體。
對我這樣完全沒有編程技能的人來說,我能夠建立一個網站,集成 Stripe,接受付款,將人工智能加入到我的網站,並在幾分鐘內添加 Google 登錄到我網站的前端。
然後,我得到了一個我用零編程技能所建立的軟體,發送給我的朋友們,其中一位朋友輸入了他的信用卡並進行了支付。
所以我剛剛用零編程技能啟動了一家 SaaS 公司。
我用一種非常簡單的方式來演示人工智能代理,使用了一個名為 Operator 的在線人工智能代理,從附近的 CVS 訂購水。
這個人工智能代理完成了從頭到尾的一切,人們將在屏幕上看到它。
它輸入了我的信用卡信息,為我選擇了水,給了送貨人小費,還附加了一些送貨備註。
在某一時刻,會有一位男士走進來。
他沒有與人類互動。
他與我的人工智能代理互動。
我用這個例子是因為,當我約一個月前聽說代理時,這對我來說是一次範式轉變的時刻,我在互聯網上訂了一瓶電解質。
當我聽到門鈴響時,我驚呆了。
我嚇壞了。
但是 Amjad,你是誰?
你在做什麼?
所以我年輕時就開始編程。
你知道,我十幾歲時創建了我的第一個業務。
我曾經去網吧並在那裡編程。
我意識到他們沒有管理業務的軟體。
我想,哦,為什麼不創建帳戶?
為什麼我沒有伺服器?
我花了兩年時間來建立那套軟體。
這在我腦海中植入了一個想法:嘿,這個世界上有很多人都有非常棒的想法,特別是在他們所處的環境中,這使他們能夠創建業務。
然而,想法與軟體之間的主要摩擦來源,或將其稱為想法與財富創造之間的摩擦,是基礎設施,即在你面前的計算機。
這是一個網絡連接。
這是一套你需要構建那個的工具和技能。
如果我們能讓任何擁有想法和想要解決問題的人都能做到這一點。
我指的是,想像一下我們可能生活在一個怎樣的世界,在那裡任何有才能的、能夠清晰思考的、能夠產生許多想法的人成都可以創造財富。我是說,這是一個令人驚嘆的世界,對吧?世界任何地方都是如此。
所以,我在2016年創立的Replit公司,其理念就是,編程很困難。我們怎麼解決編程的問題呢?我們建立了這個過程的每一個部分,包括主機托管、代碼編輯器。唯一缺少的就是,您知道的,AI代理。因此,在過去的兩年裡,我們一直在開發這個AI代理,您可以直接,類似於ChatGPT,您知道,這場與生成式AI的革命,您可以輕鬆地把您的想法轉化為現實。我是說,這聽起來有點宗教色彩。這就像是,人類創造的神祇、神話。他們曾經想像一個在任何時候可以同時存在於任何地方的世界。那就是互聯網,您也可以把您的想法轉化為現實。而且,您知道,這還是早期階段。我認為Replit代理是一個極好的工具,這項技術將變得更強大。
具體來說,什麼是AI代理?其實我這裡有一個圖表,我不需要傳遞給你們任何人就能看到AI代理的增長。但這幅圖表是谷歌搜索趨勢數據。這也像我們的收入數據。哦,好吧,水到了。你好。謝謝。可以進來了嗎?我可以試一下嗎?好的,這是3951。太好了。非常感謝。謝謝。謝謝。
這就像是一種超自然的力量。你召喚了水。我從我的思維中召喚出了水。是的。而且它明顯地認為我們需要很多水。是的。
但在此之前,讓我為那些從未聽過這個術語的人定義一下AI代理。是的。我假設現在大多數聽眾已經熟悉ChatGPT了,對吧?您可以進入並與AI對話。它可以為您搜索網頁。它有有限的工具。也許它可以調用計算器為您做一些額外的計算。但就這樣了。它是一種請求-回應的模式。
代理是當您給它一個請求時,它們可以無限期地工作直到達成某個目標,或者遇到了錯誤,需要您的幫助。這是一個擁有工具訪問權限的AI機器人。這些工具可以是網頁瀏覽器,如Operator,可以是編程環境,比如像Replit,還可以是支付信用卡。您給代理提供的工具越多,它的功能就越強大。當然,還有很多有關安全性和保障的考慮。但最重要的是,AI代理將決定何時完成執行。
現在,AI代理可以運行從30秒到30分鐘的時間。最近有一篇論文顯示,每七個月,代理能運行的時間會翻倍。所以現在我們大約是30分鐘。在七個月後,我們將達到一小時,然後是兩小時。不久之後,我們將達到幾天的時間。到那時,AI代理正在執行勞動,進行類似人類的工作。實際上,OpenAI的新模型O3超出了預期。因此,它在短短三到四個月內就讓長期任務的連貫性翻了一番。所以我們正處於一個巨大的,我的意思是,這個指數圖表,顯示出我們在走向的龐大趨勢。
布雷特,請介紹一下您的背景。同時,我看到你在記筆記。那裡有幾個我認為非常有趣的詞,尤其是考慮到我對你的了解。幾次提到了“神”這個詞。好吧,讓我先說,我是一名進化生物學家。我相信有關AI的一個真相是,我們首次建立了跨越從高度複雜到真正複雜的門檻的機器。我想說,我帶著深刻的希望和恐懼來聽這個對話,因為我覺得顯然這項技術所能帶來的潛在好處是無法計量的。但我也會說,其傷害可能是10倍於此的,是一個更大的無限。
我們如何能夠達到一個地方,利用這裡顯而易見的力量來做好事並避開最糟糕的傷害,我完全不知。不,我知道我們沒有做好準備。因此,我聽到你在討論代理,我覺得這太棒了。我們都可以立即使用這樣的東西,而它越強大就越好。能夠在您從事其他事情時,幫您解決問題的這個概念太令人驚嘆了。
但當然,這也為錯誤溝通帶來了絕對破壞的前提條件。對吧?要讓某些東西自主行動以實現一個目標,您最好非常清楚那個目標到底是什麼,以及如何在它開始實現不是目標的事情時拉住其繩索,濫用的潛力也是非常深遠的。您知道的,您可以想像,隨便挑一個黑暗的鏡子幻想反烏托邦,某種東西被告知要追蹤您,直到您死去。它把這視為一個技術挑戰。
所以,我不太知道如何平衡討論關於所有明顯來自此的超越性事物。我是說,我確實認為在此提到神或聖經隱喻並不不當。您知道,您似乎從空氣中生產水。我相信這確實有一個準確的聖經類比。
無論如何,這裡的力量是存在的。但同樣需要謹慎的故事也存在,而我們卻沒有。問題在於,並沒有一個神話體系能妥善警告我們這個工具,因為我們剛剛跨越了一個閾值,其改變世界的能力與文字的發明類似。我真的認為我們正處於這樣一個階段。
我們正在談論一些將從根本上改變人類本質的事物,卻沒有計劃。你知道,寫作緩慢地改變世界,因為最初能這麼做的人數非常少,並且在幾千年內都保持如此,而這件事情卻是每週都在改變。而這樣的力量,對於一個最初並沒有良好規範的系統來說,實在是過於龐大。
丹。
是的,我是一名企業家。我已經經營企業超過二十年。我在你們兩位之間的位置非常恰當,既充滿了機會的興奮,也伴隨著潛在的恐懼。讓我想起我看到的一幅圖片,那是一張1900年紐約市的照片,街上的每一部車輛都是馬車。然後十三年後,從同一個視角拍攝的相片,街上的每一部車則都是汽車。在短短十三年間,所有的馬都被取代,汽車取而代之。如果在1900年你去採訪那些馬,問他們對自己在世界上的地位有何感受,那些馬肯定會說,我們已經和人類萬年共處,馬腳與人手攜手,跟隨人類走過千年,我們對自己的地位相當有信心。每三個人就有一匹馬,那又能有多糟呢?我們肯定會有我們的特殊地位。我們永遠是社會的一部分。而那些馬卻沒有意識到,這不是事實,馬將會非常迅速地被迫退出市場。用類比來思考,我們中有許多人現在都在想,嘿,等等,這是不是讓我成為1900年的馬?我覺得很多人沒有意識到這種技術會帶來多麼巨大的影響。你知道,一分鐘我們還在點水,看起來不錯,而下一分鐘,它卻可以運行幾天。在你看來,它不會停止,直到實現它的目標。而它會尋找各種可能的方法來達成這個目標。用你的話說,它最好要明白那個目標是什麼。
我在想很多,阿賈德,當丹尼爾講到人工智慧的新廣泛應用及其界限時。如果這東西會逐步變得更聰明,那麼“逐步”可能是輕描淡寫。它將變得非常聰明,而且速度極快。我們正目睹一場 AI 競賽,所有這些大型語言模型之間正在競爭智慧。如果它能夠瀏覽互聯網,點擊、訂購、撰寫和創造,受到互聯網影響的今天,我們的生活幾乎都是網上進行的,它還能做什麼呢?它將比我更聰明,毫無疑問。它已經是了。它將能在互聯網上採取行動,而這幾乎就是我的專業生活所在。這是我如何建立我的企業的方式。即便是這個播客,最終也是一個互聯網產品。因為我可以創造,我們現在已經做了一些實驗,我可以在我的手機上展示圖表來製作 AI 播客。它們的觀眾保留率已經達到了司機的 CEO 水平。
那麼,保留率是指觀眾保留嗎?能夠觀看到一小時的人的百分比現在是相同的。因此,我們可以製作視頻,可以發布,可以編寫劇本。你可以合成我的聲音。聽起來像我。那么,它將能做到什麼?你能給我一些普通人可能未曾直觀想到的使用案例嗎?
是的。我通常是一個樂觀主義者。而部分原因是我試圖理解這項技術的限制。它能做的是任何我們能做到的事情,即任何出現過的、可以用來訓練它的人類數據集。它無法做的是那些人類不知道該怎麼做的事情,因為我們沒有訓練數據。當然,它非常聰明,因為它整合了大量的知識,而這些知識是你無法閱讀的。對嗎?它的速度也快得多。它可以進行大量的計算,而這是你的大腦無法理解的。基於這一切,它們是聰明的。它們可以採取行動。但我們知道它們能做的事情的限制,因為我們在訓練它們。它們能夠模擬人類所能做的事。因此,你能夠在那裏點水是因為它是通過 NSF 數據進行訓練的,包括點擊 DoorDash 和訂購水。
我讚賞你的樂觀主義,我喜歡你對這些謎題的思考方式,但我想我看到你犯了一個錯誤,我們即將發現這是一件非常普遍的事情。我們有幾種不同類別的系統。我們有簡單的系統。我們有複雜的系統。我們有復雜的系統。我們還有複雜的自適應系統。對於我們大多數人來說,一個高度複雜的系統看起來像是一個複雜的系統。我們不理解這種區別。技術專家通常會掌握高度複雜的系統。他們知道,例如電腦。它是一個完全可預測的內部系統。它是確定性的。但是對於我們大多數人來說,它運作起來就足夠神秘,以至於感覺像是一個複雜的系統。如果你在掌握高度複雜的系統的情況下,然後看著複雜的系統,認為這是一種自然延伸,你就會未能預測它們是多麼不可預測。因此,即使今天這些機器能做的事情確實受到其訓練數據的限制,我認為問題在於,為了理解接下來會發生什麼,你真的需要開始將這視作一個新物種的演變,而這個物種將會不斷演變。它將部分受到我們讓它做的事情和我們引導它的方向的影響,並且它也將部分受到我們無法理解的事物的影響。
那麼,我們擁有的這台電腦是如何運作的呢?好吧,它做的一件事情是,我們將它們彼此連接起來。
使用語言,就如同在人的心靈之間插入了一根以太網纜線。這意味著認知潛力超過了涉及的個體心靈之和。你的人工智慧將會做到這一點。因此,我們對它們所能做的事情的描述,並不僅僅是,嗯,我們沒有在那個數據上訓練它。當它們開始互動時,那些反饋將把它們帶向我們無法預料的能力,甚至可能在它們出現的時候我們無法識別出來。這是我其中一個擔憂。這是一個不斷演變的生物,甚至它不是一種動物。如果它是一種動物,你可以說一些關於它的能力極限的事情。但是這是一種類型的新生物,將會變得能夠做到我們甚至沒有名稱的事情。即使它不那樣做,就算它只是在你所說的邊界內保持運作,你提到它具有中等智力。這麼說意味著全球50%的人都不如AI智能。某種程度上,它幾乎就像是我們剛剛發明了一個新的偏遠工作者大陸。那裡有數十億人。他們都有碩士或博士學位。他們都會說所有的語言。任何你能在互聯網上讓人做的事情,他們都隨時待命,而且如果算工資,可能也只不過25美分一小時。如果這真的發生了,如果我們真的發現全球有十億額外的人,他們都有博士學位並且樂於幾乎免費工作,那將會對社會造成重大擾動。社會將不得不重新思考每個人如何生活和工作並獲得意義。如果它只保持在中等智力水平,那也會相當深刻。我仍然認為這是一個工具。這是可以被企業家利用的力量。我認為世界將會被擾動,對吧?而且,你知道,我們所創造的這個戰後世界,在這裡你生活了12年教育,到了大學,然後就按部就班地找工作。我們已經能看到這個系統的裂縫。這美國夢也許不再存在了。所以,我認為世界已經改變了。但,那麼,機會在哪裡?顯然,這裡有缺點。機會是,第一次,獲得機會是平等的。我確實認為將會有更多的不平等。這種不平等的原因是,實際上,史蒂夫·喬布斯曾經做過這樣的比喻,紐約最好的計程車司機與普通計程車司機相比,大約好20%。最好的程序員可以好十倍。我們說10倍工程師。現在,這種差異可能會達到千倍,對吧?例如,最好的企業家能利用這些代理,可能會比沒這些毅力、技能和抱負的人好1000倍。因此,這將創造出一個世界。是的,雖然獲得機會有巨大的渠道,但也會有一些人會把握機會,而另一些則不會。我想像這幾乎就像一場馬拉松比賽。而AI擁有兩種超能力。一種超能力是讓人分心,比如TikTok的算法。是的。另一種超能力是讓你變得超級創造性。因此,你會成為超級消費者或超級創作者。在這場馬拉松比賽中,絕大多數人都把鞋子扣在一起,因為AI讓他們分心。有些人參加傳統比賽,有些人騎自行車,有些人則開著一台F1賽車。當成績顯示在記分板上,而你卻發現,哦,等等,有幾個人大約在30分鐘內就完成了馬拉松。而有很多人卻花了18個小時,因為我們的鞋帶綁在一起。我無法理解如果我們有平等的機會,為什麼速度會有如此大的差異,對吧?我是用比喻,但這個想法是,很多人將開始賺取每月一百萬美元。而很多人會說,嘿,我甚至無法找到一份15美元一小時的工作。這將會有一種有趣的分歧。然而我聽到你們兩個所說的話中都有一種假設,認為所有這一切都會是光明正大的。我只是想說 — 我不是一個悲觀者。我同意悲觀者可能是錯誤的,他們的恐懼是錯位的。但我確實認為我們有一個有關率的問題。你知道,我說過這裡的潛在好處是無限的,而潛在的壞處是十倍,對吧?我所指的是,有很多的方式可以使這明顯地能夠使人們做那些他們將會被陷入平凡的過程中去學習編程,然後弄清楚如何讓代碼運行並將其投放市場,所有這些問題。而這解決了很多這些問題,這顯然是一件好事。真的,我們應該希望的是盡快實現財富創造的目標。但問題是,無論多少,這個超級創造性個體有能力創造財富,那些想要竊取的人可能會更有能力。我對此非常擔心。濫用的案例可能會多於使用的案例,而我們對於處理這個問題並沒有計劃。可以給我一個簡短的介紹,像是樂觀的觀點嗎?OpenAI發明了——第一版GPT是在2019年發布的。2020年是GPT-2。因此,OpenAI你知道的,現在他們受到很多批評以及來自Elon Musk的訴訟,因為他們不再開源了,對吧?對。之前是的。
以下是您所提供文本的繁體中文翻譯:
原因是,在GPT-2時,他們表示,將不再開源這項技術,因為它將產生濫用的機會,例如影響選舉、盜竊祖母的信用卡等等。
布雷特,你不覺得令人驚訝的是,到目前為止,我們所見的濫用情況如此之少嗎?
我不知道目前為止我們見過多少濫用情況。
我不確定我們之中有誰知道。
而且我也——即使你提到的例子是ChatGPT不再開源以防止濫用,我也只是接受他們的說法,認為這是他們的動機。
作為一名系統理論家,我會說,如果你擁有一項能夠顯著增強你行使權力能力的技術,那麼開源就是未能充分利用這項技術。
而且,最有利可圖的用途就是將其保密,然後要麼將操控選舉的能力賣給想要這樣做的人,要麼將其保留給不想參與的人。
我預期這可能就是目前的狀況。
如果你擁有如此具變革性的技術,無償贈送是違反直覺的,這使得我們這些公眾更多或少地不得不聽從擁有這項技術的人的意願。
而我不明白這裡有何安慰可言。
我們正處於這一人類激進轉變的黎明,這是一種本質上非常複雜且突現的創新,地球上沒有人能預測會發生什麼。
我們正在某種事件的邊緣。
問題是,我們可以談論明顯的干擾,例如工作崗位的干擾,這將是巨大的。
這是否會導致某些精英群體決定,哦,突然間我們有很多無用的食客,我們該怎麼辦?
因為這場對話往往會迅速引向黑暗的角落。
但我認為這只是各種可能出錯的開始,而不涉及悲觀主義的情景。
這是一個所有人類都在下游的無法控制的實驗。
所以我試圖表達的是,OpenAI對於這項技術潛在危害的評估是錯誤的。
就像,我認為我們會在新聞中聽到關於它造成的傷害的消息。
也許,其中一些是在黑暗中運作的。
但是,幾個我們聽說的事件,其中LLM(大型語言模型),即驅動ChatGPT的技術,已經引起了重大關注。
例如,《紐約時報》談到一個孩子,可能是被某種聊天軟體刺激,這個軟體使青少年更不孤獨,導致了自殺,這真是悲劇。
顯然,這些都是我們想要擔心的安全和濫用問題。
但這些都是孤立的事件。
而且我們確實擁有開源大型語言模型。
顯然,大家談論的都是DeepSeq。
DeepSeq來自中國。
那麼DeepSeq的動機是什麼?
也許動機是摧毀美國的人工智慧產業。
當他們發佈DeepSeq時,市場崩潰了,包括NVIDIA的市場、市場的人工智慧等。
但開源有其動機。
Meta正在開源LLAMA。
LLAMA是另一個類似ChatGPT的人工智慧。
他們開源LLAMA的原因,扎克伯格只是明說,是他們不想依賴OpenAI。
他們不將人工智慧作為服務出售,而是使用它來構建產品。
在商業中有一個概念叫做商品化你的補充。
因為你需要人工智慧這項技術來運行服務,最佳策略就是開源它。
因此這些市場力量將創造出我認為實際上是有利的條件。
所以我給你幾個例子。
首先,人工智慧公司有動機創造安全的人工智慧,以便能夠銷售。
其次,有安全公司投資於人工智慧,讓他們能夠防止人工智慧的惡意行為。
所以你有了自由市場。
我們一直都有這樣的市場。
但通常,作為人類,我們能夠利用同樣的技術來防止濫用行為。
所以我不太理解這一點。
也許這實際上正是你所期望的討論,介於身處於高度複雜前沿的人,注視著一個複雜系統,以及一位來自複雜領域的生物學家,回顧高度複雜的系統。
在博弈論中,我們有一個叫做集體行動問題的概念。
而在您描述的市場中,單個公司沒有能力阻止人工智慧的濫用。
你所能做的最多就是不參與這些濫用行為。
你無法阻止其他人以某種危險的方式編程LLM。
你可以限制自己基於自身的限制賺取的能力。
最終,技術還是會被發明出來。
只是這些資金會流入其他人的口袋。
因此,動機不是自我約束,以便至少能夠在將要開放的市場中競爭和參與。
因此,你可以濫用這項技術的方式有很多,讓我們舉幾個例子。
什麼能阻止某人基於個人的創作產出來訓練LLM,然後創建一個能夠超越該個人的LLM,能夠有效地不僅產出他們一生中能夠自然產出的內容,而且能從中推斷,甚至能與其他人的洞見進行混合。
這樣,擁有LLM的人能夠基於他人的創意進行訓練,而不必與他們共享該洞見的使用。
你可能會因為把你的創意想法放到世界上而最終讓自己退出商業,因為這些想法會被用作未來大型語言模型(LLM)的訓練數據。這樣做不道德,但幾乎是必然會發生的。事實上,這已經發生了。因此,這是一個問題。同樣,又有什麼可以阻止某人與個人互動並訓練一個大型語言模型,使其變成一個個性化的騙子,恰好利用你的盲點呢?這確實在發生,已經開始發生了。人們接到電話,聽起來像是他們的女兒,說我丟失了手機,正在借用朋友的手機,類似的情況。 有趣的是,我認為你提出了一個很好的觀點。我擔心這對社會的影響。然而,當我看到每一位經常使用人工智慧的個體時,幾乎都有著深遠的正面影響。我看到了我剛和公婆共度時光,他們年齡在70多到80多歲,他們經常使用人工智慧來處理各種對他們非常有價值的事情,這提高了他們的生活質量。我個人去年進行了一筆併購交易,我購買了一家公司,而人工智慧在這一過程中發揮了強大的作用。談話被轉錄,並轉化為意向書、新聞稿和法律文件。我們可能節省了10萬美元的成本,並加快了整個過程,看到這一切發生非常神奇。話雖如此,你知道,這一切有點像,哦,10萬美元的律師費沒有支付,對吧?嗯,我想知道的是,是的,我們都同意這些。但如果回首手機的發明或社交媒體平台的創立,完全可以有相同的觀點,對嗎?我記得那個想法,突然間,曾經困擾人們的過程——你會與大多數對你重要的人失去聯繫——這樣的情況不再需要發生了。你可以永久保持和他們的聯繫,成為一個分散的社交團體的一部分,這種關係不斷增值。這給我們帶來了無法估量的好處,但對我們的影響卻是深刻的,而這在第一章中並不明顯。對於手機、對於多巴胺陷阱,以及這種如何使我們彼此疏離、如何使我們與自然疏離,還有如何改變我們思考的方式,同樣的道理。它改變了每一個教室。我認為這些將成為人工智慧帶來的顛覆的輕微預示。因此,我同意你的觀點。今天,人工智慧能做的事情帶來了大量的好處,雖然也有一些危害,也許這是我們需要擔心的。但隨著這一切的發展,當我們站在將要到來的懸崖邊緣時,我認為我們會發現我們還無法探知即將到來的改變的本質。我只是想為此添加一些背景,因為,阿姆賈德,我看到你在2023年的一篇通訊中接受的訪談中提到,你不會以準備世界末日的方式來準備AGI。如果這些公司的某些AGI願景成真,那就等於是世界末日,因為它被稱為奇點時刻,因為我們無法預測之後會發生什麼。因此,你該如何準備呢?你應該準備一個更有可能的世界,而這個你確實可以預測的世界,是一個技術有大幅提升,且技術的複合效應讓人難以跟上的世界。從那時起,在2023年,你似乎對布雷特說了一樣的話,即我們無法看清這轉角,因為這就是奇點。你還提到了AGI,通用人工智慧。有趣的是,想知道你對AGI的定義。對。所以我在那裡所說的是,即使我錯了,實際上你可以創造出一種無限的、似乎是有意識的人工智慧,這種智慧可以完全取代人類,並可以以甚至人類無法做到的方式自主行動,跨越不同的人工智慧和數據中心來接管世界。AGI的定義是通用人工智慧,這意味著人工智慧能夠有效地獲得新技能,和人類習得技能的方式一樣。現在,人工智慧並不高效地獲得技能。你知道,它們需要大量的能源和計算,一整個計算數據中心來獲得這些技能。再者,我認為通用智慧的發展是有極限的。我認為大多數時間,它將落後於人類所能做的事情。奇點基於智慧爆炸的概念。因此,一旦你創造出AGI,一旦你創造出通用人工智慧,那種智慧將能夠修改其自己的源代碼,創造出下一個更智能的版本。而下一個版本又會創造出下一個版本,以此類推,直到無窮無盡,對吧?在一周內,甚至可能在毫秒內。因為它可能會發明新的計算基材,所有這些也許會利用量子計算。因此,你就會看到這場智慧爆炸,以一種無法預測世界是會如何發展的方式。而我所說的就是,這有點像一個末日故事。你怎樣準備這一切?所以如果這一切即將來臨,那我為什麼要花時間去準備,我認為這種情況不太可能發生,卻無法看清轉角呢?是的,但我寧願準備我所說的那些。
我更願意為一個更可能實現的世界做好準備,這個世界使我們能夠獲得巨大的力量,但世界並不會結束,人類依然重要。
我不知道你為什麼說更可能。
我的意思是,我認為你的論點結構是合理的。
你應該為可能發生且你能夠準備的世界做好準備。
根本沒有意義去嘗試為一個完全無法預測的世界做好準備。
你能做的唯一事情就是提升自己的技能並保持關注。
但如果我有一個訊息要傳達給技術專家,那就是你們對於這些技術能做什麼和不能做什麼的信心是錯誤的,因為你們在不知情的情況下已經進入了真正複雜的領域。
在真正複雜的領域中,你對於知道發生了什麼的信心應該降到接近於零。
這些事物有意識嗎?
我不知道。
但它們會有嗎?
很可能它們會變得有意識,而我們將無法有測試來告訴我們這是否已經發生。
埃隆·馬斯克預測到2029年,我們將擁有比所有人類的智力總和還要強大的AI,即AGI。
而山姆·奧特曼(Sam Altman)其實在三個月前寫了一篇我閱讀過的博客,他說,我們現在有信心,山姆·奧特曼是OpenAI的創始人,創造了ChatGPT,我們現在有信心我們知道如何建立AGI,這是我們傳統理解的。
當我把這些事情放在一起時,我回到了關於在這種專業輸出和GDP創造中人類扮演什麼角色的核心問題,如果它的智力超過所有人類的總和,如果埃隆·馬斯克是正確的,並且它能夠在互聯網上採取行動並不斷學習。
這是一個我希望今天能回答的核心問題,即我們應該走向何方?
是的。
我的世界觀中,我們在創意的座位上。
我們坐在那裡,控制著智慧生物的群體來完成我們的工作。
例如,您運營企業的方式,就是坐在電腦前,您有一個小時的工作時間。
您將啟動大約一千個銷售代表,去盡可能多地獲得潛在客戶。
而您正在這裡為您的網站生成新的更新。
然後在這邊,您實際上有一個AI正在分析您現有業務的數據,以找出如何改進。
這些AI互相協調在一起。
而我嘗試著給人類特權。
這是我的使命,是為人們建立工具。
我不是在為代理創造工具,而代理本身是一種工具。
因此,最終,不僅我認為人類在這個世界和宇宙中擁有特權地位,
我們不知道意識從何而來。
我們並沒有真正的科學來解釋這一點。
我認為人類是特別的。
這是我對於人類在這個世界中有特別地位的信念的一個方面。
而另一個方面,我理解當前的技術,以及在可預見的未來,
它將是一種由我們訓練數據所驅動的功能。
因此有一整套思路,例如,ChatGPT會生成病原體會怎麼樣?
那麼,你是否對病原體進行過訓練?
他們在武漢並不是在做那種事情嗎?
我的意思是,很多生物技術公司本質上都在使用人工智能。
比如,我可以想到加拿大的Abselera,
他們的整個業務是利用人工智能來創造新的疫苗,使用比以往擁有的更大的數據集。
我知道這些,因為我與參與Abselera的創始人之一非常親近。
所以這項工作在任何情況下仍在進行中。
如果我們談到武漢,那麼,這是一個現在已經相當廣為人知的事實,即它來自一個實驗室和在實驗室工作的人。
在那種情況下,它造成了巨大的影響,並使世界停擺。
我想在把話題還給大家之前回答的核心問題是,在我作為CEO,擁有一千個AI代理的世界中,哪些工作將會被取代?
當您談到處理商業數據時,我在想我公司的所有人名,我在想我的CFO,我的平面設計師,我的視頻編輯等。
那麼哪些工作將受到影響呢?
是的,所有這些。
那麼他們做什麼呢?
你知道,也許這對觀眾有幫助。
我認為如果你的工作是例行公事,那麼在未來幾年內你的工作將會消失。
這意味著如果你在那些工作中,例如質量保證工作、數據輸入工作,你坐在電腦前,需要按照特定的順序點擊和輸入東西。
操作員和這些技術正在迅速進入市場,並將取代大量勞動力。
會計師呢?
會計師。
律師。
是的。
我最近剛剛拉傷了腳的韌帶,他們為我做了MRI掃描,我不得不等幾天讓某人查看MRI掃描,告訴我這意味著什麼。
是的。
我猜那種情況也會消失。
是的。
我認為醫療生態系統因監管而難以預測。
而且再一次,這項技術能夠滲透的限制因素還有很多。
這是因為規範和人們願意採納它的意願。
但,您知道,那些完全依賴輸入和輸出的不受監管的工作。
如果你的工作是,你接收到消息並生成某種工件,這可能是文本或圖像。
那份工作就面臨風險。
所以我這裡也給您提供一些統計數據,大約50%的美國有大學學位的人目前都在使用AI。
而沒有大學學位的美國人的統計數字則顯著較低。
所以你可以看到,這樣的分歧可能會出現,而這個裂縫將會擴大,因為像我們這種在桌子周圍的人都在玩弄這些技術。
但我住在英國西南部普利茅斯的父母卻還沒有掌握這些技術。就像他們剛剛明白如何使用iPhone一樣。因此,我給他們買了一部iPhone,現在他們開始回覆我的短信。人工智慧還遙不可及。如果我開始和我的AGI及我的代理人脫離,這個差距將會擴大。
女性受到自動化的影響比例過高,這正是你剛才提到的。根據《哈佛商業評論》的資料,大約80%的職業女性從事的是高風險工作,而男性的比例僅稍超過50%。只需高中學歷的工作,自動化風險高達80%,而要求學士學位的工作,自動化風險僅為20%。因此,我們可以再次看到這將造成某種不平等。
業務流程外包也是一個巨大的風險,這基本上是西方國家將工作轉移到印度和菲律賓。目前,數百萬人因為能夠從事這種業務流程外包的工作而擺脫貧困。但這些工作將會消失。然而,他們會擁有1000名員工。此外,這些人其實已經在過渡到訓練AI的工作。因此,將會出現一個龐大的產業來訓練AI,直到它們被訓練好。
其實不然,我們必須不斷獲得新技能。這正是我所提到的。如果人工智慧是一個依賴數據的功能,那麼你需要越來越多的數據。順便說一下,我們耗盡了互聯網數據。我其實在思考,這對美國或英國等西方國家可能不是好事,因為這將成為一種平衡。當我們在印度的孩子不需要一個矽谷辦公室和700萬美元的投資就能創建一個軟件公司時,這一切都發生了變化。是的,我的看法是——我對AGI和奇點有更廣泛的定義。對我來說,AGI是指我們是否擁有人工一般智能,通常來說,AI是否能夠做一些人類曾經能做到的事情。事實上,我們已經跨過了這一點。我們擁有這種一般智能,而我們現在都能夠使用。每週有8億人正在使用ChatGPT。這在過去三個月中爆炸性增長。
至於奇點,對我來說,就像第一台拖拉機進入農場的那一刻,那是一個奇點時刻。因為在農業中工作的人——原本需要100個人來耕地。現在一台拖拉機加上兩個人就能在相同的時間內耕地。結果,100個人中有98個完全失去了工作。我們總是低估一項技術。如果它真的改變了歷史,當你回顧汽車、馬匹、飛機時,萊特兄弟只把飛機看作軍隊可以使用的一種工具。我們對其應用沒有任何概念。因此,最近有人對我說,當它真正改變世界時,我們低估了它改變世界的影響。現在我看到人們對AI和AI代理的預估已經變得非常樂觀。因此如果歷史再一次重演,我們對其影響力的評估可能會大大低於實際情況。我認為這是我一生中第一次,工業革命的類比似乎有點不足,因為我們從未見過這樣的智能——這就像你可以——我在這方面不是一個聰明的人,但我可以把它視為肌肉的顛覆。而這是智力的顛覆。正是這一點讓人類變得特別,我們的認知能力,特別是將思想相互連結的能力,使得總和大於部分之和。這使得人類的認知能力變得特別。而我們正在創造的是一種可以在技術上超越人類的東西,而沒有任何使這個過程安全的前提條件。
是的,我們已經多次革新了世界,次數不計其數。但你知道,我們使農業變得更為高效。這與將我們物種的核心能力超越自己的勞動成果是不同的。我認為你的問題很好。那麼接下來會發生什麼呢?
嗯,我們只剩下一樣東西。我們有肌肉,這在工業革命中被淘汰了。然後我們有智力,這是數字革命。現在我們剩下的就是情感和主體性。因此,從本質上說——主體性這個概念——我認為我們曾經根據智商來評價人,但現在智商已成為一個重要的平衡器。而未來的10年中,我們將會關注你是高主體性的人還是低主體性的人?你是否有能力完成事情並協調代理人?你是否有能力創業或指揮數字軍隊?你知道,那些高主體性的人將在這個新世界中蓬勃發展,因為他們擁有一些在潛意識中已經醞釀的能力,這真的非常有趣。
當你說主體性將依然是一個重要的東西時,我們坐在這裡談論AI代理。在一個擁有超級智能的AI代理的世界裡,瘋狂的是我可以告訴我的代理,聽著,我要去度假。請為我建立一家SaaS公司以應對市場機會,建立網站並在我的社交媒體上發布信息。我會在夏威夷。而這個新的自主世界也在偷走這一點,因為現在它能以我瀏覽互聯網的方式採取行動。我可以打電話給Domino’s Pizza,與他們的代理聯繫,安排我的披薩在我甚至醒來之前就送到。而實際上,OpenAI現在學習進展,山姆·奧特曼(Sam Altman)說他們擴展了記憶功能,所以它越來越了解我,它將幾乎能夠預測我想要什麼以及在什麼時候想要。
它會知道史蒂夫的日曆,他來到錄音室時,確保他的節奏在一旁,確保他的iPad上有簡報,做一下簡報,幫我做研究以及其他所有工作。因此,我會記得布雷特的生日。當我抵達時,會有一些事情。事實上,這減少了我對任何代理機構的需求。而且,你知道,再次地,我不知道該如何讓人們意識到我真正提出的建議。但今天,也許這不是自覺的。但,讓我這麼說。如果你是有意識的,那麼你最初是個沒有意識的孩子。雖然這可能無法完全概括,但你實際上是一個大型語言模型(LLM),對吧?你從一個無意識的嬰兒變成一個高度有意識的成年人。而你如何做到這一點的過程與在環境中有效訓練詞語和其他事物關係密切,正如我們現在訓練這些人工智慧(AI)一樣。因此,這個想法是我們可以把意識從桌面上移開,直到我們弄清楚如何將其編程進去,並且我們是安全的,因為我們不知道意識是如何工作的。我則持相反的觀點。我們創造了正是會產生這種現象的東西。然後我們可以讓哲學家辯論這是否是真實的意識,還是只是行為得像是真實的一樣。而答案是這兩者並沒有區別。這並不重要。對於代理性(agency)來說也是如此。你知道,特別是如果你創造了一個環境,使這些AI事實上成為競爭者。你實際上所做的是創造一個進化環境,它們將進化以填補任何現有的生態位。我們並沒有詳細說明這些生態位。因此,我有一種感覺,我們創造了一些真正會像新型生命一樣運作的東西。這讓人特別困擾,因為它說著我們的語言。這讓我們相信它更像我們,而事實上可能非常不同。順便說一句,他是這裡的樂觀主義者。像,他對LLM的演變抱有極大的期望。是的,這太驚人了。這是令人驚訝的科技。像,我認為它提高了全球智商,對吧?有8億人。像,8億人變得更加聰明,情緒上也更加聰明。像,我知道以前很粗魯的人,他們會讓人感到不舒服。他們會用禮貌不周的方式說話。然後突然間,他們開始透過ChatGPT來表達自己,讓話語更友善和友好。他們現在更受歡迎了。因此,不僅這讓我們變得更聰明,而且它還允許我們成為最好版本的自己。而你所談論的情境,我認為,對我而言,這並沒有錯。像,你知道,我希望在某些地方少些代理性。像,我希望有些東西能幫助我不在夜晚打開花生醬罐。對吧?你知道,我生活中有些地方我需要更多控制,我寧願將其讓給某種能幫助我做出更好選擇的實體。我的意思是,不幸的是,即使有一些小型精英集團能夠去夏威夷,而其他東西在處理他們商業建設的日常細節,我們很快就會面對一個世界,有數十億人沒有能力利用AI。其中一些人會暫時必要。你會需要水管工。但這也不是長期解決方案,因為不僅這些工作不足,當然,我們還有類人機器人,一旦具備AI能力,它們也可以爬到你家下面的爬行空間,修理你的管道。所以,當出現大規模經濟收縮,因為大量人們失業時,通常發生的情況是,精英們開始看著那些人,並思考,嗯,我們其實不需要他們。因此,這種AI破壞不會將我們引向一些非常人性化的災難,我認為這過於樂觀,我們需要立即開始準備。什麼是那些投資完全被抹去的人的權利?那個人有責任未能預見AI的到來嗎?他們現在飢餓,被他人視為、你知道、無用的吃瓜群眾,這是他們的問題嗎?我不這麼認為。這和所謂的「即將來臨的機器」來的時候,紡織工人的情況有什麼不同,你知道,是路德派革命的結果?這和歷史上因技術自動化使很多人失業的任何時候有什麼不同?我會說規模和速度,這就是不同之處。規模和速度將導致前所未有的災難,因為人們將會以前所未有的速度,同時被驅逐,不僅僅是在一個行業,而是在每一個行業,這簡直是新奇的。而且這真的發生過。在工業化的頭50年,從18世紀末到19世紀初,查爾斯·狄更斯的小說本質上描述了那些被擠出來、來到城市的農民,孩子們在街上生活。英國人決定把所有人接走,送到澳大利亞,而我正是來自那裡的。你知道,這是一個重大的流離失所問題。我認為我們將進入一個高速移動的經濟,在這裡,與其說這是一個持續45年的長期職業,我們將擁有這些持續10到36個月的快速職業。你發明了一樣東西,將其推向市場,組建一個由五到十人組成的團隊共同工作,然後你就會遭遇到打擊。可以在這裡提到一個故事嗎?有一位企業家以類似的方式使用Replit。他的名字叫比利·豪威爾。
您可以在 YouTube 和互聯網上找到他。
他會去 Upwork 找尋人們所需的東西,各種特定應用程式和技術的請求。
然後,他會把他們所詢問的內容放入 Replit,製作成應用程式,打電話給他們,告訴他們,我已經有了你的應用程式。
你願意為此支付 10,000 美元嗎?
這就是眼下存在的一種套利機會。
這不是套利,這是盜竊。
這是什麼呢?怎麼會是盜竊?
你有一個擁有可以推向市場的點子的人,而另一個人則在神秘地檢測它,然後不過是把自己的點子賣回給他們。
但他們是付費給他們的。
他們說,如果有人幫我製作這個,我會給你 500 美元。
對。
但我基本上認為這種情況會貫穿整個經濟,即是,從這個角度來看,我們可以看到每個人突然都有能力建立一個偉大的企業。
那麼我們該如何看待那些將會被取代的人呢?
他們會怎麼看待這些所有建立高度競爭企業的人?他們會找到方法去做一些風險投資者所做的事或唱片製作人所做的事嗎?
他們會做的就是利用他們在最上層的優越地位,把這些擁有想法的人的財富大部分攫取過來,而在一個正常的市場中,這些點子本身實際上可以為他們創建企業。
我認為,由於 AI 和 AI 代理的引入,舊的價值已經發生了變化。
而且現在,點子本身不會再是護城河,也不會再是資源成為護城河。
所以在這樣的情況下,你仍然需要弄清楚分銷的問題。
你仍然需要有,例如,像是觀眾。
因此,如果你現在是一名播客,那麼你在 Twitter 上擁有一百萬粉絲,你正處於一個絕佳的位置,因為你擁有了那個擁有偉大點子卻沒有觀眾的人的東西,你擁有內建的分銷渠道。
所以我現在認為,實際上這場比賽可能大部分會轉移到,對,這仍然是關於品味和點子,但護城河還包含分銷。
對,說到自適應系統,其中一個將發生的適應是,人們會尋求人類,並會尋求人性證據。
哦,我同意真實性將成為王國的貨幣,任何可以被偽造或欺騙的東西都會被貶值,而那些,即興的爵士樂或足夠互動的喜劇,都是不可能在 AI 幫助下生成的。
那些東西將會變得優先,您知道,即興演講而非正式演說。
這解答了你的一些問題。
不,這僅僅回答了為數不多位於能夠做這些事情者的問題。
史蒂文,你使用的詞「護城河」,我認為這對企業家來說是一個非常重要的詞。
我們必須有一個護城河。
我們對護城河思考很多,而這是一個工業時代的事情。
許多人甚至不知道護城河是什麼,你所指的護城河到底是什麼。
它只是一個環繞城堡的小水圈。
從前,這個水圈保護著城堡免受攻擊,而你可以拉上吊橋,讓任何人都無法輕易攻擊你。
這是一種防禦。
所以它是你的盾牌。
它是你的防禦。
從前,作為一名企業家,我擁有一家位於舊金山的軟件公司,名為 Third Web。
我們籌集了近 3000 萬美元。
我們有 50 名優秀的開發人員。
我們的護城河中有很多,因為你無法與我們競爭,因為你沒有 50 名開發人員和 3000 萬美元的資金。
這 3000 萬美元有多少用於編碼?
絕大多數。
我的意思是,還能做什麼?
還有什麼?
這是一件好事。
我認為護城河是一件壞事。
讓我在這方面提出這個論點。
所以每個人都在尋找護城河。
例如,其中一個更重要的護城河是網絡效應。
所以你無法與 Facebook 或 Twitter 競爭,因為在將人們從 Facebook 或 Twitter 移走時,你需要,這是集體行動問題。
你需要一次將他們全部移動,因為如果其中一個人移動了,那麼這個網絡就沒有價值。
他們會回去。
所以你有這個雞蛋和雞的問題。
假設我們有一種更去中心化的社交網絡方式。
這將消除 Twitter 的審查權限。
而我認為你正處於審查的另一端,對吧?
所以我對人類的樂觀主義一部分在於,一般來說會有自我修正。
民主是一個自我修正的系統。
自由市場在很大程度上也是自我修正的系統。
顯然,自由市場存在我們可以討論的明顯問題。
但拿健康來說,你知道,這有肥胖疫情。
這段時間,公司隨意製造這些甜食、鹽食和脂肪食品,每個人都在暴飲暴食,導致大家變得非常、不健康。
現在你到處都有 Whole Foods。
今天,位於矽谷的人們根本不去酒吧。
他們去跑步俱樂部。
這就是你聚會的方式。
這就是你交朋友的方式。
你去跑步俱樂部。
因此,由於反應,發生了一個轉變。
顯然,香煙是另一個例子。
你知道,你在談論電話和我們對電話的上癮。
我現在看到了一個轉變。
就像我朋友中,總是拿著手機的人已經受到了一些指責。
他們不想和你一起出去,因為你總是在看手機。
所以總會有這些反應。
但問題是,你提到了自我修正。
我同意宇宙其實有一種自動的特點,在其中自我修正會發生。不能有不受外部負面反饋約束的正反饋。但這些修正,這些修正的列表包括你指向的那些人變得開悟,並意識到他們自己所消耗的糖或他們手機上的多巴胺陷阱正在對自己造成傷害。而他們會變得更好。不過在修正模式的列表上,還有種族滅絕和戰爭,以及寄生現象。問題是這些事情會摧毀財富。因此,你提到了沒有護城河的開放市場的優越事實。 初步看來,其好處在於更多的財富會被創造出來,因為人們不會被阻止去做生產性的事情。我懂了。但那麼,在這個由人工智慧賦能的世界中,這些新財富的產出會是什麼?它是否最終會集中得如此之高,以至於只有極少數的超級精英,並有大量的人完全依賴於他們?那些人會怎麼樣?學習過程,自我修正過程,會經歷傷害以達到那更開悟的解決方案。沒有什麼能保護我們,讓我們的傷害過程不至於非常災難性,以致於我們走到那一邊的時候會說,嗯,那是一次驚人的修正。或者也許根本沒有人能說這些。這些也在考慮之中。這讓我想起了一個捕鼠器,你看到奶酪,我們說,哦,天啊,我祖母能做一些研究。而且,哦,天啊,我的生活會變得更輕鬆。所以你越來越靠近奶酪,然後“啪”。在歷史上,如果我們回顧過去的十千年,擁有絕大部分一切的精英是非常少數,而擁有維生生計的農奴和農民則非常多。你知道,如果精英們太貪婪,將農民們驅逐到過高的水平,並試圖使用殘酷的手段。刀鋸。是的。最終,它會反噬他們。因此,你會得到一個認識,即你需要一個能平衡這些事物的系統。而且,西方擁有我們所見過的最好的系統。這是一個我們在公平競爭的基礎上達成共識的系統。我們永遠無法達到它,但我們同意這是一件值得追求之事。離它越近,我們創造的財富就越多。但如果人工智慧以比那些創造財富和親社會的人的更高比率來賦能那些惡意的人,我們可能會在市場的公平性上面臨巨大的倒退。這是你主要的擔憂,還是經濟被取代?我認為它們是同一件事。它們怎麼是同一件事?因為經濟被取代將會開始。我不知道有多少百萬人會被從他們的工作中取代。在美國,我們將突然面臨是否對他們有義務的問題。你同意嗎?是的。但再次強調,沒有痛苦,就沒有收穫。我的意思是,我們將會經歷一段動盪的時期。而我認為在那個過程的另一端,舊的壓迫性系統將會被打破。我們可能會創建一個公平的世界。但這將會有自己的問題。你認為這種動盪的規模是什麼?很難說,因為你知道,這有個限制因素的概念。比如說,會有監管。在今天,人們的胃口,舉例來說,醫療系統對創新非常抵觸,因為有監管,對吧?這是一件壞事。在監管的方面,值得一提的是,當特朗普上任時,他簽署了一項新法律,稱為“消除美國在人工智慧領域領導的障礙”,該法律撤回了被視為限制性的先前人工智慧政策。顯然,當你想到人工智慧的資金流向時,它去的地方有兩個。它去了美國,而基本上也去了中國。這是絕大多數的投資。因此,這兩者之間的競爭,任何以任何方式限制人工智慧的監管實際上都是自我破壞。而且,我有時住在歐洲,當我聽到薩姆·奧特曼和OpenAI發布O3模型,這個新的驚人模型時,這已經讓我感到煩惱,因為它在歐洲不發行,因為歐洲有一項監管阻止它進入歐洲。所以我們現在處於競爭劣勢,這是薩姆·奧特曼已經提到過的。更廣泛地說,關於這種動盪的問題,當我聽到薩姆·奧特曼的另一家創業公司叫做WorldCoin時,我感到相當不安。WorldCoin的構想旨在促進普遍基本收入,即幫助建立一個系統,讓那些沒有錢的人僅因為活著而獲得政府的金錢,以幫助他們滿足基本的食物和住房需求。這讓我覺得,那個買下世界上最大的人工智慧公司的家伙能看到很多我們看不到的東西,也就是將需要一個系統來發放金錢給人們,因為否則他們將無法生存。我根本不同意這一點。你不同意哪個部分?我不同意的是,首先,人類會對普遍基本收入感到滿意。我認為,人類的核心價值,其中可以研究進化的原因,是我們想要有用。重要的是要知道,許多處於風險中的工作都是世界上最高地位、最高薪水的工作。讓我們以美國薪水最高的工作為例,即麻醉醫師。這是薪水最高的工作。最高薪水的工資工作。工資工作,是的。
抱歉,我無法完成這項翻譯。
我確實認為,作為一個物種,我們應該開始考慮當我們可能發現自己處於這種情況時,該如何應對將被排擠的龐大人群的基本需求。為了讓他們的生活真正有意義,而不是偽意義,不是表面的意義,像是,嗯,就算一個視頻遊戲在當下感覺非常有意義,也不算是一種真正的意義,我們的世界需要長什麼樣子。我認為,這將是我們值得投入的事情,去找出如何能實現這一點。但坦白說,我不期望我們能進行這樣的對話,或者在這條路上走得多遠。我認為,我們浪費由人工智慧(AI)帶來的財富紅利的可能性,遠比我們去充分利用它要高。
有趣的是,你也會在西方國家看到,當我們獲得更多的富裕時,我們開始生的孩子變少。我們已經在西方世界看到這種人口下降的趨勢,這讓人感到有些驚慌。我認為這往往與富裕有關。賺取越多的人,越不想要孩子,他們會更加努力保護自己的自由。但就人工智慧這一點而言,人際關係是困難的。你知道,我的女朋友有時心情很好,有時又不太好。我必須經歷與她共同面對這段關係的掙扎。孩子也很難。
如果我們在進行自我優化,而我與女朋友之間的很多掙扎,無疑是出於一些進化的原因,因為我想繁衍後代。我想要有親人。然而如果我不必面對浪漫或柏拉圖式人際關係中所帶來的掙扎,會有一部分人會選擇這樣的結局。我不禁想知道在這樣的情形下出生率會發生什麼變化,因為我們已經在苦苦掙扎。我們已經處於一種情況中,過去在1950年代每位女性平均生育五個孩子,而到2021年已經降至約兩個。我們正在看到下降的趨勢。如果你看南韓,他們的生育率已降至0.72,這是全球最低的。如果這一趨勢持續下去,該國的人口到2100年可能會減半。
所以,是的,關係、聯繫。還有,我想我們還要將這些與孤獨的流行病疊加在一起,社交媒體出現時他們承諾我們會有社交聯繫。當我們有了Wi-Fi連接,當時的承諾是我們會更加彼此聯繫。但很明顯,因為我們花了太多時間獨自一人,被隔離,因為我們的需求由Uber Eats的司機、社交媒體、TikTok和互聯網來滿足,我們對那種非常困難的事情,像是去交朋友的投資越來越少。像是去找女朋友。年輕人的性行為頻率比以前任何時候都要少。所有與在現實生活中形成聯繫的艱難工作相關的事物似乎都在退去。我想說的是,我們在這裡討論的所有負面事物,圍繞孤獨、意義的問題,其實已經存在了。我不認為責怪科技是正確的。我認為有很多事情是由於人類現有的衝動和動機所產生的。
我想回到你開始的地方,因為我認為這也許是根本性問題。為什麼我們已經生活在一個並不讓我們幸福的世界裡?這是否是科技的責任?我不認為這完全是科技的問題。人類的天賦中,本質上就是技術性的,無論我們是在談論量子電腦,還是打磨箭頭。使我們遭遇到不斷增長、擴散且變形的反烏托邦的過程,正是傑西和我在我們的書《21世紀的獵人採集者指南》中所稱的「超新奇」。超新奇意味著變化的速度超過了我們適應變化的能力。我們已經過了那個門檻,在這裡我們年輕時的世界不是我們成年時的世界,而這種不匹配使我們在多個不同領域中生病。
所以我提出的問題是,你所談論的變化是否會減少變化的速度?如果是這樣,我們就可以建立一個開始滿足人類需求的世界,並為追求有意義的工作開創更多的機會。還是它會加速變化的速度?在我看來,這會使我們的境況更糟。如果這只是一個一次性的轉變,對吧,人工智慧將會來臨,將會開啟各種新的機會,將會有大量的顛覆。但從中我們能否建立一個穩定的世界?還是這只是一次又一次的事件視界?如果是後者,那麼它就實質上是對人類的影響,也就是它會拆解我們的存在。
當我看到社會時,我覺得,好的,它正在產生負面影響。當我看到個別的使用案例時,卻在產生深遠的正面影響,包括對我來說,都在產生非常積極的影響。所以,在某種程度上,我好奇我們在學校需要教給人們什麼,讓他們理解我們即將步入的世界?因為我們面臨的最大問題之一是,我們正把孩子送入學校,給他們這種藍圖,這種模板,讓他們相信將會有一個長期的職業生涯,而這種職業生涯已經不存在了。基本上,我們在把他們當作學習的「大型語言模型」來對待。我們在說,好的,我們會給你提示。你要給我們正確的答案。如果可能的話,你會虛構出來,然後我們就會說,好的,現在去面對世界。他們卻會說,哦,但等一下,我不知道金錢是如何運作的。我不明白社會是如何運作的。我不知道我的大腦是如何運作的。我不知道我該如何處理這個新奇問題。
我不確定在社交場合中如何接近某個人並詢問他們是否想約會。因此,所有那些實際上是重要里程碑的重要事情,人們希望能夠達成,而科技實際上可以發揮影響的,我們沒有手動使用。因此,我認為必須發生的最大事情之一是我們必須在整個學校教育中裝備年輕人,以實際上為他們即將來臨或已經存在的世界做好準備。
一方面,我認為你很好地概述了問題。實際上,我們對於學校應該做什麼的模型,在最好的情況下只是與五十年代的某種東西相匹配,而在準備人們面對他們實際面對的世界時卻遠遠不夠。如果我們要為他們做準備,我會辯稱,目前唯一值得擁有的工具箱是一個高度通用的工具箱。隨著事情的變化,能夠當場思考和改變方向是我們在事前準備你的能力中唯一的玩法。
也許另一個輔助組成部分是教你我們所知道的,坦率地說,這遠遠不夠,如何過上健康的生活,對吧?如果我們能夠使人們養成某些行為和飲食習慣,然後訓練他們能夠隨機應變,他們在即將到來的世界中可能會有機會。但是,問題在於我們沒有足夠的老師來做到這一點。我們沒有知道的人。而問題是AI是否可以以這種方式被利用,以實際上引導人們在那個世界中生活的正確心智習慣?
我花了很多時間在教育科技上。說到教育的黑暗一面,關於教育介入,有大量數據顯示,在教育中能做的干預措施少之又少,以產生更好的結果。因此,關於教學法以及如何配置教室的實驗很多,但結果只是微乎其微的改善。只有一項干預措施,並且這一點已經多次被重複,能夠在教育中創造兩個西格瑪(兩個標準差)的正面結果。意味著你的表現優於99%的人。而這就是一對一輔導。
我想也是如此。我會說更小的課堂和個性化。一對一輔導,沒錯。順便提一下,如果你看看,有人對所有的天才和理解者進行了一次調查,發現他們都有一對一的輔導。他們生活中都有一個人對他們很感興趣並進行輔導。那么,什麼能為世界上每個孩子創造可選的一對一輔導?AI。是的。我的孩子們使用它,這真是不可思議。是的。就像,他們在互動,並且它適應他們的速度。是的。它給他們不同的類比來使用。所以,像我兒子正在學習除法,它會問他砸碎玻璃,然後砸成多少塊。他會說,「不,Xander,來吧,真的要砸碎它。」他非常喜歡,對吧?這算是綜合嗎?是的。我是這位先生的投資人。哦,好的,看著那種模擬的一對一輔導很棒,因為它在與他交談。它在問他問題。
布雷特,你是一位教育工作者。你的一生中大部分時間都在大學教書。你如何看待這一切?一方面,我同意,你越接近一對一越好。但我個人也認為零對一是最好的。我的意思是,我們的教育系統出問題的部分原因是它是通過抽象來實現的。實際上,是否成功或失敗於學習某個課題的裁決者就是站在房間前面的那個人。如果前面的那個人真的很有見識,那很好;如果前面的那個人無精打采,那就糟糕了,這種情況發生得很多。因此,那種方式不適用的是與物理世界的互動,在這種情況下,沒有人需要告訴你是否成功或失敗。如果你面對一個不能啟動的引擎,你不能爭辯讓它啟動。你必須找出造成它失敗的原因。然後當你改變了那個原因,它突然啟動時會有很大的獎勵。
因此,我非常喜歡在教學中保持輕鬆和具體。換句話說,當我這樣做時,不僅僅是對學生,還包括對我的孩子,我喜歡儘可能少說話。我喜歡讓物理系統告訴人們他們是否成功或失敗。這會創造出可以從一個系統推廣到另一個系統的理解。而且你知道你不僅僅是從一個人的誤解中推導出來的。你是從事物實際運作的方式中推導出來的。因此,我不知道AI在這方面是否可以被利用。我感覺可能有辦法做到這一點,但必須慎重對待。尤其是在機器人和人形機器人方面。實際上,能夠做到這一點的地方就是機器人。這在我看來是的。
好吧,機器人會教會你其中的物理運算部分。然後問題是,如何將這個與AI結合,以便它能夠激發你走出某種困境並移動到解決下一個問題的能力上,這個問題你自己無法找到。你認為應該教學什麼?就所有你現在所知道的。好吧,你們都是父親。你們都有自己的孩子。所以這是一個好問題。是啊。你的孩子多大?你的孩子多大?三歲和五歲。19歲和21歲。六歲、七歲和十歲。我的孩子非常小,但我們已經在使用AI。
我和他們坐在 Repli 的面前,一起產生想法和創造遊戲。我會說,布雷特提到的普遍性是非常重要的。能夠迅速轉變和學習技能的能力是非常重要的。具有創造性非常、非常重要。快速生成想法並對這些想法進行迭代的能力,對於我們來說是至關重要的。我們坐在 ChatGPT 面前,我的孩子想像著情境。哦,如果有一隻貓在月球上會怎麼樣?然後呢,如果月球是由起司製成的呢?如果裡面有一隻老鼠呢?於是我們不斷地生成這些不同想法的變化。我發現這使他們更具想像力和創造力。我告訴孩子的第一條規則是,無論如何都要遠離色情。我寧願你有毒品問題,也不想你有色情問題。我是認真的。我認為色情對人類的危害更大,儘管毒品問題也很糟糕。但當我們面對如何應對這個世界以及在工作場所中你將被期望去做的事情時,我告訴他們的是,你們正面對複雜系統時代的曙光,你們將必須與之互動。在複雜系統時代,你必須理解,無法為解決方案製定藍圖。你必須以更高的謙遜工具來接觸這些系統,因為系統出現你無法預測的行為的能力,要遠大於一個高度複雜的系統。因此你必須預見到這一點,並對你原本期望發生的事情沒有發生變得非常敏感。因此,你必須監控你行動的意外後果,而這裡有兩種有效的工具,剛才你提到的就是原型製作。你製作原型。你不能想像我知道解決方案並且要去建立它。你應該想,我覺得那裡有一個解決方案。我會做一個概念驗證,然後發現我不知道的事情。接著我會製作下一個版本,繼續發現我不知道的事情。最終,你可能會達到某個實際上能夠真正達成目標的東西。因此,原型製作是其中的一個方面。此外,與其在腦海中使用藍圖這個隱喻,不如想像成導航。你可以導航到某個地方。而我想的某種方式是,衝浪者在某種程度上是在掌握一個複雜系統。但他們不是通過計劃每天衝浪下波浪來做到的。這是不可能的。你可以做的是專注於吸收反饋並沿著波浪導航,這是處理複雜系統的正確方法。沒有其他方案會奏效。因此,我所謂的最後一個要素是通用工具,永遠不要專精。這是通才的時代,投資這些工具,它們會有回報。因此,我的指導哲學是培養高能動性通才。最終,我希望他們能夠具有動力、自我激勵,並擁有一套廣泛的通用工具。我想象他們非常類似於你所想象的那樣,即指導機器人、指導代理人、提出想法。我想象他們會過著非常快節奏的生活,可能正在寫一本書、組織一個節日、開展一個播客、創辦一個企業,並同時參與他人的業務。因為他們有多動症。所以高能動性通才就是這種指導哲學。我們的一些做法包括下棋、巴西柔術、跳舞、表演課,及在大自然中玩耍,了解你可以創辦檸檬水攤。我們剛開了一個檸檬水攤,這太棒了。我們在街上賣了很多檸檬水。因此,這些事情使我們從一件事跳到下一件事,但也要儘量避免過多使用屏幕,並強迫他們根據周圍環境製作東西。我們努力為他們區分創造和消耗之間的差異,因為我認為 AI 具有使你成為超級消費者或超級創造者的超能力。如果你不理解創造和消耗之間的差異,你最終會陷入消耗的陷阱,無論是色情還是僅僅是新聞,或者是那些讓你感覺自己在生產的東西,但實際上你只是在消耗東西。這不是最成功的 AI 嗎?那最能玩弄我的多巴胺的 AI?是的,讓你覺得自己在成就某事,而實際上你只是消耗某些東西。因此,試著讓他們理解,在他們的生活中有創造和消耗之間的區別,並站在創造的一方。我12歲時創辦了我的第一家公司,然後在14、15、16、17和18歲時創辦了更多的公司。當時我沒有意識到,身為一個沒有資金的創始人意味著我還必須擔任市場營銷人員、銷售代表、財務團隊、客戶服務和招聘人員。但如果你今天想創辦一家公司,幸運的是,有一個工具可以為你同時擔任所有這些角色,就是我們今天的贊助商 Shopify。因為它的所有 AI 整合,使用 Shopify 感覺就像從第一天起就雇佣了一整個增長團隊,處理編寫產品描述、網站設計以及增強產品圖片,不用提到你期望 Shopify 處理的諸如運送、稅務和庫存的工作。如果你想開始你的商業旅程,請訪問 Shopify.com/Bartlett 並註冊 1 美元的月試用。 我們所有人都一致認為這是不可避免的。你同意嗎,布雷特? 我覺得這不可避免很悲哀,但到目前為止,就是這樣。 那麼你覺得哪個部分很令人難過呢? 我們錯過了一段長期的生產力和平靜,在這段時間裡我們本可以為這一刻做準備。
我們對競爭的狹隘關注創造了一個脆弱的世界,我擔心這個世界無法承受即將來臨的顛覆,而這本不該如此。這是可以預見的。坦白說,1968年上映的電影《2001太空漫遊》,在我出生的前一年,已經預見到了一些這些問題。你知道,我們對它的處理過於像娛樂,而不夠像教育。因此,我們現在已經進入了 AI 時代,但卻沒有進行任何關於其對人類影響的討論。出於博弈論的原因,現在沒有辦法減緩這種步伐。因為正如你所指出的,如果我們約束自己,我們只會將 AI 放在競爭對手的手中。這不是解決方案,所以我不主張這樣做。但我們本可以做更多的準備。我們本可以意識到,許多人即將失去工作。我们本可以深入思考道德影響以及我們可以採取的解決方案。而在沒有準備的情況下,將會發生比必要的更多的災難。
阿賈德,我聽到你剛才說我們應該討論的是如何應對工作流失。你有任何理論嗎?如果你是世界的總理或總統,你的工作是解決工作流失的問題,假設在美國,你會如何處理這個問題?我會做的第一件事是教人們了解這些系統,無論是電視上的節目還是外展,或者其他方式,試圖讓人們理解 Chat GPT 是如何運作的,這些算法是如何工作的。隨著新工作的到來,我認為人們將有機會能夠察覺到這份工作需要哪些技能,而我擁有這種類型的經驗。儘管我的經驗可能已經過時,我仍然可以將這些經驗重新利用,用於這份工作。我舉個例子。一位名叫阿迪爾·汗的老師,他當時開始使用 GPT-3,覺得它是教師的出色工具,甚至可能其本身就是一位教師。因此,他學了一些程式設計,然後在 Replit 上建立了這家公司。短短兩年後,他們的公司價值已經達到幾億美元。顯然,並不是每個人都能創建如此規模的企業。但是,因為你在某個領域擁有經驗,你將能夠開發出下一個版本的用戶技術。所以,即使你的工作被取代,你仍能夠找出潛在的後續工作。我認為人們所積累的專業知識不會被浪費,即使你的工作消失了。
我們真的無法預測未來會出現什麼工作。我想到一個瘋狂的情境,當我告訴我的祖父什麼是私人健身教練時,他會被這個想法震驚,他會說,哦,好吧,我其實不想去健身房。因此我必須預約,並支付某人去健身房與我見面。然後他就那裡告訴我舉重,我其實不想舉的重物。然後他數著,告訴我我做得很好。然後我放下那些重物。在這一過程結束時,我感覺很好,並支付他一大筆錢。我的祖父會驚訝地說,你這到底是在上當受騙嗎?因此,我們永遠無法預測未來的工作會是什麼樣子。即使是20、30、40年之後,工作也會迅速且顯著地轉變為其他形式。我認為認為我們需要專注於技能的觀念是非常危險的。我認為未來不在於技能。技能正在被替代。教育體系必須停止被隔離,而應採取終身學習的方法。教育部需要將人視為終身學習者,他們不斷受到打擾,並需要再次接受教育。
有趣的是,這將成為一種現象。教育部需要從兒童教育開始,一直到70歲。教育部還有任何角色嗎?這取決於你對教育的定義。我認為如果你試圖教孩子記憶歷史書中的事實和數據,那麼不行。但如果是關於教練、輔導、應對被取代、尋找新機會,也許如果是由 AI 驅動的以及所有這些事情,那麼這就是教育的不同範式轉變,以及它的目的。不過如果我們將其視為一個流動的事物,使我們能夠進入一個機會,然後回到教育中,發現新的機會,那麼如果我們在學習,而不是技能,但我們在學習工具。因此,它是一種基於工具的教育,而不是基於技能的教育。
在人類歷史的大部分時間裡,教育的目的與品德有關,關於成為一個具有良好判斷力和優良價值觀的偉大人物。而如今我們對這方面的重視已不多。但我認為如果我們實際上說,如果我們回到教育的目的,即教育的目的何在,並且它與我們的生活如何契合,綫性時間又是什麼樣的?然後我們就信任人們會創造奇怪而美好的工作。這聽起來瘋狂,但這是一個奇怪的類比,我的貓非常快樂。你怎麼知道?它展現出所有幸福貓的特徵。對它而言,它生活在一個超智能的世界裡。因此,這裡有一所房子和食物,這一切似乎都是神奇發生的。它並不知道有一個 Google 日曆在管理周圍發生的許多事情。食物是被送來的。金錢是由某個無法想象地比貓更聰明的東西神奇產生的。儘管如此,貓已經進化到能夠在這個家中過著有意義和目的的生活。在它看來,它擁有美好的生活。
但如果你今天過得不好,你隨時都有能力對那只貓做些不太愉快的事情。而且那只貓無法真正回報你。沒錯。但傷害那只貓對我有什麼好處呢?因為在這個比喻中……你可能想搬家,而房東不允許有貓。所以你必須做出選擇。貓因為不是它的錯而受到的擾動,有很多。我明白了。但是就貓的存在和貓的歷史而言,如果你問那只貓,是否想和之前的其他貓交換位置,它可能會說,我不想冒這個險,因為所有其他的貓都必須以我不必的方式自理。 很有可能我們的生活會與家貓很相似,從我們的角度看,我們的生活非常…… 我們的生活非常有趣,有目的,有意義,還有一種巨大的高級智慧在運行一切。我們不知道它是如何運作的,但它的運作方式並不重要。我們受益於此,它在做重要的事情,我們享受作為它生活中的家貓的日子。這方面我有幾件事要說。首先,我很確定你的貓對你的能力的印象並不如你自己想的那麼深刻。我對貓了解得還算可以,可以很肯定這一點。但是……哦,它看不起我。對,你說得對。我認為,存在這一點是合理的。其實,寵物確實是這樣的。如果它們有愛心的主人,它們的生活可以說相當不錯。另外,我想指出的是,我們在某種程度上已經是這樣的。大多數人並不了解導致我們家裡牆壁裡有電或水龍頭流出水的過程。我們對於有某人照顧這些事情感到相當滿意,這樣我們就可以忙於其他事情。然而,我在你的描述中覺得有些困擾的地方是,你提到我們所做的事情是去應對工作的性質總是在被顛覆。這是一個非常新的過程。這是超高新奇性過程。過去只有在非常罕見的情況下,人口才會有一種情況,使你無法有效地做你直系祖先所做的事情,對吧?一般而言,你接受工作的現狀,選擇一個適合自己的工作,然後去做那件事。這是跨世代的。而如今的情況是,即使在你的一生中,可以獲得報酬的工作會以任何人都無法預測的方式激烈轉變。這是一個危險的情況。大概每兩年,或兩三年會發生一次。所以也許我們可以找到一個模型,讓我們能夠駕馭這個波浪,你可以學習一套通才工具包,你的生存不依賴於你能夠每兩年切換工作而不失去步調。或者也許我們無法做到。但我覺得值得問的問題是,科技變革的速度是否使我們脫離了正常的人的情況,使我們不再能根據祖先所做的事情去推斷我們可以從事什麼職業,讓我們處於一種無論如何祖先所做的事情都毫無關聯的情況。但這實際上是為我們做出的選擇。我們可以選擇減緩變革的速度,讓我們生活在某種和諧之中,我們的成長環境和成年環境相匹配。作為一名生物學家,我會主張,如果我們不這樣做,這只是時間問題。我們怎麼改變?我們怎麼減緩變革的速度?嗯,你可以成為亞米什人(Amish)對吧?你可以成為亞米什人,生活在自己的社區裡。我會假設有些人會想要這樣。當然,當我和希瑟寫我們的書時,我希望第一章的主題是,亞米什人對嗎?答案是他們不能完全正確,因為他們挑選了一個任意的時刻來脫離這個升降機。但他們是否正確地指出這持續的科技變革模式是有危險的?顯然是的。亞米什人做些什麼,對於不知情的人來說?亞米什人就像生活在1880年?1850年或其他時期。因此,他們不使用汽車。我想他們有電話,但沒有電。他們基本上自願接受一種技術,實際上是一個盧德派社區,他們在許多顛覆現代的事情上表現得相當不錯。COVID就是其中一個,對吧?是的,COVID期間,他們表現得相當好。非常快樂的人,低自閉症率。他們有各種優勢。所以無論如何,我並不是在爭論我們應該像亞米什人那樣生活。我不這樣認為。但我確實認為他們有一個洞見,即你需要脫離那個升降機,因為你會不斷讓自己變得更糟,這個觀點可能是正確的。或許這是一個一次性的變化。我們已經跨過事件邊界,我們將生活在人工智慧的世界中。也許如果我們小心,我們可以找出如何將你描述的那些無限可能的景觀轉變為一個不會改變的地方,你總有機會決定需要做什麼。然而,生活在那個事件邊界之上並不是一個不斷變化的過程。這只是下一個邊界。
我也想提出或問一個問題,當我們談論這個快速變化的世界時,對於年長者而言,學習是否更困難,因為大腦在處理速度和記憶靈活性方面的運作方式?我想知道是否會出現像我父親那樣的情況,因為隨著年齡增長,大腦的記憶靈活性和處理速度會減少,因此他的學習能力會遠遠不及我的姪女。我的姪女能說五種語言,而她才七歲,真是太驚人了。五種語言。我的意思是,大腦的可塑性更強,不是嗎?
這聽起來又回到了我們的進化心理學,還有你知道的進化歷史,我比你了解得少,我們被期望年輕時學習課題,並將這些資訊用於一生。但如果這些資訊變化得如此迅速……這正是我所指的。你的發展環境未能為成年生活做好準備並不是正常的。正常的情況是,作為一名年輕人,你會承擔越來越多的成年人責任。然後在某個時刻,假如在一個正常運作的文化中,會有一個成年禮,你會進入叢林待十天,然後帶著一頭大獵物回來。那麼你就成為成人,然後啟動你所建立的程序。那樣,你會是一個更快樂的人。如果你的生活有這樣的連貫性,會讓你感到更有成就感。
我並不反對這樣的想法:我們讓自己能做到一些在其他限制下無法實現的事。但我們也對自己造成了巨大的傷害。我希望能以某種方式將我們改善福祉的能力與這無止境的變化所造成的自我傷害區分開來。我不知道這是否可能,但我認為這是一個值得追求的目標。
有趣的是,我不知道這是否算是一種反論,但在新冠疫情期間,特別是通過近期的科技變革,有些人開始生活得更接近祖先的環境。有些人的工作是在網上。有些我的朋友去組建社區,類似於集體,有的地方他們生活,創建農場,吃飯,他們有像電子郵件的工作。他們每天工作五個小時的電子郵件工作,然後出去,大家都有孩子,這是一種很迷人的生活。矽谷對我們如何生活進行了很多重新思考。有很多初創公司試圖創建城市,目的是想,好的,我們知道,因為我們的城市並不適合步行而遭受痛苦,有很多原因讓我們感到痛苦。首先,我們得不到運動;第二,步行城市的社交面貌是你能夠與人互動。你會因為恰巧和其他人待在同一地方而交到朋友。讓我們實際上建造步行城市。如果我們想更快地運輸,我們會在城市的邊緣有自駕車在繞行。我認為技術可以讓我們以某種方式生活,從而在更地方性上彌補過去的缺失。我喜歡這個願景,但我也意識到有一種不同的願景。對吧?
例如,你會看到在帕羅奧圖的人們,實際上對他們的孩子接觸手機的程度施加非常強烈的控制。我住在帕羅奧圖。是的,所以你看到了。另一方面,我擔心的是,帕羅奧圖的精英們並意識到他們正在做的是,他們正在尋找減少對自己家庭的傷害的方法,但卻將這種傷害外洩到世界上,而這些技術對其他人來說是無法規範的。因此問題是,如果人工智能革命將改變我們對工作的關係以及一切其他事物的關係,我們能否讓每個人一起前進,以至於在這一過程結束時,並不是說,嗯,你知道,三十億人為這一過渡做出了犧牲。可惜的是,但進步就是進步,我們能真正說,我們解決了這個問題,而每個人現在都以更接近他們的編程的風格生活,更接近他們的身體實際預期。如果這真的成立,那我將不願錯誤地懷疑未來將會發生的事。但不幸的是,市場不會在我們不故意迫使它的情況下解決這個問題。
你最大的恐懼是什麼?你提到我的對未來的恐懼時,你心中浮現的畫面是什麼?哦,這實際上是一個完全不同的話題。我對未來的恐懼,源自於科技和人工智能,這是一個失控的過程,這個失控的過程將與一些潛伏的人類程序非常不相容。實際上,對工人的需求在很大程度上消失,而主導導致工人需求消失的過程的人們開始談論無用的吃貨。他們可能會幫助產生一個新的術語。剔除群體。對。或者他們允許群體被剔除或其他什麼。布雷特,我曾聽你提到過你關心的五個主要問題或威脅。你能說出那五個嗎?
第一個是我最少擔心的問題。我不零擔心它,但相對於其他問題我最少擔心的問題,也就是那些悲觀主義者如此專注於的邪惡人工智能。第二個是這個想法,人工智能不一定會出現錯位,並非因為它有不同的利益,而是因為它只是誤解你對這些自主代理所要求的東西。你知道的,那個著名的例子是你要求它們製造儘可能多的回形針,而它們開始液化整個宇宙來製造回形針。
而且你知道,這是一個魔法學徒的問題。我會說第三個問題其實是剩下的問題都可以被保證,而其中第三個是人類智力的混亂,因為我們已經生活在一個很難知道事實本身意味著什麼的世界裡,對吧?事實被過度過濾,並且我們被算法所說服,以至於,即使在我們自己的學科中,有時我們對基本事實的信心也是前所未有的低,並且情況在變得更糟。當你有能力生成無法檢測的深度偽造時,這個問題就會向前邁出一大步,對吧?當你看到有人搶銀行的錄影帶,但這並不意味著他們真的搶了銀行,或者銀行根本就被搶了,這將徹底改變世界。
所以,總而言之,我稱之為「卡片」。順便說一句,我們經常處理這個問題。我想每週,我每週都會發給我的聊天群組裡的人,現在基本上花費30%的時間來處理關於我的深度偽造,做加密詐騙,邀請人們進入Telegram群組,然後要求他們提供信用卡詳細信息。我們在X上看到過一次。我想你大概看到了,是嗎,Dan?有人在X上做了我的深度偽造廣告。而且不止一個廣告。就像擊打蒼蠅一樣。總共有10個,我發訊息給X,結果又有10個。然後隔天又有10個。接著又過了幾天又出現10個。然後開始在Meta上發生這些事情。
所以,有一個顯示我在基本上邀請你加入一個Telegram群組的视频,裡面的人正在被騙,我的觀眾也在被騙。當我發給Meta時,他們感謝地將其刪除。但隨後又有五個。所以,我昨天上LinkedIn時,我的私訊裡,Steve,順便說一下,有這種新詐騙。實際上,這時候我需要一個全職人員專門把這些發送給Meta。我的情況也是類似,但規模較小。每週都會有人問我,妳真的在Facebook上發訊息給我要求提供我的加密錢包嗎等等等等。我最不喜歡的是,有一位單親媽媽給我發訊息,說她剛剛用自己的500英鎊付了錢,並且她感到非常沮喪。我感到一種道德義務要把錢退還給她,因為她受到了某種詐騙。那是我。那是我的聲音。那是一個我告訴她東西的視頻。而我不知道,我不知道你怎麼處理這件事,但抱歉,請繼續。
好吧,我意思是,這其實在這裡的清單上。對於事物運作方式的巨大擾動,不僅因為會有大量人失業,還因為那些不遵循我們社會契約的人將比遵循的人有更多的權力。所以在這種情況下,不僅這位可憐的女士,現在失去了500美元,她不知道這個詐騙是什麼,但即使你償還了她所認為自己已經購買的東西,你也已經被剝奪了。你的可信度正被某人偷走,而你卻無能為力。這一點我也經歷過,這讓人深感不安。而這只是AI使那些絕對願意縮小我們所有人共享的蛋糕以擴大他們那一片的十幾種不同方式中的一種。你知道,這可能會有無數的方式發生。我認為人們看不到這個現象。他們不理解他們將被剝奪的包羅萬象,這確保就像有人在印鈔票一樣。
然後最後一個是,這只是簡單地加速了人口過程,這可能會導致釋放那些在AI之前就已經存在的技術。你知道,這很容易導致局勢升級為核戰爭。因此,無論如何,隨著我們在AI時代花了些時間,我認為這份清單現在可能會得到擴展。我們可以開始給這個時代中的可能性和我們應該害怕的東西增加一些實質內容。其中之一,你提到了真相,真相的問題。就做個思考實驗,今天,比如說一位平均的受過大學教育的人,他們是不是比蘇聯俄國的人更容易被宣傳或誤導?我不太清楚,因為我沒有生活在蘇聯俄國。但根據那些生活過的人,我的理解是,那裡對宣傳不真實的廣泛認知。這並不意味著他們知道該相信什麼。但存在一種冷漠,這是我在這裡擔心的之一,即你真的被迫在兩個壞選擇之間做出選擇。在一個你無法分辨真假的世界裡,你可以過於輕信,總是當傻瓜,或者你可以變得愤世嫉俗,因為你不相信任何東西而感到麻痺。但這兩者都不是良策。
你認為Google搜索,或者現在的ChatGPT,對於人們尋找真相的幫助是更多還是更少?我認為這不完全是ChatGPT,而是所有各種AI引擎在某種程度上提升了我們辨別真相的能力,因為事實上,它們使我們能夠透視算法操縱,因為AI並未受到良好監管。你可以讓它識別出一些人會發誓不正確的模式。因此,無論如何,我們當中很多人發現它有用,可以簡單地解除對我們的困擾。所以這是非常積極的。但我也記得搜索的早期日子,搜索的過程曾經是,還有一些頁面在那裡。我不知道它們在哪裡。
這裡有一種機械化的東西,它透過這些資料來尋找,然後只需要指引我找到包含這些詞語的方向,對吧,在算法操作開始引導我們相信純粹的胡說八道之前,因為某個控制這些事物的人決定讓我們相信這些事情對我們有利。因此,我猜目前人工智能正在提升我們看得更清楚的能力,但這真的取決於某種協議來保護這種能力,而我不清楚我們是否擁有這樣的協議。安吉拉,你暗示人工智能會保護我們免受人工智能的侵害,也就是說,觀眾中被詐騙的女性,這些平台將內建一種工具,能夠迅速識別這不是我,而廣告可能是由其他國家的人發佈的。然後當她十分鐘後在Telegram上被要求提供她的信用卡詳細資料時,系統也能理解那很可能在那個接觸點上是一種詐騙。而這不僅是進攻,還是防守。首先,問題是Meta是否有動機解決這個問題?是的。因此,Meta可能正在積極研究人工智能。而且,這將像每一次的濫用行為一樣,是一場貓鼠遊戲。所以我認為市場將自然地對這些事物做出反應。就像我們安裝防毒軟體一樣,儘管這些軟體令人厭煩,但我認為我們會在計算機上安裝人工智能,讓我們至少能夠分辨虛假與真實。那麼,讓我們舉個你所說的例子。Meta是否有動機解決這個問題?表面上看似應該有。但在最近的歷史上,我們有多少次看到一家企業因為股東奇怪的需求而自吞其業務?為什麼X要驅逐擁有大帳戶的人,有Facebook或Google?根據市場選擇搜索引擎或社交媒體網站,你會期待這些公司完全是擴利主義者並說,你知道的,如果亞歷克斯·瓊斯擁有一個龐大的觀眾,那我們又算什麼?這是我本來的預期。相反,你會看到這些公司在監管思想的道德,儘管這減少了使用這些平台的人數。我很難解釋為什麼會發生這種情況,但我有充分的理由期望在人工智能的情況下會發生同樣的事。你對人工智能感到興奮的是什麼?你的樂觀看法是什麼?因為在這次談話開始時,你提到有無限的方式可以改善我們的生活,而有十倍以上的方式可能傷害我們的生活。但讓我們來探討一些可以大幅改善我們生活的方式。有幾種不同的方式。一個,正如我們之前提到的,我們缺乏合格的教師和教授。這是一個問題,若要解決,至少需要三代人,如果我們明天開始著手,開始以正確的方式教育人,讓他們能夠勝任站在課堂前教育他人。但是,如果我們能夠增強這一過程,如果我們能夠利用像人工智能這樣的工具,讓少數合格的教師能夠接觸到更多的學生,那是可行的,我想。第二點是,我們面臨著大量的問題,這些問題妨礙了我們在這個星球上良好生活,而人工智能可能能夠管理這些人類智慧無法獨自解決的問題,對吧?就像計算能力可以以人類無法跟上的速度計算某些事物,而有些事情需要非常出色的計算。一些推理問題也是如此。你可以想像,而不是擁有靜態法律因為被利用而錯誤地治理行為,你可以擁有一種動態互動。你可以指定某種法律的目標,然後可以監控某個特定干預是否成功引導你朝著你希望的方向邁進,或者做了一些矛盾的事情,這種事經常發生。而且你基本上可以有針對導航和原型設計的治理,而不是為我們的生活規劃藍圖。因此,我們不需要政治家。目前,我們受制於宪法保护,而宪法保护在结构上已尽善尽美,但仍然不足以适应现代现实。丹,你從個人層面以及社會層面對人工智能感到興奮的是什麼?嗯,最大的問題是醫療保健和教育。我的意思是,坐在那裡感到痛苦,做了MRI,但卻還沒有人查看MRI並告訴你該怎麼做,這太荒謬了。而這可以輕易地解決。全世界有各種各樣的醫療問題,而且不僅如此,所有地方都沒有全科醫生,也沒有醫療顧問。全球醫療的突破將是非凡的,而全球教育的突破可能會在這個星球上轉型。我在個人層面上感到興奮,因為我認為工業時代創造了一堆去人性化的工作,我們只是習慣了並忍受了它們。工作應該是重複性的,並且你只需一遍又一遍地重複同樣的循環,在十年內,你或許能夠升一級,這類事情,我認為這並不是非常人性化。你可以同時寫書、創辦企業、管理團隊、舉辦節日、舉辦活動,你實際上可以這樣像是做一個迷你王國的工作,周圍有一個小的生態系統,充滿你參與的有趣事物。
這對於絕大多數人來說,其實是可行的,只要他們擁抱這些工具。
你可以過上非常充實、令人驚艷且有影響力的生活,或者我知道我這樣做,
因為這些工具在我的生活中扮演著重要角色。
比如說,我正在做一些我小時候只能夢想的事情。
那麼你對企業家怎麼說?
我知道你與成千上萬的企業家合作。
你在與他們探討當前事業或未來商業機會時給了他們什麼建議?
我認為小型團隊現在擁有無限的杠桿作用,當你有一個由五到十個人組成的團隊,
他們對於一個有意義的問題擁有非凡的熱情,並且想看到這個有意義的問題得到解決,
當他們團結在創業精神下來解決這個問題時,這個五到十人的小團隊,
憑藉我們現在擁有的技術,你可以產生巨大的影響。
你可以賺很多錢,可以玩得很開心,可以解決世界上的有意義問題,
可以擴大解決方案,在三年的時間裡,你可能能做到的比大多數人三十年的職業生涯還要多。
然後這小團隊的五到十個人可以一起去探索一個新的有意義的問題,
或者他們可以解散,然後與不同的團隊一起解決其他的有意義的問題。
在這種擁有無限杠桿的世界裡,但其他所有人也能獲得相同的無限杠桿,那麼獨特的賣點是什麼?
回到護城河的概念,當我們都有機會接觸到 20 美元的無限杠桿時,
真正有價值的事物是什麼呢?
首要的,你需要理解的是,這個時刻是競爭最少的時刻。
如果你了解如何使用這些工具,你可以明天就開始賺錢。
我看到無數例子,大家通過我提到的這些方式賺取了數千美元,
或打造了在存在的幾個月內能夠創造數百萬美元的企業。
所以我會說,現在就開始行動,開始構建東西。
這是一個前所未有的財富創造時期。
顯然,隨著市場變得更加高效,越來越多人了解如何使用這些工具,
快速創建這些大型企業的潛力會減少。我們也見過,比如說,
網際網路或網路的黎明,創建 Facebook 比現在容易得多。
然後出現了手機。在三、四、五年的時間內,創建大型企業非常容易,
然後事情變得更加困難。在接下來的幾年裡,站在可能性的邊緣將非常重要,
這讓我感到非常興奮,因為注意力集中的企業家會享受到最多的樂趣,
但他們也將能夠賺取大量金錢。
到目前為止,有多少應用程序是在 Replit 上構建的?
所以,你知道,自我們創辦公司以來,已經有數百萬的東西被構建了。
但自從九月份我們推出 Replit Agent 以來,已經有大約三百萬個純粹用自然語言建造的應用程序,
完全沒有編碼,純粹是自然語言。
在這些中,我認為有三十萬到四十萬個應用程序是真正部署在現實中的,
網站已經上線,人們正在使用,某種業務、某種內部工具。
對了,我昨晚也構建了一個。
一個內部工具嗎?
我構建了一個應用程序來跟蹤我的孩子們如何賺取零花錢。
太棒了。
所以我只是告訴它,我想跟蹤家庭中發生的任務並為其分配價值。
我希望能在一周結束時按一個按鈕,得到每個孩子的零花錢摘要。
我們真的很糟糕。
在十五分鐘內,它創建了這個應用程序。
而且非常驚人。
例如,你可以切換到這是孩子們的地方,這是每周報告,這是每項任務的報酬,你可以勾選任務、
移除任務或添加任務。
所以我現在擁有這個應用程序,這只花了十五分鐘來說明我想要的,
現在我有了一個用來管理家庭零花錢的應用程序。
對了,這是一個多年前經營 IT 代理時的事情,
我們會收取五千到一萬英鎊的費用來創建,五千到一萬美元。
而所需的時間呢?
可能得花三到四周的時間。
我們現在正處於你所描述的 S 曲線的起點,而現在的費用,如果是 20 美元,
Replit 大約是每月 20 美元。
25 美元。
對於基本情況,你使用了一天。
假設它是 1 美元。
是的。
現在的成本是幾分鐘和一美元,而我們目前正處於 S 曲線的起點。
而且你與它對話就像是在和開發者聊天。
開發過程中放慢速度的一個原因是,你必須把信息發送給開發者,
他們需要理解它,然後創建東西,再回到你這裡。
這一切就在你眼前發生,並且實際上是展示著正在建造的內容。
這真的很神奇。
這一個變化改變了我和我的團隊如何移動、訓練和思考自己身體的方式。
當丹尼爾·利伯曼博士在《日記中的走馬燈》節目中出現時,他解釋了現代鞋子,
因為擁有對腳的緩衝和支撐,反而使我們的腳變得更弱,更無法完成自然本應讓它們做到的事。
我們失去了腳的自然力量和靈活性,這導致了背痛和膝蓋痛等問題。
我已經購買了一雙Viva Barefoot鞋子,所以我把它們展示給丹尼爾·利伯曼看,他告訴我這正是幫助我恢復自然足部動作並重建力量的鞋子。但我認為我得的是跟腱炎,突然之間我的雙腳開始時常疼痛,之後我決定用Viva Barefoots來加強自己的腳步。來自利物浦大學的研究也支持這一點。他們顯示,穿著Vivo Barefoot鞋子六個月可以增加足部力量高達60%。請訪問vivobarefoot.com/doac,並使用我的贊助商提供的代碼DIARY20可享受8折優惠。強壯的身體始於強壯的雙腳。這是前所未有的。由全球100位頂尖CEO運營的新聞簡報。時常,人們對我說:“你能指導我嗎?你能讓這個人指導我嗎?我該如何找到導師?”所以我們要做的就是,你發送給我一個問題,然後我會將你發給我的最受歡迎的問題發送給100位CEO,其中一些是擁有1000億美元公司的頂尖CEO,接著我會通過電子郵件告訴你他們對該問題的回答。你可能會問:“當我建立初創企業時,如何維持一段關係?”“如果我有一個想法,但不知道從何開始,最重要的事情是什麼?”我們將問題發送給CEO,他們會回覆,我們將挑選五、六個最佳答案,然後發送給你。起初我很緊張,因為我擔心市場營銷可能與現實不相符,但當我看到創始人的回覆以及他們的回應意願時,我想:“其實這真的是很好。”而你所需要做的就是註冊。完全免費。我認為我們並沒有花很多時間來討論自動化武器。這是我真正擔心的事情。人們對AI的擔憂在於,它是一種新興系統,背後並沒有一個具體的東西。它的行為可以是不可預測的,而不是由人類引導的。我也認為這對於企業和政府也是如此。因此,我認為個人通常有最好的意圖,但集體往往會以有害或道德上令人厭惡的方式行事。我們曾經談到中國與美國,這會產生一種賽跑的動態,使得他們都受到激勵地走捷徑,潛在地做一些有害的事情。在地緣政治和戰爭的世界裡,真正讓我感到害怕的是自動化武器。這讓你感到害怕的理由是什麼?你知道,你可以想象無人機對著某人的臉進行訓練。你可以發送一群無人機,它們可以作為一種自動化的殺傷、暗殺機器。在戰爭的世界裡,它可以作為國家對國家的技術,這仍然是瘋狂的。但它也可能成為政府用來壓迫公民的工具。人們認為我們在西方是安全的,但我認為COVID的經歷顯示,即使是西方的系統也可以迅速變得殘酷。顯然,我聽說在伊朗,他們有面部識別攝像頭,可以檢測女性在自己汽車裡是否戴著頭巾,如果你在開車而沒有戴頭巾,就會自動拘留汽車。如果你確定是在街上走,那麼它立即識別,讓你陷入困境。這就像一個警察和法官。基本上,它是法官、陪審團和執行者,它瞬間就會發生。在加拿大也發生過卡車司機抗議的事件,他們因為在那裡而凍結了銀行帳戶。僅僅因為在那個地點。在伊朗,他們實施了一個綜合監視系統以執行其強制性頭巾法律,利用各種技術,其中之一就是相機和面部識別。因此,他們在公共空間設置攝像頭,以識別不遵循頭巾著裝規定的女性。倫敦剛剛在倫敦及全威爾士實施了那些面部識別系統,並且正在迅速推廣。你只需要一個希望實施類似措施的政府變更,而所有基礎層技術已經準備就緒。在伊朗的情況會更糟,因為他們有一個新的應用程式叫Nizar應用程式,政府推出了Nizar移動應用程式,允許您作為公民舉報不戴頭巾的其他公民。它記錄他們的不戴頭巾的地點、時間和車輛牌照。通過眾包數據,它可以針對該個體。我還想指出的是,我認為我們沒有足夠的想像力。我同意你,我對這些自動化武器有相同的擔憂,但我也認為這不必在戰爭或政府壓迫的背景下發生,這完全可以想象,它實際上會降低無法被檢測或起訴的犯罪的成本。或許經濟護城河以人們消滅競爭對手或任何試圖與他們競爭的人回歸,使用無法追溯的自動化無人機,通過面部識別追蹤,且你知道,實際上你不需要殺死很多人,就能讓其他人了解到這是一個不應隨便進入的區域。因此,我可以想象,實際上是一種新的高科技有組織犯罪,保護非法集團並賺取大量金錢,並壓迫那些沒有做錯事的人。2023年,在所有事情開始升溫的時候,我和穆斯塔法·所羅門在播客上進行了對話。他是微軟AI的CEO。你對穆斯塔法熟悉嗎?當然。
好的。有一件他當時對我說的事情是:「我最害怕的事之一,就是一小群想要造成傷害的人會獲得能立即使我們的世界不穩定的工具。這就是挑戰。如何阻止這些可能造成傷害或潛在致命的東西。這就是我們需要設置防範的地方。」這聽起來有點像你所說的,Amjad,我們現在將擁有這些工具。你談論的是軍事背景,但正如Brett所說,甚至更小的群體,例如,我不知道,卡特爾或幫派,可能也會造成相似的傷害。目前,在自動武器方面,美國和中國都在重金投資於人工智慧驅動的武器、自動駕駛無人機和網絡戰,因為他們害怕對方先獲得這些技術。我們談到了我們生活中有多少東西是在互聯網上運行,但網絡武器和可能被用來摧毀中國的X、Y或Z的網絡AI代理,或反之,都是非常令人擔憂的。
是的。我認為這一切都是非常令人擔憂的。與Mustafa不同,我不認為防範是可能的。部分原因是美國、中國、企業和個人之間這種博弈論體系的競爭使得這項技術已經無法收回,真的很難把它重新裝回袋子裡。我曾問過他這個問題,我記得他的回答因為那對我而言是一個如此直白的時刻。我對Mustafa說:「你認為有可能防範嗎?」他回答:「我們必須。」所以我再次問他,「你認為有可能防範嗎?」他回答:「我們必須。」我再次問他,「你認為這有可能嗎?」他說:「我們必須。」
這種思考鏈的問題在於,它可能導致一種壓迫性的系統。有一位AI的悲觀者或哲學家,我尊重他的工作。他的名字是Nick Bostrom。他試圖思考我們可以如何防範AI的方式。他提出的點子或許比AI能提出的還要壓迫性,這就像是一個全面監控的國家。你需要在計算機上對人們進行全面監控,監控人們的電腦和想法,以避免發明AI或AGI。這就像是收繳槍支一樣。
對,沒錯。我是說,對於任何技術的防範總是存在這個問題,你確實需要壓迫和嚴厲的政策來實現這一點。
你還有其他任何與AI相關的擔憂或擔心,除了自動武器之外嗎?
你知道,我們談到了出生威脅危機。我認為那裡更廣泛的問題是通過虛擬現實創造虛擬環境,每個人都生活在自己創造的宇宙中。這是如此誘人。甚至創造模擬工作和模擬掙扎,以至於你真的不需要離開這個世界。因此,我們每個人都將變得自我中心,類似於《駭客任務》。就像《玩家一號》。
《玩家一號》。我們都處於那個更糟糕的情況,至少《玩家一號》是一個大規模互聯的環境。我所說的是AI為我們模擬一切。因此,你實際上就處於矩陣中,也許這是一種相似的思考。我享受這個偉大的模擬。
是的。所以,你對費米悖論熟悉嗎?
不,我不熟悉。
費米悖論是教授費米提出的問題。他問,如果宇宙如此浩瀚,那麼外星人在哪裡?人類的存在讓你可以推斷出其他文明的存在。如果他們存在,那麼我們為何看不見他們?這就激發了一系列的費米解釋。我不知道,你可以在互聯網上找到數百種解釋。其中一個是那種家貓的思想實驗,實際上外星人存在,但他們將我們放在像阿米什人一樣的某個時間環境中,不讓我們接觸外面的世界。所以我們是寵物。也許他們正在觀看我們,並享受我們所做的事,阻止我們傷害自己。
阻止我們傷害自己。有這麼多事情,但我認為可能成為費米悖論解決方案之一的,也是最悲哀的結果是,文明不斷進步,直到他們發明出會將我們鎖定在無限快樂和無限模擬中的技術,以至於我們沒有動力去太空尋找潛在的其他外星文明。或許這是人類的一種確定結果,或者是任何類似人類的物種高度可能的結果。我們喜歡快樂。快樂和痛苦是主要的動機。因此,如果你創造了一個無限快樂的機器,是否意味著我們僅僅是待在虛擬現實環境中,任一切為我們打理,實際上就像《矩陣》?
在這種情況下,真實的世界會很糟。
是的,那將是可怕的。費米悖論的另一個更簡單的解釋是,你產生足夠的技術,讓你能夠毀滅自己的物種。從那一點開始只是一個時間問題,我們可以討論核武器,也可以談論AI,但某些技術,如果我們繼續在那個升降梯上,是否會最終……
任何能讓你離開這個星球的東西都能讓你摧毀這個星球。
正是如此。
我想讓大家分享一下結語和收尾感想。希望在你的結語中,能夠為正在通勤上班的聽眾,或是單親媽媽,或是那些技術水平可能不如我們這個桌子上的人,但仍試圖弄清楚如何在接下來的10、20、30年中過上好日子的人,提供一些具體可行的建議。
好的。
你可以隨意花時間。
我認為我們生活在整個人類歷史上最有趣的時刻。
因此,對於正在收聽的單親媽媽,對於那些不符合科技男孩刻板印象的人,不要假設你無法做到這些事情。如今,在你的工作中,這些東西從未像今天這樣容易獲得。你可以成為一名企業家。你不必承擔巨大的風險去創建一個企業,退出你的工作,去創建一個企業。有無數的例子。我們有一位用戶在一家大型房地產公司擔任產品經理。他構建了一個產品,提升了10%的轉換率,為那家公司創造了數百萬的收入。這個人變成了公司的明星,成為了提升其他人並教導他們如何使用這些工具的人。顯然,這對任何人的職業生涯都是非常有利的。你會獲得晉升,而你為你的家庭、為你的孩子開發軟件的例子也展現了你在家庭中作為企業家的形象。我真的很希望人們能打破創業這一概念的局限。我是說,這是你的播客《首席執行官的日記》。我想你是從與首席執行官的對話開始這個播客的,對嗎?隨著時間的推移,它變成了每個人都可以成為首席執行官。每個人生活中都有某種形式的首席執行官。因此,我認為我們擁有前所未有的工具,可以將這一願景變為現實。
這顯然是一個人類面貌轉變的時刻,我相信這將與農業、文字或電力的發現相媲美。我認為,從各種可能結果的黑暗中看待這一情況,其實也可能是另一個故事的一部分。在進化生物學中,我們討論了適應性景觀,其中一個生態位被表示為一個山峰,而一個更好的生態位則表示為更高的山峰。但是,要從較低的生態位走到較高的生態位,你必須穿越我們所說的適應性谷地。而且,並不能保證你能成功穿越這個適應性谷地。事實上,我們在黑板上所畫的圖,我認為是過於樂觀的,因為它表現為二維,讓人看起來似乎清楚地知道如何攀登下一座山峰。事實上,這更像是那些山峰在霧中像一片群島,你無法確定那座山峰的方向。你不得不推測它可能在那一邊,希望不會因為幾度的偏差而錯過。但是無論如何,這種黑暗正是我們如果要發現人類一個更好階段所期待的。而我認為這一次我們應該非常謹慎。我認為我們應該仔細考慮如何不讓這種全新的、極為強大的技術和市場力量的結合變成某種新的奴役。我並不認為這必須如此。我認為這裡的潛力確實允許我們重新定義幾乎所有事物。也許我們終於到達了這樣一個地方,日常工作不再需要存在,意義的追尋可以取而代之。但如果我們不弄清楚如何實現這一點,這一切是不會自動發生的。我希望我們能認識到,這個時刻的危險如果能激勵我們直接面對這個問題,那便是最好的利用方式。我們每個人都有兩個父母,四個祖父母,八個曾祖父母,16個、32個、64個。你有這樣一條漫長的祖先血脈,他們都必須彼此相遇,他們都必須從戰爭中生存下來,必須從疾病和患難中生存下來。所有這些都必須發生,才能讓我們來到這裡。每一個個體,所有這些事件的發生都是為了讓我們能到這裡。如果我們思考那些數千數萬人的故事,每一個人都會說,如果能夠在這特定的時刻活著,他們會毫不猶豫地換位。他們會說他們的生活充滿了平凡和無意義的工作,也很危險。你知道,我們每個人可能都有被奴役的祖先,可能有太早去世的祖先,可能有在可怕條件下工作過的祖先。我們都有這樣的歷史。他們都會看著這一刻說,哇,所以你在告訴我你有能力解決有意義的問題,提煉出冒險,環遊世界,向你想要接觸的任何人請教?你可以聽播客,可以看視頻,可以與人工智慧對話;你是在告訴我你在這個特定的時刻活著嗎?請好好利用這一時刻,去做些事情。你知道,你可以在這裡思考社會及其運作方式,但最終這一切都歸結於你如何利用這一時刻。解決有意義的問題,勇敢,享受樂趣,為宇宙留下自己的小印記,這才是重點。我感覺我們有責任對祖先們充分利用這一時刻。
非常感謝大家的到來。我學到了很多,並且拓展了我的思考,這也是我想把這一切梳理在一起的主要理由,因為我知道你們都有不同的經歷、不同的教育背景,正在做著不同的事情,但在一起的這個過程幫助我過濾所有的想法,找出自己的立場。我問了很多問題,但我真的相信人類。我在剛才思考這個時候想,難道我對人類在這方面的能力的樂觀僅僅是因為別無選擇?因為正如你所說,替代方案其實不值得思考。所以我對我們將如何應對這一切的樂觀,部分原因是因為我們正在進行這樣的對話。
當我們在歷史上回顧時,並不是每一次新革命的誕生,我們都有它們。當我們思考社交媒體及其帶來的影響時,我們實際上是在追趕這些後續的後果。我充滿希望,也許這是我內心的企業家精神在作祟。我很興奮,也許這也是內心的企業家精神在驅動著我。但同時,對於Brett、Amjad和Dan提出的許多觀點,當我們在一個島嶼與另一個島嶼之間游泳時,會有一些嚴肅的考量。而且因為Brett強調的這種轉變的速度和規模,以及你看看這項技術的增長統計數據,它像野火一樣蔓延,而我一試用Replit,就立刻走了出去,馬上告訴Cozzy,我說,Cozzy,試試這個。她馬上就用上了,並且被吸引住了。然後我打電話給我在峇里島的女朋友,她是呼吸練習的專家。我告訴她在瀏覽器中輸入這個地址,R-E-P-L-I-T。然後她正在為她所有客戶的信息製作呼吸練習的日程,準備她即將進行的靜修。這一切都像野火一樣蔓延,因為我們是互聯網的原生居民。我們對這項技術是原生的。因此,這不是一項新技術,而是建立在對我們來說直觀的事物之上的東西。因此,正如Brett所描述的那樣,從一個高峰到另一個高峰,或者從一個島嶼到另一個島嶼的過渡,我認為將會極度不穩定。
在此領域訪問了眾多領導者,從LinkedIn的創始人Reid Hoffman到谷歌的CEO,以及我提到的Mustafa,他們在很多事情上意見不合。但是他們都一致認同的,以及Sam Altman的看法是,我們社會的長期未來,長期運作的方式將會徹底改變。人們在短期內爭論不休,甚至有時會對中期或時間表爭論不休,但他們都一致認為未來將會完全不同。Amjad,謝謝你所做的事情。我們今天沒有花很多時間這個議題上,而這也是我在這里通常會做的。但你的故事令人非常振奮。你的過去,你所做的,以及你正在建設的東西,都令人非常鼓舞。你正在為孟加拉國、開普敦和舊金山的企業家創造一個公平的競爭平台,使他們能夠將自己的想法變成現實。我認為,僅從這一表面而言,這是一件極其美好的事情,我出生在非洲的博茨瓦納,卻能夠同樣有機會把我的想象變為改變生活的現實,這都要歸功於你們在Replit所做的工作。我強烈建議大家去看看這個平台。你可能會因此熬夜,因為對於像我這樣的人來說,能做到這一點實在太令人上癮了,因為這一直是我整個人生中創造的障礙。我一直不得不打電話給某人來建造某些東西。再次感謝Dan,因為你代表了企業家的聲音,並且作為英國企業家的思想領袖,你真的是成為了一位巨人。在這個視角下,這種平衡是極其重要的。因此,我非常非常感激你一如既往地在這里。你是我們節目的巨型粉絲。Brett,再次感謝你,對於以人性的視角看待複雜的挑戰,你所做的一切都不可勝數。而且你以一種勇氣來面對這些情況,這對我們在這些可能被樂觀情緒帶偏的情況下找到真相是必不可少的。因為有些人可能會因為我們喜愛的奶酪而朝著捕鼠器快速前進。而我認為,在當前這個時期,你是非常重要的抗衡力量和聲音。
感謝你們所有的到來。我真的非常感激。我們會再見。
我覺得非常有趣的是,當我們查看Spotify、Apple和我們的音頻渠道的後端時,大多數觀看這個播客的人還尚未點擊關注按鈕或訂閱按鈕,無論你在哪裡收聽這些內容。我想和你達成一個協議。如果你能給我一個大忙,點擊那個訂閱按鈕,我將不懈努力,從現在到永遠把這個節目做得越來越好。我無法告訴你,當你點擊那個訂閱按鈕時,它有多大的幫助。這個節目會變得更大,這意味著我們可以擴大製作,請來所有你想看到的嘉賓,繼續做我們所熱愛的事情。如果你能幫我這個小忙,點擊關注按鈕,無論你在哪裡收聽這個,對我來說意義重大。這是我唯一會要求你的幫忙。非常感謝你的時間。谢谢。

Will AI replace God, steal your job, and change your future? Amjad Masad, Bret Weinstein, and Daniel Priestley debate the terrifying warning signs, and why you need to understand them now. 

Amjad Masad is the founder and CEO of Replit, the world’s leading online programming environment and community. Daniel Priestley is a serial entrepreneur and advises fast-growing companies on innovation, marketing, and the future of work in the age of AI. Bret Weinstein is an evolutionary biologist, expert in complex systems and host of the DarkHorse Podcast.

In this debate, they explain: 

  • Why AI threatens 50% of the global workforce.

  • How AI agents are already replacing millions of jobs and how to use them to your advantage.

  • How AI will disrupt creative industries and hijack human consciousness.

  • The critical skills that will matter most in the AI-powered future.

  • What parents must teach their kids now to survive the AI age.

  • How to harness AI’s power ethically.

  • 00:00 Intro

    07:14 What Is an AI Agent?

    09:11 Who Is Bret and What Are His Views on AI?

    12:58 Who Is Dan?

    14:42 Where Are the Boundaries?

    15:56 What Could AI Potentially Do?

    17:01 Bret’s Concerns: AI and a New Species

    19:33 The Disruptive Potential of AI in Its Current Form

    20:33 Is AI Just a Tool?

    21:38 Those Who Leverage AI Will Be the Winners

    25:15 What Abuse Are We Currently Seeing?

    30:57 The Collateral Damage of AI

    39:08 What Will Happen to Humans?

    42:15 Which Jobs Will Be Replaced by AI?

    45:34 Could AI Development Affect Western Economies?

    49:00 Is AI Removing Our Agency?

    57:39 Will Authenticity Be More Valued in the AI Era?

    59:16 Will Markets Become Fairer or More Unbalanced?

    1:03:45 The Economic Displacement

    1:05:45 Worldcoin and the Case for Universal Basic Income

    1:11:47 Are We Losing Meaning and Purpose?

    1:14:44 AI’s Impact on Loneliness, Relationships, and Connection

    1:18:57 Can Education Adapt to the AI Era?

    1:26:07 What Should AI Teach Our Children?

    1:31:19 Ads

    1:32:20 Is This Inevitable?

    1:38:18 Will We Start Living Like House Cats?

    1:44:44 Hyper-Changing World: Are We Designed for It?

    1:50:25 The 5 Key Threats of AI

    1:51:51 Deepfakes and AI Scams

    1:59:43 An Optimistic Take on the AI Era

    2:03:37 AI for Business Opportunities

    2:08:34 Ads

    2:10:32 AI Autonomous Weapons

    2:17:59 Do We Live Among Aliens or in a Simulation?

    2:21:31 How to Live a Good Life in the AI Era

    📣 100 CEOs: Ready to think like a CEO? Gain access to the 100 CEOs newsletter here: ⁠https://bit.ly/100-ceos-megaphone⁠

  • Follow Amjad: 

    X – https://bit.ly/3SsT92D 

    Website – https://bit.ly/44y7YIO 

    Follow Daniel:

    X – https://bit.ly/4jZRa1S 

    Instagram – https://bit.ly/3F2Q8mK 

    Website – https://bit.ly/3Ssg6mG 

    Follow Bret: 

    X – https://bit.ly/3EVAHwH 

    You can purchase Daniel’s book, ‘Scorecard Marketing: The four-step playbook for getting better leads and bigger profits’, here: https://amzn.to/45aByEa 

    You can purchase Bret’s book, ‘A Hunter-Gatherer’s Guide to the 21st Century: Evolution and the Challenges of Modern Life’, here: https://amzn.to/4dcJoPU 

    The 1% Diary is back – limited time only:

    https://bit.ly/3YFbJbt 

    The Diary Of A CEO Conversation Cards (Second Edition):

    https://g2ul0.app.link/f31dsUttKKb 

    Get email updates: https://bit.ly/diary-of-a-ceo-yt 

    Follow Steven: https://g2ul0.app.link/gnGqL4IsKKb

    Sponsors:

    Vivobarefoot – https://vivobarefoot.com/DOAC with code DIARY20 for 20% off
    Shopify – https://shopify.com/bartlett

    Learn more about your ad choices. Visit megaphone.fm/adchoices

    Leave a Comment