AI transcript
0:00:06 Yeah. I was convinced we can make safe AI, but the more I looked at it,
0:00:09 the more I realized it’s not something we can actually do.
0:00:13 You have made a series of predictions about a variety of different dates.
0:00:16 So what is your prediction for 2027?
0:00:23 Dr. Roman Yampolski is a globally recognized voice on AI safety
0:00:25 and associate professor of computer science.
0:00:28 He educates people on the terrifying truth of AI
0:00:30 and what we need to do to save humanity.
0:00:35 In two years, the capability to replace most humans in most occupations will come very quickly.
0:00:41 I mean, in five years, we’re looking at a world where we have levels of unemployment we’ve never seen before.
0:00:44 Not talking about 10%, but 99%.
0:00:46 And that’s without superintelligence.
0:00:50 A system smarter than all humans in all domains.
0:00:52 So it would be better than us at making new AI.
0:00:54 But it’s worse than that.
0:00:55 We don’t know how to make them safe.
0:01:00 And yet we still have the smartest people in the world competing to win the race to superintelligence.
0:01:03 But what do you make of people like Sam Ockman’s journey with AI?
0:01:08 So a decade ago, we published guardrails for how to do AI right.
0:01:10 They violated every single one.
0:01:14 And he’s gambling 8 billion lives and getting richer and more powerful.
0:01:18 So I guess if some people want to go to Mars, ours want to control the universe.
0:01:20 But it doesn’t matter who builds it.
0:01:24 The moment you switch to superintelligence, we will most likely regret it terribly.
0:01:27 And then by 2045…
0:01:29 Now this is where it gets interesting.
0:01:32 Dr. Roman Gimpolski.
0:01:33 Let’s talk about simulation theory.
0:01:34 I think we are in one.
0:01:36 And there is a lot of agreement on this.
0:01:39 And this is what you should be doing in it so we don’t shut it down.
0:01:44 First, just give me 30 seconds of your time.
0:01:45 Two things I wanted to say.
0:01:50 The first thing is a huge thank you for listening and tuning into the show week after week.
0:01:51 It means the world to all of us.
0:01:56 And this really is a dream that we absolutely never had and couldn’t have imagined getting to this place.
0:01:59 But secondly, it’s a dream where we feel like we’re only just getting started.
0:02:08 And if you enjoy what we do here, please join the 24% of people that listen to this podcast regularly and follow us on this app.
0:02:09 Here’s a promise I’m going to make to you.
0:02:15 I’m going to do everything in my power to make this show as good as I can now and into the future.
0:02:17 We’re going to deliver the guests that you want me to speak to.
0:02:21 And we’re going to continue to keep doing all of the things you love about this show.
0:02:22 Thank you.
0:02:28 Dr. Roman Gimpolski.
0:02:32 What is the mission that you’re currently on?
0:02:35 Because it’s quite clear to me that you are on a bit of a mission.
0:02:38 And you’ve been on this mission for, I think, the best part of two decades at least.
0:02:45 I’m hoping to make sure that super intelligence we are creating right now does not kill everyone.
0:02:54 Give me some context on that statement because it’s quite a shocking statement.
0:02:55 Sure.
0:03:01 So, in the last decade, we actually figured out how to make artificial intelligence better.
0:03:07 Turns out, if you add more compute, more data, it just kind of becomes smarter.
0:03:16 And so now, smartest people in the world, billions of dollars, all going to create the best possible super intelligence we can.
0:03:24 Unfortunately, while we know how to make those systems much more capable, we don’t know how to make them safe.
0:03:28 How to make sure they don’t do something we will regret.
0:03:31 And that’s the state of the art right now.
0:03:37 When we look at just prediction markets, how soon will we get to advanced AI?
0:03:46 The timelines are very short, a couple of years, two, three years, according to prediction markets, according to CEOs of top labs.
0:03:55 And at the same time, we don’t know how to make sure that those systems are aligned with our preferences.
0:03:58 So we are creating this alien intelligence.
0:04:07 If aliens were coming to Earth and you had three years to prepare, you would be panicking right now.
0:04:11 But most people don’t even realize this is happening.
0:04:17 So some of the counter arguments might be, well, these are very, very smart people.
0:04:19 These are very big companies with lots of money.
0:04:25 They have a obligation and a moral obligation, but also just a legal obligation to make sure they do no harm.
0:04:26 So I’m sure it’ll be fine.
0:04:30 The only obligation they have is to make money for the investors.
0:04:32 That’s the legal obligation they have.
0:04:34 They have no moral or ethical obligations.
0:04:38 Also, according to them, they don’t know how to do it yet.
0:04:42 The state of the art answers are, we’ll figure it out, then we get there.
0:04:44 Or AI will help us control more advanced AI.
0:04:46 That’s insane.
0:04:52 In terms of probability, what do you think is the probability that something goes catastrophically wrong?
0:04:56 So nobody can tell you for sure what’s going to happen.
0:05:01 But if you’re not in charge, you’re not controlling it, you will not get outcomes you want.
0:05:04 The space of possibilities is almost infinite.
0:05:07 The space of outcomes we will like is tiny.
0:05:13 And who are you and how long have you been working on this?
0:05:16 I’m a computer scientist by training.
0:05:19 I have a PhD in computer science and engineering.
0:05:29 I probably started work in AI safety, mildly defined as control of bots at the time, 15 years ago.
0:05:31 15 years ago.
0:05:33 So you’ve been working on AI safety before it was cool.
0:05:35 Before the term existed.
0:05:36 I coined the term AI safety.
0:05:39 So you’re the founder of the term AI safety.
0:05:40 The term, yes.
0:05:40 Not the field.
0:05:43 There are other people who did brilliant work before I got there.
0:05:46 Why were you thinking about this 15 years ago?
0:05:50 Because most people have only been talking about the term AI safety for the last two or three years.
0:05:54 It started very mildly just as a security project.
0:05:56 I was looking at poker bots.
0:06:00 And I realized that the bots are getting better and better.
0:06:06 And if you just project this forward enough, they’re going to get better than us.
0:06:07 Smarter.
0:06:07 More capable.
0:06:09 And it happened.
0:06:11 They are playing poker way better than average players.
0:06:15 But more generally, it will happen with all other domains.
0:06:17 All the other cyber resources.
0:06:22 I wanted to make sure AI is a technology which is beneficial for everyone.
0:06:25 So I started to work on making AI safer.
0:06:31 Was there a particular moment in your career where you thought, oh my God.
0:06:36 First five years at least, I was working on solving this problem.
0:06:38 I was convinced we can make this happen.
0:06:40 We can make safe AI.
0:06:41 And that was the goal.
0:06:46 But the more I looked at it, the more I realized every single component of that equation
0:06:48 is not something we can actually do.
0:06:51 And the more you zoom in, it’s like a fractal.
0:06:53 You go in and you find 10 more problems.
0:06:55 And then 100 more problems.
0:06:58 And all of them are not just difficult.
0:07:00 They’re impossible to solve.
0:07:05 There is no seminal work in this field where like, we solved this.
0:07:06 We don’t have to worry about this.
0:07:07 There are patches.
0:07:10 There are little fixes we put in place.
0:07:13 And quickly people find ways to work around them.
0:07:16 They jailbreak whatever safety mechanisms we have.
0:07:27 So while progress in AI capabilities is exponential or maybe even hyper-exponential, progress in AI safety is linear or constant.
0:07:29 The gap is increasing.
0:07:30 The gap between the…
0:07:39 How capable the systems are and how well we can control them, predict what they’re going to do, explain their decision-making.
0:07:45 I think this is quite an important point because you said that we’re basically patching over the issues that we find.
0:07:56 So we’re developing this core intelligence and then to stop it doing things or to stop it showing some of its unpredictability or its threats.
0:08:01 The companies that are developing this AI are programming in code over the top to say, okay, don’t swear.
0:08:02 Don’t say that read word.
0:08:03 Don’t do that bad thing.
0:08:04 Exactly.
0:08:06 And you can look at other examples of that.
0:08:08 So HR manuals, right?
0:08:10 We have those humans.
0:08:13 They’re general intelligences, but you want them to behave in a company.
0:08:17 So they have a policy, no sexual harassment, no this, no that.
0:08:20 But if you’re smart enough, you always find a workaround.
0:08:25 So you’re just pushing behavior into a different, not yet restricted subdomain.
0:08:30 We should probably define some terms here.
0:08:33 So there’s narrow intelligence, which can play chess or whatever.
0:08:37 There’s artificial general intelligence, which can operate across domains.
0:08:40 And then superintelligence, which is smarter than all humans in all domains.
0:08:41 And where are we?
0:08:46 So that’s a very fuzzy boundary, right?
0:08:50 We definitely have many excellent narrow systems, no question about it.
0:08:52 And they are super intelligent in that narrow domain.
0:08:56 So protein folding is a problem which was solved using narrow AI.
0:08:59 And it’s superior to all humans in that domain.
0:09:06 In terms of AGI, again, I said, if we showed what we have today to a scientist from 20 years ago,
0:09:08 they would be convinced we have full-blown AGI.
0:09:15 We have systems which can learn, they can perform in hundreds of domains, and they’re better than human in many of them.
0:09:19 So you can argue we have a weak version of AGI.
0:09:22 Now, we don’t have superintelligence yet.
0:09:29 We still have brilliant humans who are completely dominating AI, especially in science and engineering.
0:09:31 But that gap is closing so fast.
0:09:40 You can see, especially in the domain of mathematics, three years ago, large language models couldn’t do basic algebra.
0:09:43 Multiplying three-digit numbers was a challenge.
0:09:46 Now, they’re helping with mathematical proofs.
0:09:49 They’re winning mathematics Olympiads competitions.
0:09:55 They are working on solving millennial problems, hardest problems in mathematics.
0:10:01 So in three years, we closed the gap from subhuman performance to better than most mathematicians in the world.
0:10:06 And we see the same process happening in science and in engineering.
0:10:12 You have made a series of predictions, and they correspond to a variety of different dates.
0:10:14 And I have those dates in front of me here.
0:10:19 What is your prediction for the year 2027?
0:10:26 We’re probably looking at AGI as predicted by prediction markets and tops of the labs.
0:10:30 So we’d have artificial general intelligence by 2027.
0:10:35 And how would that make the world different to how it is now?
0:10:46 So if you have this concept of a drop-in employee, you have free labor, physical and cognitive, trillions of dollars of it, it makes no sense to hire humans for most jobs.
0:10:55 If I can just get, you know, a $20 subscription or a free model to do what an employee does, first, anything on a computer will be automated.
0:11:00 And next, I think, humanoid robots are maybe five years behind.
0:11:03 So in five years, all the physical labor can also be automated.
0:11:08 So we’re looking at a world where we have levels of unemployment we’ve never seen before.
0:11:14 I’m not talking about 10% in employment, which is scary, but 99%.
0:11:20 All you have left is jobs where, for whatever reason, you prefer another human would do it for you.
0:11:24 But anything else can be fully automated.
0:11:27 It doesn’t mean it will be automated in practice.
0:11:31 A lot of times, technology exists, but it’s not deployed.
0:11:34 Video phones were invented in the 70s.
0:11:36 Nobody had them until iPhones came around.
0:11:43 So we may have a lot more time with jobs and with world which looks like this.
0:11:49 But capability to replace most humans and most occupations will come very quickly.
0:11:55 Okay, so let’s try and drill down into that and stress test it.
0:12:03 So a podcaster like me, would you need a podcaster like me?
0:12:07 So let’s look at what you do.
0:12:14 You prepare, you ask questions, you ask follow-up questions, and you look good on camera.
0:12:15 Thank you so much.
0:12:16 Let’s see what we can do.
0:12:22 Large language model today can easily read everything I wrote and have very solid understanding.
0:12:25 I assume you haven’t read every single one of my books.
0:12:26 That thing would do it.
0:12:33 It can train on every podcast you ever did, so it knows exactly your style, the types of questions you ask.
0:12:38 It can also find correspondence between what worked really well.
0:12:41 Like this type of question really increased views.
0:12:48 This type of topic was very promising, so you can optimize, I think, better than you can because you don’t have a data set.
0:12:52 Of course, visual simulation is trivial at this point.
0:12:55 So you can make a video within seconds of me sat here.
0:13:06 So we can generate videos of you interviewing anyone on any topic very efficiently, and you just have to get likeness, approval, whatever.
0:13:10 Are there many jobs that you think would remain in a world of AGI?
0:13:14 If you’re saying AGI is potentially going to be here, whether it’s deployed or not, by 2027.
0:13:21 What kind, and then, okay, so let’s take out of this any physical labor jobs for a second.
0:13:26 Are there any jobs that you think a human would be able to do better in a world of AGI still?
0:13:34 So that’s the question I often ask people in a world with AGI, and I think almost immediately we’ll get superintelligence as a side effect.
0:13:43 So the question really is, in a world of superintelligence, which is defined as better than all humans in all domains, what can you contribute?
0:13:47 And so you know better than anyone what it’s like to be you.
0:13:51 You know what ice cream tastes to you.
0:13:53 Can you get paid for that knowledge?
0:13:54 Is someone interested in that?
0:13:57 Maybe not.
0:13:57 Not a big market.
0:14:00 There are jobs where you want a human.
0:14:04 Maybe you’re rich, and you want a human accountant for whatever historic reasons.
0:14:10 Old people like traditional ways of doing things.
0:14:12 Warren Buffett would not switch to AI.
0:14:14 He would use his human accountant.
0:14:17 But it’s a tiny subset of a market.
0:14:24 Today we have products which are man-made in the U.S., as opposed to mass produced in China.
0:14:26 And some people pay more to have those.
0:14:28 But it’s a small subset.
0:14:30 It’s almost a fetish.
0:14:33 There is no practical reason for it.
0:14:38 And I think anything you can do on a computer could be automated using that technology.
0:14:45 You must hear a lot of rebuttals to this when you say it, because people experience a huge
0:14:50 amount of mental discomfort when they hear that their job, their career, the thing they
0:14:54 got a degree in, the thing they invested $100,000 into is going to be taken away from them.
0:14:58 So their natural reaction, for some people, is that cognitive dissonance that, no, you’re
0:15:04 wrong, AI can’t be creative, it’s not this, it’s not that, it’ll never be interested in
0:15:06 my job, I’ll be fine because.
0:15:08 You hear these arguments all the time, right?
0:15:09 It’s really funny.
0:15:13 I ask people, and I ask people in different occupations.
0:15:16 I’ll ask my Uber driver, are you worried about self-driving cars?
0:15:19 And they go, no, no one can do what I do.
0:15:20 I know the streets of New York.
0:15:22 I can navigate like no AI.
0:15:23 I’m safe.
0:15:25 And it’s true for any job.
0:15:30 Professors are saying this to me, oh, nobody can lecture like I do, like this is so special.
0:15:32 But you understand it’s ridiculous.
0:15:35 We already have self-driving cars replacing drivers.
0:15:39 That is not even a question if it’s possible.
0:15:41 It’s like, how soon before you fired?
0:15:46 Yeah, I mean, I’ve just been in LA yesterday and my car drives itself.
0:15:51 So I get in the car, I put in where I want to go, and then I don’t touch the steering wheel
0:15:52 or the brake pedals.
0:15:57 And it takes me from A to B, even if it’s an hour-long drive without any intervention at
0:15:57 all.
0:15:59 I actually still park it.
0:16:02 But other than that, I’m not driving the car at all.
0:16:07 I mean, obviously in LA, we also have Waymo now, which means you order it on your phone
0:16:10 and it shows up with no driver in it and takes you to where you want to go.
0:16:11 Oh, yeah.
0:16:14 So it’s quite clear to see how that is potentially a matter of time.
0:16:18 For those people, because we do have some of those people listening to this conversation
0:16:20 right now, that their occupation is driving.
0:16:27 To offer them a, and I think driving is the biggest occupation in the world, if I’m correct.
0:16:30 I’m pretty sure it is the biggest occupation in the world.
0:16:31 It would be one of the top ones, yeah.
0:16:34 What would you say to those people?
0:16:36 What should they be doing with their lives?
0:16:39 Should they be retraining in something, or what time frame?
0:16:41 So that’s the paradigm shift here.
0:16:45 Before, we always said, this job is going to be automated, retrain to do this other job.
0:16:50 But if I’m telling you that all jobs will be automated, then there is no plan B.
0:16:52 You cannot retrain.
0:16:56 Look at computer science.
0:17:00 Two years ago, we told people, learn to code.
0:17:03 You are an artist, you cannot make money, learn to code.
0:17:08 Then we realized, oh, AI kind of knows how to code and getting better.
0:17:10 Become a prompt engineer.
0:17:13 You can engineer prompts for AIs.
0:17:15 It’s going to be a great job.
0:17:16 Get a 40-year degree in it.
0:17:21 But then we’re like, AI is way better at designing prompts for other AIs than any human.
0:17:22 So that’s gone.
0:17:28 So I can’t really tell you right now the hardest thing is design AI agents for practical applications.
0:17:31 I guarantee you in a year or two, it’s going to be gone just as well.
0:17:37 So I don’t think there is a, this occupation needs to learn to do this instead.
0:17:42 I think it’s more like, we as a humanity, then we all lose our jobs.
0:17:43 What do we do?
0:17:45 What do we do financially?
0:17:47 Who’s paying for us?
0:17:49 And what do we do in terms of meaning?
0:17:54 What do I do with my extra 60, 80 hours a week?
0:17:57 You’ve thought around this corner, haven’t you?
0:17:58 A little bit.
0:18:01 What is around that corner in your view?
0:18:04 So the economic part seems easy.
0:18:09 If you create a lot of free labor, you have a lot of free wealth, abundance, things which
0:18:13 are right now not very affordable become dirt cheap.
0:18:15 And so you can provide for everyone basic needs.
0:18:18 Some people say you can provide beyond basic needs.
0:18:21 You can provide very good existence for everyone.
0:18:24 The hard problem is what do you do with all that free time?
0:18:30 For a lot of people, their jobs are what gives them meaning in their life.
0:18:32 So they would be kind of lost.
0:18:36 We see it with people who retire or do early retirement.
0:18:41 And for so many people who hate their jobs, they’ll be very happy not working.
0:18:43 But now you have people who are chilling all day.
0:18:45 What happens to society?
0:18:50 How does that impact crime rate, pregnancy rate, all sorts of issues?
0:18:57 Nobody thinks about governments don’t have programs prepared to deal with 99% unemployment.
0:19:02 What do you think that world looks like?
0:19:11 Again, I think a very important part to understand here is the unpredictability of it.
0:19:14 We cannot predict what a smarter than us system will do.
0:19:21 And the point when we get to that is often called singularity, by analogy with physical singularity.
0:19:23 You cannot see beyond the event horizon.
0:19:28 I can tell you what I think might happen, but that’s my prediction.
0:19:37 It is not what actually is going to happen because I just don’t have cognitive ability to predict a much smarter agent impacting this world.
0:19:47 When you read science fiction, there is never a super intelligence in it actually doing anything because nobody can write believable science fiction at that level.
0:19:52 They either banned AI like Dune, because this way you can avoid writing about it.
0:19:53 Or it’s like Star Wars.
0:19:58 You have this really dumb bots, but nothing super intelligent ever.
0:20:14 Because by definition, if it was something you could predict, you would be operating at the same level of intelligence, violating our assumption that it is smarter than you.
0:20:20 If I’m playing chess with super intelligence and I can predict every move, I’m playing at that level.
0:20:25 It’s kind of like my French bulldog trying to predict exactly what I’m thinking and what I’m going to do.
0:20:27 That’s a good cognitive gap.
0:20:32 And it’s not just he can predict you’re going to work, you’re coming back, but he cannot understand why you’re doing a podcast.
0:20:36 That is something completely outside of his model of the world.
0:20:39 Yeah, he doesn’t even know that I go to work.
0:20:42 He just sees that I leave the house and doesn’t know where I go.
0:20:44 Buy food for him.
0:20:49 What’s the most persuasive argument against your own perspective here?
0:20:53 That we will not have unemployment due to advanced technology?
0:21:04 That there won’t be this French bulldog human gap in understanding and, I guess, like power and control.
0:21:13 So some people think that we can enhance human minds, either through combination with hardware, so something like Neuralink,
0:21:18 or through genetic engineering, or through genetic re-engineering, to where we make smarter humans.
0:21:19 Yeah.
0:21:23 It may give us a little more intelligence.
0:21:27 I don’t think we’re still competitive in biological form with silicon form.
0:21:31 Silicon substrate is much more capable for intelligence.
0:21:35 It’s faster, it’s more resilient, more energy efficient in many ways.
0:21:38 Which is what computers are made out of versus the brain.
0:21:38 Yeah.
0:21:43 So I don’t think we can keep up just with improving our biology.
0:21:49 Some people think maybe, and this is very speculative, we can upload our minds into computers.
0:21:55 So scan your brain, kind of comb of your brain, and have a simulation running on a computer.
0:21:58 And you can speed it up, give it more capabilities.
0:22:01 But to me, that feels like you no longer exist.
0:22:04 We just created software by different means.
0:22:10 And now you have AI based on biology and AI based on some other forms of training.
0:22:16 You can have evolutionary algorithms, you can have many paths to reach AI, but at the end, none of them are humans.
0:22:23 I have another date here, which is 2030.
0:22:25 What’s your prediction for 2030?
0:22:27 What will the world look like?
0:22:38 So we probably will have humanoid robots with enough flexibility, dexterity to compete with humans in all domains, including plumbers.
0:22:40 We can make artificial plumbers.
0:22:42 Not the plumbers.
0:22:47 That felt like the last bastion of human employment.
0:22:50 So 2030, five years from now, humanoid robots.
0:22:58 So many of the companies, the leading companies, including Tesla, are developing humanoid robots at light speed, and they’re getting increasingly more effective.
0:23:07 These humanoid robots will be able to move through physical space, make an omelet, do anything humans can do.
0:23:10 But obviously have, be connected to AI as well.
0:23:12 So they can think, talk.
0:23:13 Right.
0:23:15 They’re controlled by AI.
0:23:16 They’re always connected to the network.
0:23:21 So they’re already dominating in many ways.
0:23:30 Our world will look remarkably different when humanoid robots are functional and effective, because that’s really when, you know, I start to think, cry.
0:23:43 Like, the combination of intelligence and physical ability is really, really doesn’t leave much, does it, for us human beings?
0:23:45 Not much.
0:23:49 So today, if you have intelligence through internet, you can hire humans to do your bidding for you.
0:23:51 You can pay them in Bitcoin.
0:23:55 So you can have bodies just not directly controlling them.
0:24:00 So it’s not a huge game changer to add direct control of physical bodies.
0:24:01 Intelligence is where it’s at.
0:24:09 The important component is definitely higher ability to optimize, to solve problems, to find patterns people cannot see.
0:24:19 And then by 2045, I guess the world looks even more, which is 20 years from now.
0:24:26 So if it’s still around, Ray Kurzweil predicts that that’s the year for the singularity.
0:24:29 That’s the year where progress becomes so fast.
0:24:36 So this AI doing science and engineering work makes improvements so quickly, we cannot keep up anymore.
0:24:41 That’s the definition of singularity, point beyond which we cannot see, understand, predict.
0:24:45 See, understand, predict the intelligence itself, or?
0:24:47 What is happening in the world?
0:24:49 The technology is being developed.
0:24:56 So right now, if I have an iPhone, I can look forward to a new one coming out next year, and I’ll understand it has slightly better camera.
0:25:01 Imagine now this process of researching and developing this phone is automated.
0:25:06 It happens every six months, every three months, every month, week, day, hour, minute, second.
0:25:12 You cannot keep up with 30 iterations of iPhone in one day.
0:25:18 You don’t understand what capabilities it has, what proper controls are.
0:25:20 It just escapes you.
0:25:24 Right now, it’s hard for any researcher in AI to keep up with the state of the art.
0:25:31 While I was doing this interview with you, a new model came out, and I no longer know what the state of the art is.
0:25:34 Every day, as a percentage of total knowledge, I get dumber.
0:25:41 I may still know more because I keep reading, but as a percentage of overall knowledge, we’re all getting dumber.
0:25:49 And then you take it to extreme values, you have zero knowledge, zero understanding of the world around you.
0:25:56 Some of the arguments against this eventuality are that when you look at other technologies like the Industrial Revolution,
0:26:05 people just found new ways to work and new careers that we could never have imagined at the time were created.
0:26:08 How do you respond to that in a world of superintelligence?
0:26:10 It’s a paradigm shift.
0:26:15 We always had tools, new tools, which allowed some job to be done more efficiently.
0:26:20 So instead of having 10 workers, you could have two workers, and eight workers had to find a new job.
0:26:22 And there was another job.
0:26:25 Now you can supervise those workers or do something cool.
0:26:32 If you’re creating a meta invention, you’re inventing intelligence, you’re inventing a worker, an agent,
0:26:35 then you can apply that agent to the new job.
0:26:38 There is not a job which cannot be automated.
0:26:40 That never happened before.
0:26:46 All the inventions we previously had were kind of a tool for doing something.
0:26:47 So we invented fire.
0:26:49 Huge game changer.
0:26:50 But that’s it.
0:26:51 It stops with fire.
0:26:52 We invent a wheel.
0:26:54 Same idea.
0:26:55 Huge implications.
0:26:58 But wheel itself is not an inventor.
0:27:02 Here we’re inventing a replacement for human mind.
0:27:06 A new inventor capable of doing new inventions.
0:27:08 It’s the last invention we ever have to make.
0:27:10 At that point, it takes over.
0:27:18 And the process of doing science, research, even ethics research, morals, all that is automated at that point.
0:27:20 Do you sleep well at night?
0:27:21 Really well.
0:27:33 Even though you spent the last 15, 20 years of your life working on AI safety and it’s suddenly among us in a way that I don’t think anyone could have predicted five years ago.
0:27:47 When I say among us, I really mean that the amount of funding and talent that is now focused on reaching superintelligence faster has made it feel more inevitable and more soon than any of us could have possibly imagined.
0:27:54 We as humans have this built-in bias about not thinking about really bad outcomes and things we cannot prevent.
0:27:56 So all of us are dying.
0:27:58 Your kids are dying.
0:27:59 Your parents are dying.
0:28:00 Everyone’s dying.
0:28:02 But you still sleep well.
0:28:03 You still go on with your day.
0:28:08 Even 95-year-olds are still doing games and playing golf and whatnot.
0:28:16 Because we have this ability to not think about the worst outcomes, especially if we cannot actually modify the outcome.
0:28:20 So that’s the same infrastructure being used for this.
0:28:25 Yeah, there is humanity-level death-like event.
0:28:29 We’re happening to be close to it probably.
0:28:35 But unless I can do something about it, I can just keep enjoying my life.
0:28:41 In fact, maybe knowing that you have limited amount of time left gives you more reason to have a better life.
0:28:42 You cannot waste any.
0:28:45 And that’s the survival trait of evolution, I guess.
0:28:53 Because those of my ancestors that spent all their time worrying wouldn’t have spent enough time having babies and hunting to survive.
0:28:59 Suicidal ideation, people who really start thinking about how horrible the world is, usually escape pretty soon.
0:29:11 You co-authored this paper, analyzing the key arguments people make against the importance of AI safety.
0:29:17 And one of the arguments in there is that there’s other things that are of bigger importance right now.
0:29:18 It might be world wars.
0:29:19 It could be nuclear containment.
0:29:20 It could be other things.
0:29:25 There’s other things that the governments and podcasters like me should be talking about that are more important.
0:29:27 What’s your rebuttal to that argument?
0:29:31 So superintelligence is a meta solution.
0:29:36 If we get superintelligence right, it will help us with climate change.
0:29:37 It will help us with wars.
0:29:40 It can solve all the other existential risks.
0:29:44 If we don’t get it right, it dominates.
0:29:52 If climate change will take a hundred years to boil us alive and superintelligence kills everyone in five, I don’t have to worry about climate change.
0:29:56 So either way, either it solves it for me or it’s not an issue.
0:29:59 So you think it’s the most important thing to be working on?
0:30:03 Without question, there is nothing more important than getting this right.
0:30:14 And I know everyone says that you take any class, but you take English professor’s class and he tells you this is the most important class you’ll ever take.
0:30:19 But you can see the meta level differences with this one.
0:30:25 Another argument in that paper is that we’ll be in control and that the danger is not AI.
0:30:28 This particular argument asserts that AI is just a tool.
0:30:31 Humans are the real actors that present danger.
0:30:35 And we can always maintain control by simply turning it off.
0:30:37 Can’t we just pull the plug out?
0:30:39 I see that every time we have a conversation on the show about AI.
0:30:40 Someone says, can’t we just unplug it?
0:30:43 Yeah, I get those comments on every podcast I make.
0:30:47 And I always want to get in touch with a guy and say, this is brilliant.
0:30:48 I never thought of it.
0:30:51 We’re going to write a paper together and get a Nobel Prize for it.
0:30:52 This is like, let’s do it.
0:30:54 Because it’s so silly.
0:30:55 Like, can you turn off a virus?
0:30:57 You have a computer virus.
0:30:57 You don’t like it.
0:30:58 Turn it off.
0:30:59 How about Bitcoin?
0:31:01 Turn off Bitcoin network.
0:31:02 Go ahead.
0:31:02 I’ll wait.
0:31:04 This is silly.
0:31:05 Those are distributed systems.
0:31:06 You cannot turn them off.
0:31:08 And on top of it, they’re smarter than you.
0:31:10 They made multiple backups.
0:31:12 They predicted what you’re going to do.
0:31:14 They will turn you off before you can turn them off.
0:31:22 The idea that we will be in control applies only to pre-superintelligence levels, basically
0:31:22 what we have today.
0:31:25 Today, humans with AI tools are dangerous.
0:31:28 They can be hackers, malevolent actors, absolutely.
0:31:34 But the moment superintelligence becomes smarter, dominates, they’re no longer the important part
0:31:35 of that equation.
0:31:41 It is the higher intelligence I’m concerned about, not the human who may add additional
0:31:44 malevolent payload, but at the end still doesn’t control it.
0:31:52 It is tempting to follow the next argument that I saw in that paper, which basically says,
0:31:54 listen, this is inevitable.
0:31:59 So there’s no point fighting against it because there’s really no hope here.
0:32:04 So we should probably give up even trying and be faithful that it will work itself out.
0:32:06 Because everything you’ve said sounds really inevitable.
0:32:10 And with China working on it, I’m sure Putin’s got some secret division.
0:32:12 I’m sure Iran are doing some bits and pieces.
0:32:16 Every European country is trying to get ahead of AI.
0:32:18 The United States is leading the way.
0:32:19 So it’s inevitable.
0:32:22 So we probably should just have faith and pray.
0:32:25 Praying is always good.
0:32:26 But incentives matter.
0:32:31 If you are looking at what drives these people.
0:32:33 So yes, money is important.
0:32:35 So there is a lot of money in that space.
0:32:38 And so everyone’s trying to be there and develop this technology.
0:32:43 But if they truly understand the argument, they understand that you will be dead.
0:32:46 No amount of money will be useful to you.
0:32:47 Then incentives switch.
0:32:49 They would want to not be dead.
0:32:52 A lot of them are young people, rich people.
0:32:53 They have their whole lives ahead of them.
0:32:57 I think they would be better off not building advanced superintelligence.
0:33:02 Concentrating on narrow AI tools for solving specific problems.
0:33:04 Okay, my company cures breast cancer.
0:33:05 That’s all.
0:33:07 We make billions of dollars.
0:33:08 Everyone’s happy.
0:33:09 Everyone benefits.
0:33:11 It’s a win.
0:33:13 We are still in control today.
0:33:15 It’s not over until it’s over.
0:33:19 We can decide not to build general superintelligences.
0:33:23 I mean, the United States might be able to conjure up
0:33:25 enough enthusiasm for that.
0:33:28 But if the United States doesn’t build general superintelligences,
0:33:31 then China are going to have the big advantage, right?
0:33:36 So right now, at those levels, whoever has more advanced AI has more advanced military.
0:33:37 No question.
0:33:39 We see it with existing conflicts.
0:33:44 But the moment you switch to superintelligence, uncontrolled superintelligence,
0:33:46 it doesn’t matter who builds it, us or them.
0:33:50 And if they understand this argument, they also would not build it.
0:33:54 It’s the mutually assured destruction on both ends.
0:33:59 Is this technology different than, say, nuclear weapons, which require a huge amount of investment,
0:34:05 and you have to, like, enrich the uranium, and you need billions of dollars, potentially,
0:34:08 to even build a nuclear weapon.
0:34:14 But it feels like this technology is much cheaper to get to superintelligence, potentially,
0:34:16 or at least it will become cheaper.
0:34:22 I wonder if it’s possible that some guy, some startup, is going to be able to build superintelligence in,
0:34:28 you know, a couple of years without the need of billions of dollars of compute or electricity power.
0:34:29 That’s a great point.
0:34:34 So, every year it becomes cheaper and cheaper to train sufficiently large model.
0:34:39 If today it would take a trillion dollars to build superintelligence, next year it could be a hundred billion,
0:34:40 and so on.
0:34:42 At some point, a guy on a laptop could do it.
0:34:47 But you don’t want to wait four years to make it affordable.
0:34:49 So, that’s why so much money is pouring in.
0:34:53 Somebody wants to get there this year, and lucky in all the winnings.
0:34:55 Light cone level award.
0:35:02 So, in that regard, they’re both very expensive projects, like Manhattan level projects.
0:35:04 Which was the nuclear bomb projects.
0:35:09 The difference between the two technologies is that nuclear weapons are still tools.
0:35:15 Some dictator, some country, someone has to decide to use them, deploy them,
0:35:18 whereas superintelligence is not a tool.
0:35:19 It’s an agent.
0:35:22 It makes its own decisions, and no one is controlling it.
0:35:26 I cannot take out this dictator, and now superintelligence is safe.
0:35:28 So, that’s a fundamental difference to me.
0:35:33 But if you’re saying that it is going to get incrementally cheaper,
0:35:36 like I think it’s Moore’s law, isn’t it, that technology gets cheaper?
0:35:36 It is.
0:35:42 Then there is a future where some guy on his laptop is going to be able to create superintelligence
0:35:46 without oversight or regulation or employees, etc.
0:35:46 Yeah.
0:35:52 That’s why a lot of people are suggesting we need to build something like a surveillance
0:35:58 planet, where you are monitoring who’s doing what, and you’re trying to prevent people from
0:35:59 doing it.
0:36:00 Do I think it’s feasible?
0:36:01 No.
0:36:05 At some point, it becomes so affordable and so trivial that it just will happen.
0:36:08 But at this point, we’re trying to get more time.
0:36:10 We don’t want it to happen in five years.
0:36:11 We want it to happen in 50 years.
0:36:15 I mean, that’s not very hopeful.
0:36:17 Depends on how old you are.
0:36:19 Depends on how old you are.
0:36:26 I mean, if you’re saying that you believe in the future people will be able to make superintelligence
0:36:31 without the resources that are required today, then it is just a matter of time.
0:36:34 Yeah, but so will be true for many other technologies.
0:36:39 We are getting much better in synthetic biology, where today someone with a bachelor’s degree
0:36:41 in biology can probably create a new virus.
0:36:43 This will also become cheaper.
0:36:45 Other technologies like that.
0:36:53 So we are approaching a point where it’s very difficult to make sure no technological breakthrough
0:36:54 is the last one.
0:37:02 So essentially, in many directions, we have this pattern of making it easier in terms of
0:37:05 resources, in terms of intelligence, to destroy the world.
0:37:11 If you look at, I don’t know, 500 years ago, the worst dictator with all the resources could
0:37:12 kill a couple million people.
0:37:14 He couldn’t destroy the world.
0:37:18 Now we know nuclear weapons, we can blow up the whole planet multiple times over.
0:37:26 Synthetic biology, we saw with COVID, you can very easily create a combination virus, which
0:37:27 impacts billions of people.
0:37:30 And all of those things becoming easier to do.
0:37:35 In the near term, you talk about extinction being a real risk, human extinction being a real
0:37:36 risk.
0:37:42 Of all the pathways to human extinction that you think are most likely, what is the leading pathway?
0:37:47 Because I know you talk about there being some issue pre-deployment of these AI tools, like
0:37:55 you know, someone makes a mistake when they’re designing a model, or other issues post-deployment.
0:38:00 When I say post-deployment, I mean, once a chat GPT or something, an agent’s released into
0:38:05 the world and someone hacking into it and changing it and reprogramming it to be malicious.
0:38:11 Of all these potential paths to human extinction, which one do you think is the highest probability?
0:38:15 So I can only talk about the ones I can predict myself.
0:38:20 So I can predict even before we get to superintelligence, someone will create a very advanced biological
0:38:24 tool, create a novel virus, and that virus gets everyone or most everyone.
0:38:27 I can envision it.
0:38:29 I can understand the pathway.
0:38:30 I can say that.
0:38:34 So just to zoom in on that, then, that would be using an AI to make a virus and then releasing
0:38:34 it?
0:38:35 Yeah.
0:38:38 And would that be intentional?
0:38:44 There is a lot of psychopaths, a lot of terrorists, a lot of doomsday cults.
0:38:48 We’ve seen historically, again, they tried to kill as many people as they can.
0:38:49 They usually fail.
0:38:50 They kill hundreds of thousands.
0:38:55 But if they get technology to kill millions or billions, they would do that, gladly.
0:39:02 The point I’m trying to emphasize is that it doesn’t matter what I can come up with.
0:39:05 I am not a malevolent actor you’re trying to defeat here.
0:39:09 It’s the superintelligence which can come up with completely novel ways of doing it.
0:39:12 Again, you brought up example of your dog.
0:39:17 Your dog cannot understand all the ways you can take it out.
0:39:22 It can maybe think you’ll bite it to death or something.
0:39:23 But that’s all.
0:39:27 Whereas you have infinite supply of resources.
0:39:33 So if I asked your dog exactly how you’re going to take it out, it would not give you
0:39:34 a meaningful answer.
0:39:35 We can talk about biting.
0:39:37 And this is what we know.
0:39:39 We know viruses.
0:39:40 We experienced viruses.
0:39:41 We can talk about them.
0:39:49 But what an AI system capable of doing novel physics research can come up with is beyond me.
0:39:54 One of the things that I think most people don’t understand is how little we understand
0:39:57 about how these AIs are actually working.
0:40:01 Because one would assume, you know, with computers, we kind of understand how a computer works.
0:40:03 We know that it’s doing this and then this and it’s running on code.
0:40:09 But from reading your work, you describe it as being a black box.
0:40:15 So in the context of something like ChatGPT or an AI we know, you’re telling me that the people
0:40:19 that have built that tool don’t actually know what’s going on inside there.
0:40:21 That’s exactly right.
0:40:27 So even people making those systems have to run experiments on their product to learn what
0:40:28 it’s capable of.
0:40:31 So they train it by giving it all of data.
0:40:32 Let’s say all of internet text.
0:40:37 They run it on a lot of computers to learn patterns in that text.
0:40:40 And then we start experimenting with that model.
0:40:41 Oh, do you speak French?
0:40:43 Oh, can you do mathematics?
0:40:45 Oh, are you lying to me now?
0:40:51 And so maybe it takes a year to train it and then six months to get some fundamentals about
0:40:55 what it’s capable of, some safety overhead.
0:40:59 But we still discover new capabilities and old models.
0:41:02 If you ask the question in a different way, it becomes smarter.
0:41:11 So it’s no longer engineering how it was the first 50 years where someone was a knowledge
0:41:15 engineer programming an expert system AI to do specific things.
0:41:16 It’s a science.
0:41:19 We are creating this artifact, growing it.
0:41:21 It’s like an alien plant.
0:41:23 And then we study it to see what it’s doing.
0:41:28 And just like with plants, we don’t have 100% accurate knowledge of biology.
0:41:30 We don’t have full knowledge here.
0:41:32 We kind of know some patterns.
0:41:36 We know, OK, if we add more compute, it gets smarter most of the time.
0:41:42 But nobody can tell you precisely what the outcome is going to be given a set of inputs.
0:41:48 I’ve watched so many entrepreneurs treat sales like a performance problem when it’s often down
0:41:53 to visibility, because when you can’t see what’s happening in your pipeline, what stage each
0:41:55 conversation is at, what’s stalled, what’s moving.
0:41:57 You can’t improve anything.
0:41:59 And you can’t close the deal.
0:42:04 Our sponsor, Pipedrive, is the number one CRM tool for small to medium businesses.
0:42:10 Not just a contact list, but an actual system that shows your entire sales process, end to
0:42:14 end, everything that’s live, what’s lagging, and the steps you need to take next.
0:42:16 All of your teams can move smarter and faster.
0:42:21 Teams using Pipedrive are on average closing three times more deals than those that aren’t.
0:42:28 It’s the first CRM made by salespeople for salespeople that over 100,000 companies around
0:42:31 the world rely on, including my team, who absolutely love it.
0:42:36 Give Pipedrive a try today by visiting pipedrive.com slash CEO.
0:42:40 And you can get up and running in a couple of minutes with no payment needed.
0:42:44 And if you use this link, you’ll get a 30-day free trial.
0:42:48 What do you make of OpenAI and Sam Altman and what they’re doing?
0:42:54 And obviously, you’re aware that one of the co-founders, was it Ilya, Jack?
0:42:54 It is.
0:42:55 Ilya, yeah.
0:42:58 Ilya left and he started a new company called?
0:42:59 Super Intelligent Safety.
0:43:06 Because AI safety wasn’t challenging enough, he decided to just jump right to the hard problem.
0:43:15 As an onlooker, when you see that people are leaving OpenAI to start super intelligent safety
0:43:18 companies, what was your read on that situation?
0:43:27 So, a lot of people who worked with Sam said that maybe he’s not the most direct person
0:43:32 in terms of being honest with them, and they had concerns about his views on safety.
0:43:34 That’s part of it.
0:43:36 So, they wanted more control.
0:43:39 They wanted more concentration on safety.
0:43:44 But also, it seems that anyone who leaves that company and starts a new one gets a $20 billion
0:43:46 valuation just for having it started.
0:43:51 You don’t have a product, you don’t have customers, but if you want to make many billions
0:43:53 of dollars, just do that.
0:43:56 So, it seems like a very rational thing to do for anyone who can.
0:44:00 So, I’m not surprised that there is a lot of attrition.
0:44:09 Meeting him in person, he’s super nice, very smart, absolutely perfect public interface.
0:44:14 You see him testify in the Senate, he says the right thing to the senators.
0:44:17 You see him talk to the investors, they get the right message.
0:44:24 But if you look at what people who know him personally are saying, it’s probably not the
0:44:28 right person to be controlling a project of that impact.
0:44:30 Why?
0:44:34 He puts safety second.
0:44:37 Second to?
0:44:43 Winning this race to super intelligence, being the guy who created God and controlling light
0:44:44 cone of the universe.
0:44:45 He’s worse.
0:44:49 Do you suspect that’s what he’s driven by?
0:44:57 Is by the legacy of being an impactful person that did a remarkable thing versus the consequence
0:44:58 that that might have for society?
0:45:04 Because it’s interesting that his other startup is WorldCoin, which is basically a platform
0:45:09 to create universal basic income, i.e. a platform to give us income in a world where
0:45:11 people don’t have jobs anymore.
0:45:12 So, on one hand, you’re creating an AI company.
0:45:16 On the other hand, you’re creating a company that is preparing for people not to have employment.
0:45:21 It also has other properties.
0:45:24 It keeps track of everyone’s biometrics.
0:45:29 It keeps you in charge of the world’s economy, world’s wealth.
0:45:32 They’re retaining a large portion of WorldCoin.
0:45:40 So, I think it’s kind of a very reasonable part to integrate with world dominance.
0:45:45 If you have a super intelligence system and you control money, you’re doing well.
0:45:51 Why would someone want world dominance?
0:45:54 People have different levels of ambition.
0:45:58 Then you’re a very young person with billions of dollars, fame.
0:46:01 You start looking for more ambitious projects.
0:46:03 Some people want to go to Mars.
0:46:05 Others want to control LightCoin of the universe.
0:46:07 What did you say?
0:46:08 LightCoin of the universe?
0:46:09 LightCoin.
0:46:10 LightCoin.
0:46:14 So, every part of the universe light can reach from this point, meaning anything accessible
0:46:18 you want to grab and bring into your control.
0:46:21 Do you think Sam Altman wants to control every part of the universe?
0:46:24 I suspect he might, yes.
0:46:30 It doesn’t mean he doesn’t want a side effect of it being a very beneficial technology,
0:46:32 which makes all the humans happy.
0:46:35 Happy humans are good for control.
0:46:46 If you had to guess what the world looks like in 2100, if you had to guess.
0:46:55 It’s either free of human existence or it’s completely not comprehensible to someone like us.
0:46:58 It’s one of those extremes.
0:47:00 So, there’s either no humans.
0:47:07 It’s basically the world is destroyed or it’s so different that I cannot envision those predictions.
0:47:16 What can be done to turn this ship to a more certain positive outcome at this point?
0:47:20 Is there still things that we can do or is it too late?
0:47:23 So, I believe in personal self-interest.
0:47:28 If people realize that doing this thing is really bad for them personally, they will not
0:47:28 do it.
0:47:33 So, our job is to convince everyone with any power in this space, creating this technology,
0:47:38 working for those companies, they are doing something very bad for them.
0:47:44 Not just, forget our 8 billion people you’re experimenting on with no permission, no consent.
0:47:47 You will not be happy with the outcome.
0:47:52 If we can get everyone to understand that’s a default, and it’s not just me saying it.
0:47:56 You had Jeff Hinton on, Nobel Prize winner, founder of the whole machine learning space.
0:47:58 He says the same thing.
0:48:01 Benji, dozens of others, top scholars.
0:48:06 We had a statement about dangerous of AI signed by thousands of scholars, computer scientists.
0:48:12 This is basically what we think right now, and we need to make it a universal.
0:48:17 No one should disagree with this, and then we may actually make good decisions about what
0:48:18 technology to build.
0:48:24 It doesn’t guarantee long-term safety for humanity, but it means we’re not trying to get there as
0:48:26 soon as possible, to the worst possible outcome.
0:48:29 And are you hopeful that that’s even possible?
0:48:32 I want to try.
0:48:34 We have no choice but to try.
0:48:38 And what would need to happen, and who would need to act?
0:48:39 Is it government legislation?
0:48:43 Unfortunately, I don’t think making it illegal is sufficient.
0:48:45 There are different jurisdictions.
0:48:48 There is, you know, loopholes.
0:48:49 And what are you going to do if somebody does it?
0:48:51 You’re going to fine them for destroying humanity?
0:48:53 Like, very steep fines for it?
0:48:54 Like, what are you going to do?
0:48:55 It’s not enforceable.
0:48:58 If they do create it, now the superintelligence is in charge.
0:49:01 So the judicial system we have is not impactful.
0:49:05 And all the punishments we have are designed for punishing humans.
0:49:09 Prisons, capital punishment doesn’t apply to AI.
0:49:13 You know, the problem I have is when I have these conversations, I never feel like I walk
0:49:18 away with, I hope that something’s going to go well.
0:49:27 And what I mean by that is I never feel like I walk away with clear, some kind of clear set of actions that can course correct what might happen here.
0:49:29 So what should I do?
0:49:32 What should the person sat at home listening to this do?
0:49:36 You talk to a lot of people who are building this technology.
0:49:47 Ask them precisely to explain some of those things that claim to be impossible, how they solved it or going to solve it before they get to where they’re going.
0:49:49 Do you know, I don’t think Sam Altman wants to talk to me.
0:49:51 I don’t know.
0:49:52 He seems to go on a lot of podcasts.
0:49:53 Maybe he does.
0:49:54 He wants to go online.
0:49:58 I wonder why that is.
0:50:08 I’d love to speak to him, but I don’t think he wants me to interview him.
0:50:09 Have an open challenge.
0:50:19 Maybe money is not the incentive, but whatever attracts people like that, whoever can convince you that it’s possible to control and make safe superintelligence gets the prize.
0:50:21 They come on your show and prove their case.
0:50:29 Anyone, if no one claims the prize or even accepts the challenge after a few years, maybe we don’t have anyone with solutions.
0:50:36 We have companies valued, again, billions and billions of dollars working on safe superintelligence.
0:50:39 We haven’t seen their output yet.
0:50:46 Yeah, I’d like to speak to Ilya as well, because I know he’s working on safe superintelligence.
0:50:48 Notice a pattern, too.
0:51:00 If you look at history of AI safety organizations or departments within companies, they usually start well, very ambitious, and then they fail and disappear.
0:51:05 So OpenAI had superintelligence alignment team.
0:51:09 The day they announced it, I think they said they’re going to solve it in four years.
0:51:11 Like half a year later, they canceled the team.
0:51:15 And there is dozens of similar examples.
0:51:23 Creating a perfect safety for superintelligence, perpetual safety as it keeps improving, modifying, interacting with people.
0:51:25 You’re never going to get there.
0:51:26 It’s impossible.
0:51:34 There is a big difference between difficult problems in computer science and pre-complete problems and impossible problems.
0:51:38 And I think control, indefinite control of superintelligence is such a problem.
0:51:40 So what’s the point of trying, then, if it’s impossible?
0:51:44 Well, I’m trying to prove that it is specifically that.
0:51:50 Once we establish something is impossible, fewer people will waste their time claiming they can do it and looking for money.
0:51:54 So many people are going, give me a billion dollars in two years and I’ll solve it for you.
0:51:56 Well, I don’t think you will.
0:52:00 But people aren’t going to stop striving towards it.
0:52:06 So if there’s no attempts to make it safe and there’s more people increasingly striving towards it, then it’s inevitable.
0:52:08 But it changes what we do.
0:52:16 If we know that it’s impossible to make it right, to make it safe, then this direct path of just build it as soon as you can becomes suicide mission.
0:52:18 Hopefully fewer people will pursue that.
0:52:26 They may go in other directions like, again, I’m a scientist, I’m an engineer, I love AI, I love technology, I use it all the time.
0:52:33 Build useful tools, stop building agents, build narrow superintelligence, not a general one.
0:52:35 I’m not saying you shouldn’t make billions of dollars.
0:52:37 I love billions of dollars.
0:52:41 But don’t kill everyone, yourself included.
0:52:47 They don’t think they’re going to, though.
0:52:49 Then tell us why.
0:52:53 I hear things about intuition, I hear things about we’ll solve it later.
0:53:00 Tell me specifically, in scientific terms, publish a peer-reviewed paper explaining how you’re going to control superintelligence.
0:53:02 Yeah, it’s strange.
0:53:06 It’s strange to even bother if there was even a 1% chance of human extinction.
0:53:07 It’s strange to do something.
0:53:15 Like if there was a 1% chance, someone told me there was a 1% chance that if I got in a car, I might not be alive.
0:53:16 I would not get in a car.
0:53:21 If you told me there was a 1% chance that if I drank whatever liquid is in this cup right now, I might die.
0:53:22 I would not drink the liquid.
0:53:28 Even if there was a billion dollars, if I survived.
0:53:31 So the 99% chance that I get a billion dollars, the 1% is I die.
0:53:31 I wouldn’t drink it.
0:53:32 I wouldn’t take the chance.
0:53:34 It’s worse than that.
0:53:35 Not just you die.
0:53:36 Everyone dies.
0:53:37 Yeah.
0:53:37 Yeah.
0:53:40 Now, would we let you drink it at any odds?
0:53:41 That’s for us to decide.
0:53:43 You don’t get to make that choice for us.
0:53:50 To get consent from human subjects, you need them to comprehend what they are consenting to.
0:53:55 If those systems are unexplainable, unpredictable, how can they consent?
0:53:56 They don’t know what they are consenting to.
0:54:00 So it’s impossible to get consent by definition.
0:54:03 So this experiment can never be run ethically.
0:54:08 By definition, they are doing unethical experimentation on human subjects.
0:54:10 Do you think people should be protesting?
0:54:12 There are people protesting.
0:54:13 There is Stop AI.
0:54:14 There is Pause AI.
0:54:16 They block offices of OpenAI.
0:54:21 They do it weekly, monthly, quite a few actions, and they’re recruiting new people.
0:54:23 Do you think more people should be protesting?
0:54:24 Do you think that’s an effective solution?
0:54:31 If you can get it to a large enough scale to where majority of population is participating,
0:54:32 it would be impactful.
0:54:35 I don’t know if they can scale from current numbers to that,
0:54:39 but I support everyone trying everything peacefully and legally.
0:54:43 And for the person listening at home, what should they be doing?
0:54:46 Because they don’t want to feel powerless.
0:54:47 None of us want to feel powerless.
0:54:52 So it depends on what scale we’re asking about time scale.
0:54:56 Are we saying like this year your kid goes to college, what major to pick?
0:54:57 Should they go to college at all?
0:54:59 Should you switch jobs?
0:55:01 Should you go into certain industries?
0:55:02 Those questions we can answer.
0:55:04 We can talk about immediate future.
0:55:09 What should you do in five years with this being created?
0:55:10 For an average person, not much.
0:55:15 Just like they can’t influence World War III, nuclear, Holocaust, anything like that.
0:55:19 It’s not something anyone’s going to ask them about.
0:55:25 Today, if you want to be a part of this movement, yeah, join POS-AI, join Stop-AI.
0:55:35 Those organizations are currently trying to build up momentum to bring democratic powers to influence those individuals.
0:55:38 So in the near term, not a huge amount.
0:55:41 I was wondering if there are any interesting strategies in the near term.
0:55:47 Like, should I be thinking differently about my family, about, I mean, you’ve got kids, right?
0:55:48 You’ve got three kids?
0:55:49 That I know about, yeah.
0:55:50 Three kids.
0:55:54 How are you thinking about parenting in this world that you see around the corner?
0:55:57 How are you thinking about what to say to them, the advice to give them what they should be learning?
0:56:04 So there is general advice outside of this domain that you should live your every day as if it’s your last.
0:56:06 It’s a good advice no matter what.
0:56:09 If you have three years left or 30 years left, you lived your best life.
0:56:15 So try to not do things you hate for too long.
0:56:17 Do interesting things.
0:56:19 Do impactful things.
0:56:22 If you can do all that while helping people do that.
0:56:41 Simulation theory is an interesting sort of adjacent subject here because as computers begin to accelerate and get more intelligent and we’re able to, you know, do things with AI that we can never have imagined in terms of like, imagine the worlds that we could create with virtual reality.
0:56:44 I think it was Google that recently released, what was it called?
0:56:48 Like the AI worlds.
0:56:51 You take a picture and it generates a whole world.
0:56:52 Yeah, you can move through the world.
0:56:54 I’ll put it on the screen for people to see.
0:57:03 But Google have released this technology, which allows you, I think, with a simple prompt, actually, to make a three-dimensional world that you can then navigate through.
0:57:04 And in that world, it has memory.
0:57:08 So in the world, if you paint on a wall and turn away, you look back, the wall.
0:57:08 It’s persistent.
0:57:09 Yeah, it’s persistent.
0:57:12 And when I saw that, I go, God, Jesus, bloody hell.
0:57:19 This is like the foothills of being able to create a simulation that’s indistinguishable from everything I see here.
0:57:22 That’s why I think we are in one.
0:57:24 That’s exactly the reason.
0:57:33 AI is getting to the level of creating human agents, human level agents, and virtual reality is getting to the level of being indistinguishable from ours.
0:57:35 So you think this is a simulation?
0:57:37 I’m pretty sure we are in a simulation, yeah.
0:57:46 For someone that isn’t familiar with the simulation arguments, what are the first principles here that convince you that we are currently living in a simulation?
0:57:50 So you need certain technologies to make it happen.
0:58:10 If you believe we can create human level AI, and you believe we can create virtual reality as good as this in terms of resolution, haptics, whatever properties it has, then I commit right now, the moment this is affordable, I’m going to run billions of simulations of this exact moment, making sure you are statistically in one.
0:58:15 Say that last part again, you’re going to run, you’re going to run.
0:58:20 I’m going to commit right now, when it’s very affordable, it’s like 10 bucks a month to run it.
0:58:23 I’m going to run a billion simulations of this interview.
0:58:24 Why?
0:58:28 Because statistically, that means you are in one right now.
0:58:30 The chances of you being in the real one is one in a billion.
0:58:35 Okay, so to make sure I’m clear on this.
0:58:36 It’s a retroactive placement.
0:58:42 Yeah, so the minute it’s affordable, then you can run billions of them.
0:58:46 And they would feel and appear to be exactly like this interview right now.
0:58:54 So assuming the AI has internal states, experiences, qualia, some people argue that they don’t, some say they already have it.
0:58:56 That’s a separate philosophical question.
0:58:59 But if we can simulate this, I will.
0:59:03 Some people might misunderstand.
0:59:06 You’re not saying that you will.
0:59:07 You’re saying that someone will.
0:59:09 I can also do it.
0:59:10 I don’t mind.
0:59:14 Of course, others will do it before I get there.
0:59:16 If I’m getting it for $10, somebody got it for $1,000.
0:59:18 That’s not the point.
0:59:26 If you have technology, we’re definitely running a lot of simulations for research, for entertainment, games, all sorts of reasons.
0:59:31 And the number of those greatly exceeds the number of real worlds we’re in.
0:59:33 Look at all the video games kids are playing.
0:59:35 Every kid plays 10 different games.
0:59:37 You know, a billion kids in the world.
0:59:40 So there is 10 billion simulations in one real world.
0:59:50 Even more so, when we think about advanced AI, superintelligent systems, their thinking is not like ours.
0:59:51 They think in a lot more detail.
0:59:53 They run experiments.
1:00:03 So running a detailed simulation of some problem at the level of creating artificial humans and simulating the whole planet would be something they’ll do routinely.
1:00:07 So there is a good chance this is not me doing it for $10.
1:00:11 It’s a future simulation thinking about something in this world.
1:00:31 So it could be the case that a species of humans or a species of intelligence in some form got to this point where they could affordably run simulations that are indistinguishable from this.
1:00:33 And they decided to do it.
1:00:35 And this is it right now.
1:00:42 And it would make sense that they would run simulations as experiments or for games or for entertainment.
1:00:50 And also, when we think about time, in the world that I’m in, in this simulation that I could be in right now, time feels long, relatively.
1:00:52 You know, I have 24 hours in a day.
1:00:56 But in their world, it could be…
1:00:57 Time is relative.
1:00:57 Relative.
1:00:58 Yeah, it could be a second.
1:01:01 My whole life could be a millisecond in there.
1:01:01 Right.
1:01:04 You can change speed of simulations you’re eyeing, for sure.
1:01:08 So your belief is that this is probably a simulation?
1:01:09 Most likely.
1:01:13 And there is a lot of agreement on that, if you look again, returning to religions.
1:01:16 Every religion basically describes what?
1:01:24 A super intelligent being, an engineer, a programmer, creating a fake world for testing purposes or for whatever.
1:01:33 But if you took the simulation hypothesis paper, you go to jungle, you talk to primitive people, a local tribe.
1:01:35 And in their language, you tell them about it.
1:01:37 Go back two generations later.
1:01:39 They have religion.
1:01:41 That’s basically what the story is.
1:01:45 Religion, yeah, describes a simulation theory, basically.
1:01:47 Somebody created…
1:01:49 So by default, that was the first theory we had.
1:01:54 And now with science, more and more people are going, like, I’m giving it non-trivial probability.
1:01:58 A few people are as high as I am, but a lot of people give it some credence.
1:02:01 What percentage are you at in terms of believing that we are currently living in a simulation?
1:02:03 Very close to certainty.
1:02:08 And what does that mean for the nature of your life?
1:02:14 If you’re close to 100% certain that we are currently living in a simulation, does that change anything in your life?
1:02:17 So all the things you care about are still the same.
1:02:19 Pain still hurts.
1:02:20 Love still loves, right?
1:02:22 Like, those things are not different.
1:02:22 So it doesn’t matter.
1:02:23 They’re still important.
1:02:24 That’s what matters.
1:02:30 The little 1% difference is that I care about what’s outside the simulation.
1:02:31 I want to learn about it.
1:02:33 I write papers about it.
1:02:34 So that’s the only impact.
1:02:37 And what do you think is outside of the simulation?
1:02:38 I don’t know.
1:02:45 But we can look at this world and derive some properties of the simulators.
1:02:49 So clearly, brilliant engineer, brilliant scientist, brilliant artist.
1:02:52 Not so good with morals and ethics.
1:02:54 Room for improvement.
1:02:57 In our view of what morals and ethics should be.
1:03:00 Well, we know there is suffering in the world.
1:03:07 So unless you think it’s ethical to torture children, then I’m questioning your approach.
1:03:12 But in terms of incentives, to create a positive incentive, you probably also need to create negative incentives.
1:03:19 Suffering seems to be one of the negative incentives built into our design to stop me doing things I shouldn’t do.
1:03:21 So like put my hand in a fire, it’s going to hurt.
1:03:23 But it’s all about levels.
1:03:24 Levels of suffering, right?
1:03:31 So unpleasant stimuli, negative feedback doesn’t have to be at like negative infinity hell levels.
1:03:33 You don’t want to burn a life and feel it.
1:03:35 You want to be like, oh, this is uncomfortable.
1:03:36 I’m going to stop.
1:03:41 It’s interesting because we assume that they don’t have great morals and ethics.
1:03:45 But we too would, we take animals and cook them and eat them for dinner.
1:03:48 And we also conduct experiments on mice and rats.
1:03:53 To get university approval to conduct an experiment, you submit a proposal.
1:03:57 And there is a panel of ethicists who would say, you can’t experiment on humans.
1:03:58 You can’t burn babies.
1:04:00 You can’t eat animals alive.
1:04:02 All those things would be banned.
1:04:04 In most parts of the world.
1:04:07 Where they have ethical boards.
1:04:07 Yeah.
1:04:09 Some places don’t bother with it.
1:04:11 So they have easier approval process.
1:04:16 It’s funny when you talk about the simulation theory, there’s an element of the conversation
1:04:19 that makes life feel less meaningful in a weird way.
1:04:27 Like, I know it doesn’t matter, but whenever I have this conversation with people, not on
1:04:30 the podcast about, are we living in a simulation?
1:04:34 You almost see a little bit of meaning come out of their life for a second.
1:04:36 And then they forget and then they carry on.
1:04:42 But the thought that this is a simulation almost posits that it’s not important.
1:04:47 Or that I think humans want to believe that this is the highest level and we’re at the most
1:04:48 important.
1:04:50 And we’re the, it’s all about us.
1:04:52 We’re quite egotistical by design.
1:04:56 And I just, it’s an interesting observation I’ve always had when I have these conversations
1:04:59 with people that it seems to strip something out of their life.
1:05:02 Do you feel religious people feel that way?
1:05:06 They know there is another world and the one that matters is not this one.
1:05:09 Do you feel they don’t value their lives the same?
1:05:11 I guess in some religions.
1:05:16 I think they think that this world is being created for them and that they are going to
1:05:18 go to this heaven or hell.
1:05:21 And that still puts them at the very center of it.
1:05:27 But if it’s a simulation, you know, we could just be some computer game that a four-year-old
1:05:30 alien is messing around with while he’s got some time to burn.
1:05:37 But maybe there is, you know, a test and there is a better simulation you go to and a worse
1:05:37 one.
1:05:39 Maybe there are different difficulty levels.
1:05:42 Maybe you want to play it on a harder setting next time.
1:05:47 I’ve just invested millions into this and become a co-owner of the company.
1:05:49 It’s a company called Ketone IQ.
1:05:51 And the story is quite interesting.
1:05:55 I started talking about ketosis on this podcast and the fact that I’m very low carb, very,
1:06:00 very low sugar, and my body produces ketones, which have made me incredibly focused, have
1:06:04 improved my endurance, have improved my mood, and have made me more capable at doing what
1:06:04 I do here.
1:06:08 And because I was talking about it on the podcast, a couple of weeks later, these showed up on
1:06:12 my desk in my HQ in London, these little shots.
1:06:20 And oh my God, the impact this had on my ability to articulate myself, on my focus, on my workouts,
1:06:25 on my mood, on stopping me crashing throughout the day was so profound that I reached out to
1:06:26 the founders of the company.
1:06:29 And now I’m a co-owner of this business.
1:06:31 I highly, highly recommend you look into this.
1:06:33 I highly recommend you look at the science behind the product.
1:06:39 If you want to try it for yourself, visit ketone.com slash Stephen for 30% off your subscription
1:06:39 order.
1:06:42 And you’ll also get a free gift with your second shipment.
1:06:45 That’s ketone.com slash Stephen.
1:06:49 And I’m so honored that once again, a company I own can sponsor my podcast.
1:06:53 I’ve built companies from scratch and backed many more.
1:06:56 And there’s a blind spot that I keep seeing in early stage founders.
1:06:58 They spend very little time thinking about HR.
1:07:01 And it’s not because they’re reckless or they don’t care.
1:07:04 It’s because they’re obsessed with building their companies.
1:07:05 And I can’t fault them for that.
1:07:09 At that stage, you’re thinking about the product, how to attract new customers, how to grow your
1:07:10 team, really how to survive.
1:07:14 And HR slips down the list because it doesn’t feel urgent.
1:07:16 But sooner or later, it is.
1:07:20 And when things get messy, tools like our sponsor today, JustWorks, go from being a nice to
1:07:22 have to being a necessity.
1:07:26 Something goes sideways and you find yourself having conversations you did not see coming.
1:07:29 This is when you learn that HR really is the infrastructure of your company.
1:07:31 And without it, things wobble.
1:07:33 And JustWorks stops you learning this the hard way.
1:07:38 It takes care of the stuff that would otherwise drain your energy and your time, automating payroll,
1:07:39 health insurance benefits.
1:07:42 And it gives your team human support at any hour.
1:07:47 It grows with your small business from startup through to growth, even when you start hiring
1:07:48 team members abroad.
1:07:53 So if you want HR support that’s there through the exciting times and the challenging times,
1:07:55 head to JustWorks.com now.
1:07:57 That’s JustWorks.com.
1:07:59 And do you think much about longevity?
1:08:00 A lot, yeah.
1:08:04 That’s probably the second most important problem because if AI doesn’t get us, that will.
1:08:06 What do you mean?
1:08:07 You’re going to die of old age.
1:08:09 Which is fine.
1:08:11 That’s not good.
1:08:11 You want to die?
1:08:13 I mean…
1:08:14 You don’t have to.
1:08:14 It’s just a disease.
1:08:16 We can cure it.
1:08:19 Nothing stops you from living forever.
1:08:22 As long as universe exists.
1:08:24 Unless we escape the simulation.
1:08:28 But we wouldn’t want a world where everybody could live forever, right?
1:08:29 That would be…
1:08:29 Sure we do.
1:08:30 Why?
1:08:31 Who do you want to die?
1:08:33 I don’t know.
1:08:36 I mean, I say this because it’s all I’ve ever known that people die.
1:08:38 But wouldn’t the world become pretty overcrowded if…
1:08:40 No, you stop reproducing if you live forever.
1:08:42 You have kids because you want a replacement for you.
1:08:45 If you live forever, you’re like, I’ll have kids in a million years.
1:08:46 That’s cool.
1:08:48 I’ll go explore the universe first.
1:08:54 Plus, if you look at actual population dynamics outside of like one continent, we’re all shrinking.
1:08:55 We’re not growing.
1:08:57 Yeah, this is crazy.
1:09:03 It’s crazy that the more rich people get, the less kids they have, which aligns with what you’re saying.
1:09:04 And I do actually think, I think if…
1:09:05 I’m going to be completely honest here.
1:09:12 I think if I knew that I was going to live to a thousand years old, there’s no way I’d be having kids at 30.
1:09:12 Right.
1:09:13 Exactly.
1:09:15 Biological clocks are based on terminal points.
1:09:19 Whereas if your biological clock is infinite, you’d be like, one day.
1:09:21 And you think that’s close?
1:09:24 Being able to extend our lives?
1:09:26 It’s one breakthrough away.
1:09:29 I think somewhere in our genome, we have this rejuvenation loop.
1:09:32 And it’s set to basically give us at most 120.
1:09:35 I think we can reset it to something bigger.
1:09:38 AI is probably going to accelerate that.
1:09:41 That’s one very important application area.
1:09:42 Yes, absolutely.
1:09:47 So maybe Brian Johnson’s right when he says, don’t die now.
1:09:49 He keeps saying to me, he’s like, don’t die now.
1:09:50 Don’t die ever.
1:09:53 Because he’s saying like, don’t die before we get to the technology.
1:09:54 Right.
1:09:55 Longevity, escape, velocity.
1:09:58 You want to live long enough to live forever.
1:10:05 If at some point we, every year of your existence, add two years to your existence through medical
1:10:06 breakthroughs, then you live forever.
1:10:10 You just have to make it to that point of longevity, escape, velocity.
1:10:17 He thinks that longevity, escape, velocity, especially in a world of AI is pretty, is pretty, it’s
1:10:19 decades away minimum, which means.
1:10:24 As soon as we fully understand human genome, I think we’ll make amazing breakthroughs very
1:10:24 quickly.
1:10:28 Because we know some people have genes for living way longer.
1:10:30 They have generations of people who are centurions.
1:10:35 So if we can understand that and copy that or copy it from some animals, which will live
1:10:37 forever, we’ll get there.
1:10:38 Would you want to live forever?
1:10:39 Of course.
1:10:42 Reverse, reverse the question.
1:10:45 Let’s say we lived forever and you ask me, do you want to die in 40 years?
1:10:46 Why would I say yes?
1:10:47 I don’t know.
1:10:48 Maybe you’re just used to the default.
1:10:50 Yeah, I am used to the default.
1:10:51 And nobody wants to die.
1:10:53 Like no matter how old you are, nobody goes, yeah, I want to die this year.
1:10:55 Everyone’s like, I want to keep living.
1:11:03 I wonder if life and everything would be less special if I lived for 10,000 years.
1:11:09 I wonder if going to Hawaii for the first time or, I don’t know, a relationship, all
1:11:14 of these things would be way less special to me if they were less scarce.
1:11:16 And if I just, you know.
1:11:20 It could be individually less special, but there is so much more you can do.
1:11:24 Right now, you can only make plans to do something for a decade or two.
1:11:28 You cannot have an ambitious plan of working on this project for 500 years.
1:11:32 Imagine possibilities open to you with infinite time in the infinite universe.
1:11:34 Gosh.
1:11:36 Well, you can’t.
1:11:36 It feels exhausting.
1:11:38 It’s a big amount of time.
1:11:44 Also, I don’t know about you, but I don’t remember like 99% of my life in detail.
1:11:45 I remember big highlights.
1:11:49 So even if I enjoyed Hawaii 10 years ago, I’ll enjoy it again.
1:11:54 Are you thinking about that really practically as in terms of, you know, in the same way
1:11:58 that Brian Johnson is, Brian Johnson is convinced that we’re like maybe two decades away from
1:11:59 being able to extend life.
1:12:01 Are you thinking about that practically?
1:12:02 And are you doing anything about it?
1:12:03 Diet, nutrition.
1:12:08 I try to think about investment strategies which pay out in a million years.
1:12:08 Yeah.
1:12:09 Really?
1:12:10 Yeah, of course.
1:12:11 What do you mean, of course?
1:12:12 Of course.
1:12:12 Why wouldn’t you?
1:12:15 If you think this is what’s going to happen, you should try that.
1:12:19 So if we get AI right, now what happens to economy?
1:12:21 We talked about world coin.
1:12:22 We talked about free labor.
1:12:23 What’s money?
1:12:24 Is it now Bitcoin?
1:12:26 Do you invest in that?
1:12:30 Is there something else which becomes the only resource we cannot fake?
1:12:33 So those things are very important research topics.
1:12:35 So you’re investing in Bitcoin, aren’t you?
1:12:37 Yeah.
1:12:42 It’s the only scarce resource.
1:12:44 Nothing else has scarcity.
1:12:47 Everything else, if price goes up, will make more.
1:12:51 I can make as much gold as you want, given a proper price point.
1:12:53 You cannot make more Bitcoin.
1:12:57 Some people say Bitcoin is just this thing on a computer that we all agreed was valuable.
1:12:58 We are a thing on a computer.
1:13:01 Remember?
1:13:03 Okay.
1:13:07 So, I mean, not investment advice, but investment advice.
1:13:09 It’s hilarious how that’s one of those things.
1:13:12 where they tell you it’s not, but you know it is immediately.
1:13:14 There is a, your call is important to us.
1:13:16 That means your call is of zero importance.
1:13:17 And investment is like that.
1:13:18 Yeah.
1:13:18 Yeah.
1:13:23 When they say no investment advice, it’s definitely investment advice, but it’s not investment advice.
1:13:23 Okay.
1:13:28 So you’re bullish on Bitcoin because it’s, it can’t be messed with.
1:13:34 It is the only thing which we know how much there is in the universe.
1:13:39 So gold, there could be an asteroid made out of pure gold heading towards us, devaluing it.
1:13:41 Well, also killing all of us.
1:13:44 But Bitcoin, I know exactly the numbers.
1:13:48 And even the 21 million is an upper limit.
1:13:49 How many are lost?
1:13:50 Passwords forgotten.
1:13:53 I don’t know what Satoshi is doing with his million.
1:13:58 It’s getting scarcely every day while more and more people are trying to accumulate it.
1:14:03 Some people worry that it could be hacked with a supercomputer.
1:14:06 A quantum computer can break that algorithm.
1:14:11 There is strategies for switching to quantum resistant cryptography for that.
1:14:14 And quantum computers are still kind of weak.
1:14:20 Do you think there’s any changes to my life that I should make following this conversation?
1:14:23 Is there anything that I should do differently the minute I walk out of this door?
1:14:27 I assume you already invest in Bitcoin, haven’t we?
1:14:28 Yes, I’m an investor in Bitcoin.
1:14:30 This is financial advice.
1:14:33 No, just you seem to be winning.
1:14:34 Maybe it’s your simulation.
1:14:35 You’re rich, handsome.
1:14:38 You have famous people hang out with you.
1:14:39 Like, that’s pretty good.
1:14:42 Keep it up.
1:14:43 Yeah.
1:14:50 Robin Hanson has a paper about how to live in a simulation, what you should be doing in it.
1:14:53 And your goal is to do exactly that.
1:14:54 You want to be interesting.
1:14:56 You want to hang out with famous people so they don’t shut it down.
1:15:00 So you are part of a part someone’s actually watching on pay-per-view or something like that.
1:15:05 Oh, I don’t know if you want to be watched on pay-per-view because then you’re going to be the same time.
1:15:06 Then they shut you down.
1:15:07 If no one’s watching, why would they play it?
1:15:12 I’m saying, don’t you want to fly under the radar?
1:15:15 Don’t you want to be the guy just living a normal life that the master is?
1:15:16 Those are NPCs.
1:15:18 Nobody wants to be an NPC.
1:15:20 Are you religious?
1:15:26 Not in any traditional sense, but I believe in simulation hypothesis, which has a super intelligent being.
1:15:30 But you don’t believe in the religious books?
1:15:32 So different religions.
1:15:34 This religion will tell you, don’t work Saturday.
1:15:36 This one, don’t work Sunday.
1:15:38 Don’t eat pigs.
1:15:39 Don’t eat cows.
1:15:41 They just have local traditions on top of that theory.
1:15:42 That’s all it is.
1:15:43 They’re all the same religion.
1:15:46 They all worship super intelligent being.
1:15:49 They all think this world is not the main one.
1:15:52 And they argue about which animal not to eat.
1:15:55 Skip the local flavors.
1:15:58 Concentrate on what do all the religions have in common.
1:16:01 And that’s the interesting part.
1:16:04 They all think there is something greater than humans.
1:16:07 Very capable, all-knowing, all-powerful.
1:16:08 Then I run a computer game.
1:16:11 Four of those characters in the game, I am that.
1:16:13 I can change the whole world.
1:16:14 I can shut it down.
1:16:15 I know everything in the world.
1:16:21 It’s funny, I was thinking earlier on when we started talking about the simulation theory,
1:16:26 that there might be something innate in us that has been left from the creator,
1:16:28 almost like a clue, like an intuition.
1:16:31 Because that’s what we tend to have through history.
1:16:35 Humans have this intuition that all the things you said are true,
1:16:36 that there’s this somebody above.
1:16:40 And we have generations of people who were religious,
1:16:43 who believed God told them and was there and give them books.
1:16:46 And that has been passed on for many generations.
1:16:51 This is probably one of the earliest generations not to have universal religious belief.
1:16:54 I wonder if those people are telling the truth.
1:16:58 I wonder if those people that say God came to them and said something.
1:16:58 Imagine that.
1:16:59 Imagine if that was part of this.
1:17:00 I’m looking at the news today.
1:17:02 Something happened an hour ago.
1:17:04 And I’m getting different conflicting results.
1:17:07 I can’t even get with cameras, with drones,
1:17:09 with a guy on Twitter there.
1:17:10 I still don’t know what happened.
1:17:16 And you think 3,000 years ago we have an accurate record of translations?
1:17:16 No, of course not.
1:17:20 You know these conversations you have around AI safety?
1:17:23 Do you think they make people feel good?
1:17:28 I don’t know if they feel good or bad, but people find it interesting.
1:17:31 It’s one of those topics where I can have a conversation
1:17:34 about different cures for cancer with an average person.
1:17:37 But everyone has opinions about AI.
1:17:38 Everyone has opinions about simulation.
1:17:44 It’s interesting that you don’t have to be highly educated or a genius to understand those concepts.
1:17:50 Because I tend to think that it makes me feel not positive.
1:18:02 And I understand that, but I’ve always been of the opinion that you shouldn’t live in a world of delusion
1:18:09 where you’re just seeking to be positive, have sort of positive things said and avoid uncomfortable conversations.
1:18:16 Actually, progress often in my life comes from having uncomfortable conversations, becoming aware about something,
1:18:19 and then at least being informed about how I can do something about it.
1:18:28 And so I think that’s why I ask the question, because I assume most people should, if they’re normal human beings,
1:18:32 listen to these conversations and go, gosh, that’s scary.
1:18:35 And this is concerning.
1:18:40 And then I keep coming back to this point, which is like, what do I do with that energy?
1:18:47 Yeah, but I’m trying to point out, this is not different than so many conversations.
1:18:55 We can talk about, oh, there is starvation in this region, genocide in this region, you’re dying, cancer is spreading, autism is up.
1:19:00 You can always find something to be very depressed about, and nothing you can do about it.
1:19:06 And we are very good at concentrating on what we can change, what we are good at,
1:19:13 and basically not trying to embrace the whole world as a local environment.
1:19:19 So historically, you grew up with a tribe, you had a dozen people around you, if something happened to one of them,
1:19:20 it was very rare, it was an accident.
1:19:24 And now, if I go on the internet, somebody gets killed everywhere all the time.
1:19:28 Somehow, thousands of people are reported to me every day.
1:19:29 I don’t even have time to notice.
1:19:32 It’s just too much.
1:19:33 So I have to put filters in place.
1:19:40 And I think this topic is what people are very good at filtering as like,
1:19:45 this was this entertaining talk I went to, kind of like a show.
1:19:47 And the moment I exit, it ends.
1:19:54 So usually, I would go give a keynote at a conference, and I tell them, basically, you’re all going to die.
1:19:55 You have two years left.
1:19:55 Any questions?
1:19:59 And people be like, will I lose my job?
1:20:01 How do I lubricate my sex robot?
1:20:06 Like, all sorts of nonsense, clearly not understanding what I’m trying to say there.
1:20:12 And those are good questions, interesting questions, but not fully embracing the result.
1:20:15 They’re still in their bubble of local versus global.
1:20:21 And the people that disagree with you the most, as it relates to AI safety, what is it that they say?
1:20:25 What are their counter arguments, typically?
1:20:29 So many don’t engage at all.
1:20:32 Like, they have no background knowledge in a subject.
1:20:36 They never write a single book, single paper, not just by me, by anyone.
1:20:39 They may be even working in a field.
1:20:43 So they are doing some machine learning work for some company, maximizing ad clicks.
1:20:47 And to them, those systems are very narrow.
1:20:51 And then they hear that, obviously, AI is going to take over the world.
1:20:53 Like, it has no hands.
1:20:55 How would it do that?
1:20:55 It’s nonsense.
1:20:56 This guy is crazy.
1:20:57 He has a beard.
1:20:58 Why would I listen to him?
1:20:58 Right?
1:21:02 Then they start reading a little bit.
1:21:04 They go, oh, okay.
1:21:06 So maybe AI can be dangerous.
1:21:07 Yeah, I see that.
1:21:09 But we always solve problems in the past.
1:21:10 We’re going to solve them again.
1:21:14 I mean, at some point, we fixed a computer virus or something.
1:21:14 So it’s the same.
1:21:22 And basically, the more exposure they have, the less likely they are to keep that position.
1:21:29 I know many people who went from super careless developer to safety researcher.
1:21:35 I don’t know anyone who went from, I worry about AI safety to, like, there is nothing to worry about.
1:21:43 What are your closing statements?
1:21:47 Let’s make sure there is not a closing statement we need to give for humanity.
1:21:50 Let’s make sure we stay in charge, in control.
1:21:55 Let’s make sure we only build things which are beneficial to us.
1:22:00 Let’s make sure people who are making those decisions are remotely qualified to do it.
1:22:07 They are good, not just at science, engineering, and business, but also have moral and ethical standards.
1:22:13 And if you’re doing something which impacts other people, you should ask their permission.
1:22:28 If there was one button in front of you, and it would shut down every AI company in the world right now, permanently, with the inability for anybody to start a new one, would you press the button?
1:22:32 Are we losing narrow AI or just super intelligent AGI part?
1:22:33 Losing all of AI?
1:22:38 That’s a hard question because AI is extremely important.
1:22:41 It controls stock market, power plants.
1:22:42 It controls hospitals.
1:22:45 It would be a devastating accident.
1:22:48 Millions of people would lose their lives.
1:22:49 Okay, we can keep narrow AI.
1:22:50 Oh, yeah.
1:22:52 That’s what we want.
1:22:57 We want narrow AI to do all this for us, but not God we don’t control doing things to us.
1:23:01 So you would stop it, you would stop AGI and super intelligence?
1:23:02 We have AGI.
1:23:05 What we have today is great for almost everything.
1:23:07 We can make secretaries out of it.
1:23:12 99% of economic potential of current technology has not been deployed.
1:23:17 We make AI so quickly, it doesn’t have time to propagate through the industry, through technology.
1:23:20 Something like half of all jobs are considered BS jobs.
1:23:22 They don’t need to be done.
1:23:22 Bullshit jobs.
1:23:25 So those can be not even automated.
1:23:26 They can be just gone.
1:23:32 But I’m saying we can replace 60% of jobs today with existing models.
1:23:33 We’re not done that.
1:23:41 So if the goal is to grow economy, to develop, we can do it for decades without having to create super intelligence as soon as possible.
1:23:45 Do you think globally, especially in the Western world, unemployment is only going to go up from here?
1:23:48 Do you think relatively this is the low of unemployment?
1:23:52 I mean, it fluctuates a lot with other factors.
1:23:54 There are wars, there’s economic cycles.
1:24:02 But overall, the more jobs you automate and the higher is the intellectual necessity to start a job, the fewer people qualify.
1:24:11 So if we plotted it on a graph over the next 20 years, you’re assuming unemployment is gradually going to go up over that time?
1:24:11 I think so.
1:24:15 Fewer and fewer people would be able to contribute.
1:24:19 Already, we kind of understand it because we created minimum wage.
1:24:24 We understood some people don’t contribute enough economic value to get paid anything, really.
1:24:28 So we had to force employers to pay them more than they worth.
1:24:31 And we haven’t updated it.
1:24:34 It’s what, $7.25 federally in the U.S.
1:24:38 If you keep up with economy, it should be like $25 an hour now.
1:24:47 Which means all these people making less are not contributing enough economic output to justify what they’re getting paid.
1:24:52 We have a closing tradition on this podcast where the last guest leaves a question for the next guest not knowing who they’re leaving it for.
1:25:04 And the question left for you is, what are the most important characteristics for a friend, colleague, or mate?
1:25:08 Those are very different types of people.
1:25:11 But for all of them, loyalty is number one.
1:25:14 And what does loyalty mean to you?
1:25:17 Not betraying you?
1:25:19 Not screwing you?
1:25:20 Not cheating on you?
1:25:25 Despite the temptation.
1:25:29 Despite the world being as it is, situation, environment.
1:25:32 Dr. Roman, thank you so much.
1:25:39 Thank you so much for doing what you do because you’re starting a conversation and pushing forward a conversation and doing research that is incredibly important.
1:25:44 And you’re doing it in the face of a lot of skeptics, I’d say.
1:25:53 There’s a lot of people that have a lot of incentives to discredit what you’re saying and what you do because they have their own incentives and they have billions of dollars on the line.
1:25:55 And they have their jobs on the line potentially as well.
1:26:11 So it’s really important that there are people out there that are willing to, I guess, stick their head above the parapet and come on shows like this and go on big platforms and talk about the unexplainable, unpredictable, uncontrollable future that we’re heading towards.
1:26:13 So thank you for doing that.
1:26:23 This book, which I think everybody should check out if they want a continuation of this conversation, I think was published in 2024, gives a holistic view on many of the things we’ve talked about today.
1:26:26 Preventing AI failures and much, much more.
1:26:28 And I’m going to link it below for anybody that wants to read it.
1:26:33 If people want to learn more from you, if they want to go further into your work, what’s the best thing for them to do?
1:26:33 Where do they go?
1:26:36 They can follow me, follow me on Facebook, follow me on X.
1:26:38 Just don’t follow me home.
1:26:38 Very important.
1:26:39 I can follow you.
1:26:44 Okay, so I’ll put your Twitter, your X account as well below so people can follow you there.
1:26:46 And yeah, thank you so much for doing what you do.
1:26:49 It’s remarkably eye-opening and it’s given me so much food for thought.
1:26:51 And it’s actually convinced me more that we are living in a simulation.
1:26:55 But it’s also made me think quite differently of religion, I have to say.
1:27:01 Because you’re right, all the religions, when you get away from the local traditions, they do all point at the same thing.
1:27:07 And actually, if they are all pointing at the same thing, then maybe the fundamental truths that exist across them should be something I pay more attention to.
1:27:13 Things like loving thy neighbour, things like the fact that we are all one, that there’s a divine creator.
1:27:17 And maybe also, they all seem to have consequence beyond this life.
1:27:23 So maybe I should be thinking more about how I behave in this life and where I might end up thereafter.
1:27:25 Roman, thank you.
1:27:25 Amen.
1:27:39 Amen.
1:28:09 Amen.
Ừ. Tôi từng tin rằng chúng ta có thể tạo ra AI an toàn, nhưng càng nhìn kỹ, tôi càng nhận ra đó không phải là điều chúng ta thực sự có thể làm được.
Bạn đã đưa ra một loạt dự đoán về nhiều mốc thời gian khác nhau.
Vậy dự đoán của ông cho năm 2027 là gì?
Tiến sĩ Roman Yampolski là một tiếng nói được công nhận toàn cầu về an toàn AI
và là phó giáo sư khoa học máy tính.
Ông giáo dục mọi người về sự thật đáng sợ của AI
và những gì chúng ta cần làm để cứu nhân loại.
Trong hai năm tới, khả năng thay thế phần lớn con người trong hầu hết các nghề nghiệp sẽ đến rất nhanh.
Ý tôi là, trong năm năm, chúng ta đang nhìn vào một thế giới có mức thất nghiệp mà chúng ta chưa từng thấy trước đây.
Không phải 10%, mà là 99%.
Và đó là khi chưa có siêu trí tuệ.
Một hệ thống thông minh hơn tất cả con người ở mọi lĩnh vực.
Nó sẽ giỏi hơn chúng ta trong việc tạo ra AI mới.
Nhưng còn tệ hơn thế.
Chúng ta không biết cách làm cho chúng an toàn.
Và vẫn có những người thông minh nhất thế giới cạnh tranh để thắng trong cuộc đua tới siêu trí tuệ.
Còn ý kiến của ông về những người như hành trình của Sam Ockman với AI thì sao?
Cách đây một thập kỷ, chúng tôi đã công bố các nguyên tắc để làm AI đúng cách.
Họ đã vi phạm từng nguyên tắc một.
Và anh ta đang đánh cược sinh mạng 8 tỷ người và ngày càng giàu có, quyền lực hơn.
Vậy tôi đoán nếu có người muốn lên sao Hỏa, thì những người khác muốn kiểm soát cả vũ trụ.
Nhưng không quan trọng ai xây dựng nó.
Khoảnh khắc bạn chuyển sang siêu trí tuệ, chúng ta rất có thể sẽ hối hận khôn cùng.
Và rồi đến năm 2045…
Giờ đây là lúc mọi chuyện trở nên thú vị.
Tiến sĩ Roman Gimpolski.
Hãy nói về thuyết mô phỏng.
Tôi nghĩ chúng ta đang ở trong một mô phỏng.
Và có nhiều người đồng ý về điều này.
Và đây là những gì bạn nên làm trong mô phỏng này để chúng ta không tắt nó đi.
Đầu tiên, cho tôi 30 giây thời gian của bạn.
Có hai điều tôi muốn nói.
Điều đầu tiên là một lời cảm ơn rất lớn vì đã lắng nghe và theo dõi chương trình hàng tuần.
Điều đó có ý nghĩa rất lớn đối với tất cả chúng tôi.
Và thực sự đây là một giấc mơ mà chúng tôi hoàn toàn không bao giờ nghĩ tới và không thể tưởng tượng rằng sẽ đạt được đến nơi này.
Nhưng thứ hai, đó là một giấc mơ mà chúng tôi cảm thấy mình dường như mới chỉ bắt đầu.
Và nếu bạn thích những gì chúng tôi làm ở đây, xin hãy gia nhập 24% những người nghe podcast này thường xuyên và theo dõi chúng tôi trên ứng dụng này.
Đây là một lời hứa tôi sẽ dành cho bạn.
Tôi sẽ làm mọi thứ trong khả năng của mình để làm cho chương trình này tốt nhất có thể, cả bây giờ và trong tương lai.
Chúng tôi sẽ đem đến những khách mời mà bạn muốn tôi phỏng vấn.
Và chúng tôi sẽ tiếp tục làm tất cả những điều bạn yêu thích ở chương trình này.
Cảm ơn bạn.
Tiến sĩ Roman Gimpolski.
Sứ mệnh hiện tại của ông là gì?
Bởi vì với tôi khá rõ ràng là ông đang trên một sứ mệnh.
Và tôi nghĩ ông đã trên sứ mệnh này ít nhất là phần lớn của hai thập kỷ.
Tôi hy vọng đảm bảo rằng siêu trí tuệ mà chúng ta đang tạo ra ngay bây giờ sẽ không giết tất cả mọi người.
Hãy cho tôi bối cảnh về tuyên bố đó vì nó khá sốc.
Chắc chắn.
Trong thập kỷ vừa qua, chúng ta thực sự đã tìm ra cách làm cho trí tuệ nhân tạo tốt hơn.
Hóa ra, nếu bạn thêm nhiều tài nguyên tính toán, nhiều dữ liệu hơn, nó sẽ trở nên thông minh hơn.
Và vì vậy bây giờ, những người thông minh nhất thế giới, hàng tỷ đô la, đều đổ vào việc tạo ra siêu trí tuệ tốt nhất có thể.
Thật không may, trong khi chúng ta biết cách làm cho những hệ thống đó năng lực hơn nhiều, chúng ta không biết cách làm cho chúng an toàn.
Làm thế nào để đảm bảo chúng không làm điều gì đó mà chúng ta sẽ hối hận.
Và đó là trình độ kỹ thuật hiện nay.
Khi nhìn vào chỉ riêng các thị trường dự đoán, bao lâu nữa chúng ta sẽ có AI tiên tiến?
Các mốc thời gian rất ngắn, chỉ vài năm, hai, ba năm, theo các thị trường dự đoán, theo các CEO của các phòng thí nghiệm hàng đầu.
Và cùng lúc đó, chúng ta không biết cách đảm bảo rằng những hệ thống đó phù hợp với sở thích của chúng ta.
Vậy nên chúng ta đang tạo ra một trí tuệ ngoài hành tinh.
Nếu người ngoài hành tinh sắp đến Trái Đất và bạn có ba năm để chuẩn bị, bạn sẽ đang hoảng loạn ngay bây giờ.
Nhưng hầu hết mọi người thậm chí còn không nhận ra điều này đang xảy ra.
Vì vậy một số lập luận phản biện có thể là, này, đó là những người rất, rất thông minh.
Đó là những công ty rất lớn với nhiều tiền.
Họ có nghĩa vụ và nghĩa vụ đạo đức, nhưng cũng chỉ là nghĩa vụ pháp lý, để đảm bảo họ không gây hại.
Vì vậy tôi chắc sẽ ổn.
Nghĩa vụ duy nhất họ có là kiếm tiền cho các nhà đầu tư. Đó là nghĩa vụ pháp lý họ có.
Họ không có nghĩa vụ đạo đức hay luân lý.
Hơn nữa, theo họ, họ chưa biết làm thế nào.
Các câu trả lời của trình độ kỹ thuật hiện nay là, chúng ta sẽ tìm ra, rồi khi tới lúc thì sẽ làm được.
Hoặc AI sẽ giúp chúng ta kiểm soát AI tiên tiến hơn.
Điều đó thật điên rồ.
Về xác suất, ông nghĩ khả năng xảy ra điều gì đó sai lầm thảm khốc là bao nhiêu?
Không ai có thể nói chắc chắn điều gì sẽ xảy ra.
Nhưng nếu bạn không kiểm soát, bạn không điều khiển nó, bạn sẽ không nhận được kết quả như bạn muốn.
Không gian khả năng hầu như là vô hạn.
Không gian các kết quả mà chúng ta thích thì rất nhỏ.
Và ông là ai và đã làm việc về chuyện này bao lâu rồi?
Tôi là nhà khoa học máy tính theo đào tạo.
Tôi có bằng tiến sĩ về khoa học máy tính và kỹ thuật.
Tôi có lẽ bắt đầu công việc về an toàn AI, được định nghĩa lỏng lẻo là điều khiển các bot vào thời điểm đó, khoảng 15 năm trước.
15 năm trước.
Vậy là ông đã làm việc về an toàn AI trước khi nó trở nên “hot”.
Trước khi thuật ngữ này tồn tại.
Tôi đã đặt ra thuật ngữ an toàn AI.
Vậy ông là người sáng lập thuật ngữ an toàn AI.
Thuật ngữ, đúng vậy.
Không phải lĩnh vực.
Vẫn có những người khác đã làm công trình xuất sắc trước khi tôi tới.
Tại sao ông lại nghĩ về chuyện này 15 năm trước?
Bởi vì hầu hết mọi người chỉ bắt đầu nói về thuật ngữ an toàn AI trong hai hoặc ba năm gần đây.
Ban đầu nó chỉ nhẹ nhàng, như một dự án an ninh.
Tôi đang xem các bot poker.
Và tôi nhận ra rằng các bot ngày càng tốt hơn.
Và nếu bạn đưa dự đoán đó ra đủ xa, chúng sẽ giỏi hơn chúng ta.
Thông minh hơn.
Năng lực hơn.
Và điều đó đã xảy ra.
Họ chơi poker giỏi hơn nhiều so với người chơi trung bình.
Nhưng nói chung hơn, điều đó sẽ xảy ra với tất cả các lĩnh vực khác.
Tất cả các tài nguyên mạng khác.
Tôi muốn chắc chắn rằng AI là một công nghệ đem lại lợi ích cho mọi người.
Vì vậy tôi bắt đầu làm việc nhằm làm cho AI an toàn hơn.
Có phải có một khoảnh khắc đặc biệt trong sự nghiệp của anh mà anh đã nghĩ, ôi trời ơi?
Ít nhất trong năm năm đầu, tôi đã làm việc để giải quyết vấn đề này.
Tôi tin chắc rằng chúng ta có thể làm được điều này.
Chúng ta có thể tạo ra AI an toàn.
Và đó là mục tiêu.
Nhưng càng nhìn kỹ, tôi càng nhận ra từng thành phần trong phương trình đó
không phải là thứ chúng ta thực sự có thể làm được.
Và khi bạn phóng to, nó giống như một fractal.
Bạn đi vào và tìm ra 10 vấn đề nữa.
Rồi 100 vấn đề nữa.
Và tất cả chúng không chỉ khó.
Chúng là không thể giải quyết.
Không có một công trình mang tính bước ngoặt nào trong lĩnh vực này kiểu như, chúng ta đã giải quyết được cái này.
Chúng ta không phải lo nữa.
Có những bản vá.
Có những sửa nhỏ chúng ta đưa vào.
Và rất nhanh mọi người tìm ra cách lách chúng.
Họ bẻ khóa mọi cơ chế an toàn mà chúng ta có.
Vì vậy trong khi tiến bộ về năng lực AI là theo cấp số nhân hoặc thậm chí siêu cấp số nhân, tiến bộ về an toàn AI thì tuyến tính hoặc gần như không đổi.
Khoảng cách đang gia tăng.
Khoảng cách giữa…
Mức độ hệ thống có thể làm được và mức độ chúng ta có thể kiểm soát, dự đoán chúng sẽ làm gì, giải thích cách chúng ra quyết định.
Tôi nghĩ đây là một điểm khá quan trọng vì bạn vừa nói rằng về cơ bản chúng ta đang vá lại những vấn đề mà chúng ta phát hiện.
Vì vậy chúng ta phát triển trí tuệ cốt lõi này và rồi để ngăn nó làm việc gì đó hoặc để ngăn nó thể hiện vài tính không thể đoán trước hoặc mối đe dọa của nó,
các công ty phát triển AI này đang lập trình thêm các lớp mã ở trên cùng để nói, được rồi, đừng chửi.
Đừng nói từ đó.
Đừng làm điều xấu đó.
Chính xác.
Và bạn có thể nhìn thấy những ví dụ khác của điều đó.
Ví dụ sổ tay nhân sự, đúng không?
Chúng ta có những con người đó. Họ có trí tuệ tổng quát, nhưng bạn muốn họ cư xử trong công ty.
Vì vậy họ có chính sách: không quấy rối tình dục, không cái này, không cái kia.
Nhưng nếu bạn đủ thông minh, bạn luôn tìm ra cách lách.
Vì vậy bạn chỉ đang đẩy hành vi sang một lĩnh vực phụ khác chưa bị hạn chế.
Có lẽ chúng ta nên định nghĩa vài thuật ngữ ở đây.
Có trí tuệ hẹp, có thể chơi cờ hoặc bất cứ thứ gì.
Có trí tuệ nhân tạo tổng quát, có thể hoạt động xuyên nhiều lĩnh vực.
Và rồi có siêu trí tuệ, thông minh hơn tất cả con người ở mọi lĩnh vực.
Vậy hiện tại chúng ta đang ở đâu?
Đó là một ranh giới rất mơ hồ, đúng không?
Chắc chắn chúng ta có nhiều hệ thống chuyên biệt xuất sắc, điều đó không bàn cãi.
Và chúng siêu thông minh trong lĩnh vực hẹp đó.
Ví dụ gấp protein là một vấn đề đã được giải bằng AI hẹp.
Và nó vượt trội so với tất cả con người trong lĩnh vực đó.
Về AGI, như tôi đã nói, nếu cho một nhà khoa học 20 năm trước thấy những gì chúng ta có hôm nay,
họ sẽ bị thuyết phục rằng chúng ta đã có AGI hoàn chỉnh.
Chúng ta có những hệ thống có thể học, có thể hoạt động ở hàng trăm lĩnh vực, và chúng giỏi hơn con người ở nhiều lĩnh vực.
Vì vậy bạn có thể cho rằng chúng ta có một phiên bản AGI yếu.
Còn siêu trí tuệ thì chúng ta chưa có.
Chúng ta vẫn có những con người xuất sắc hoàn toàn áp đảo AI, đặc biệt trong khoa học và kỹ thuật.
Nhưng khoảng cách đó đang thu hẹp rất nhanh.
Bạn có thể thấy, đặc biệt trong lĩnh vực toán học, ba năm trước, các mô hình ngôn ngữ lớn còn không làm được đại số cơ bản.
Nhân các số có ba chữ số còn là một thách thức.
Bây giờ, chúng đang hỗ trợ chứng minh toán học.
Chúng đang giành giải trong các kỳ thi Olympic Toán học.
Chúng đang làm việc để giải các bài toán thiên niên kỷ, những vấn đề khó nhất trong toán học.
Vì vậy trong ba năm, chúng ta đã thu hẹp khoảng cách từ hiệu suất dưới con người đến tốt hơn hầu hết các nhà toán học trên thế giới.
Và chúng ta thấy cùng một quá trình diễn ra trong khoa học và kỹ thuật.
Anh đã đưa ra một loạt dự đoán, và chúng tương ứng với nhiều mốc thời gian khác nhau.
Và tôi có những mốc đó trước mặt.
Dự đoán của anh cho năm 2027 là gì?
Chúng ta có khả năng đạt AGI theo như các thị trường dự đoán và các nhà lãnh đạo phòng thí nghiệm đang dự báo.
Vì vậy chúng ta có AGI vào năm 2027.
Điều đó sẽ làm thế giới khác đi so với hiện tại như thế nào?
Nếu bạn có khái niệm về một “nhân viên thay thế sẵn sàng”, bạn có lao động miễn phí, cả thể chất lẫn trí tuệ, trị giá hàng nghìn tỷ đô la, thì không còn lí do để thuê con người cho hầu hết công việc.
Nếu tôi chỉ cần một gói đăng ký 20 đô la hoặc một mô hình miễn phí để làm những gì một nhân viên làm, trước hết, mọi thứ trên máy tính sẽ được tự động hóa.
Và tiếp theo, tôi nghĩ, robot dạng người có thể chậm hơn khoảng năm năm.
Vì vậy trong năm năm nữa, tất cả lao động thể chất cũng có thể được tự động hóa.
Vì vậy chúng ta đang nhìn vào một thế giới với tỉ lệ thất nghiệp mà chúng ta chưa từng thấy trước đây.
Tôi không nói về 10% thất nghiệp, điều đó đã đáng sợ, mà là 99%.
Tất cả những gì còn lại là những việc mà, vì lý do nào đó, bạn vẫn thích một con người khác làm cho bạn.
Nhưng hầu hết mọi thứ khác có thể được tự động hoàn toàn.
Điều đó không có nghĩa là sẽ thực sự được tự động hóa trong thực tế.
Nhiều khi, công nghệ đã tồn tại nhưng không được triển khai.
Điện thoại có hình đã được phát minh vào thập niên 70.
Không ai có chúng cho tới khi iPhone xuất hiện.
Vì vậy chúng ta có thể còn nhiều thời gian hơn với các công việc và một thế giới trông như hiện tại.
Nhưng năng lực để thay thế phần lớn con người và hầu hết nghề nghiệp sẽ đến rất nhanh.
Được rồi, vậy hãy cố khoan sâu vào điều đó và thử thách nó.
Vậy một podcaster như tôi, có cần một podcaster như tôi không?
Hãy nhìn vào những gì bạn làm.
Bạn chuẩn bị, bạn đặt câu hỏi, bạn hỏi các câu hỏi tiếp theo, và bạn trông đẹp trên camera.
Cảm ơn rất nhiều.
Hãy xem chúng ta có thể làm gì.
Các mô hình ngôn ngữ lớn ngày nay có thể dễ dàng đọc mọi thứ tôi viết và có hiểu biết rất vững chắc.
Tôi đoán bạn chưa đọc từng cuốn sách của tôi.
Cái đó sẽ làm được.
Nó có thể được huấn luyện trên mọi podcast bạn từng làm, vì vậy nó hiểu chính xác phong cách của bạn, các kiểu câu hỏi bạn đặt.
Nó cũng có thể tìm mối tương quan giữa những gì hoạt động thực sự tốt.
Ví dụ loại câu hỏi này thực sự tăng lượt xem.
Loại chủ đề này rất hứa hẹn, nên bạn có thể tối ưu hơn, theo tôi, hơn những gì bạn đang làm vì bạn không có bộ dữ liệu.
Tất nhiên, mô phỏng hình ảnh giờ đây là chuyện nhỏ.
Vậy nên bạn có thể làm một video trong vài giây kể từ lúc tôi ngồi ở đây.
Chúng ta có thể tạo video về việc bạn phỏng vấn bất kỳ ai về bất cứ chủ đề nào rất hiệu quả, và bạn chỉ cần có được độ giống, sự đồng ý, hay bất cứ thứ gì liên quan.
Có nhiều công việc mà bạn nghĩ sẽ còn tồn tại trong một thế giới có AGI không?
Nếu bạn nói AGI có khả năng xuất hiện, dù có được triển khai hay không, vào khoảng 2027.
Loại nào, và rồi, được rồi, tạm bỏ qua các công việc lao động thể chất trong giây lát.
Có nghề nào bạn nghĩ con người vẫn làm tốt hơn trong một thế giới có AGI không?
Đó là câu tôi thường hỏi mọi người: trong một thế giới có AGI, và tôi nghĩ gần như ngay lập tức chúng ta sẽ có siêu trí tuệ như một hệ quả phụ.
Vậy câu hỏi thực sự là, trong một thế giới của siêu trí tuệ, được định nghĩa là thông minh hơn mọi con người ở mọi lĩnh vực, bạn có thể đóng góp gì?
Và bạn hiểu bản thân mình hơn ai hết.
Bạn biết kem vị gì hợp với bạn.
Bạn có thể được trả tiền cho kiến thức đó không?
Có ai quan tâm đến điều đó không?
Có thể là không.
Không phải thị trường lớn.
Có những công việc mà bạn muốn một con người làm.
Có thể bạn giàu có, và bạn muốn một kế toán viên là người thật vì lý do lịch sử nào đó.
Người già thích cách làm truyền thống.
Warren Buffett sẽ không chuyển sang AI.
Ông ấy sẽ dùng kế toán viên là người thật của mình.
Nhưng đó chỉ là một phần rất nhỏ của thị trường.
Hiện nay chúng ta có những sản phẩm được làm thủ công ở Mỹ, trái với sản xuất hàng loạt ở Trung Quốc.
Và một số người trả nhiều hơn để có những thứ đó.
Nhưng đó là một phần nhỏ.
Gần như là một thứ ám ảnh.
Không có lý do thực tế cho điều đó.
Và tôi nghĩ bất cứ thứ gì bạn làm trên máy tính đều có thể được tự động hóa bằng công nghệ đó.
Bạn chắc phải nghe nhiều phản biện khi nói vậy, vì người ta trải nghiệm một lượng lớn sự khó chịu về tinh thần khi nghe rằng công việc của họ, nghề nghiệp của họ, thứ họ lấy bằng cấp, thứ họ đầu tư 100.000 đô la vào sẽ bị lấy mất khỏi họ.
Nên phản ứng tự nhiên của một số người là sự xung đột nhận thức: không, bạn sai, AI không thể sáng tạo, nó không phải thế này, không phải thế kia, nó sẽ không bao giờ quan tâm đến công việc của tôi, tôi sẽ ổn vì…
Bạn nghe những lập luận này suốt, đúng không?
Thật buồn cười.
Tôi hỏi người ta, và tôi hỏi những người trong nhiều nghề khác nhau.
Tôi sẽ hỏi tài xế Uber của mình: anh lo lắng về xe tự lái không?
Và họ nói, không, không ai làm được những gì tôi làm.
Tôi biết đường phố New York.
Tôi có thể điều hướng như không AI nào.
Tôi an toàn.
Và điều đó đúng với mọi nghề.
Các giáo sư cũng nói với tôi như vậy: ôi, không ai có thể giảng như tôi, điều này đặc biệt lắm.
Nhưng bạn hiểu là điều đó thật nực cười.
Chúng ta đã có xe tự lái thay thế tài xế rồi.
Đấy thậm chí không còn là câu hỏi liệu nó có khả thi hay không.
Câu hỏi là, bao lâu trước khi bạn bị sa thải?
Ừ, ý tôi là, tôi vừa ở LA hôm qua và xe của tôi tự lái.
Vậy nên tôi lên xe, nhập điểm đến, rồi tôi không chạm vô vô lăng hay bàn đạp phanh.
Nó chở tôi từ điểm A đến điểm B, dù có thể là một chuyến đi dài một giờ, mà không cần can thiệp gì.
Thực ra tôi vẫn tự đỗ xe.
Nhưng ngoài việc đó ra, tôi chẳng lái xe chút nào.
Ý tôi là, hiển nhiên ở LA bây giờ còn có Waymo, nghĩa là bạn đặt trên điện thoại và nó đến với không một tài xế nào và chở bạn đến nơi bạn muốn.
Ồ, vâng.
Nên rất rõ ràng thấy đó chỉ là vấn đề thời gian.
Đối với những người, vì có một số người trong số họ đang nghe cuộc trò chuyện này ngay bây giờ, mà nghề nghiệp của họ là lái xe.
Để đưa cho họ một lời khuyên — và tôi nghĩ lái xe là nghề lớn nhất trên thế giới, nếu tôi nhớ đúng.
Tôi khá chắc nó là nghề lớn nhất trên thế giới.
Nó sẽ là một trong những nghề đứng đầu, vâng.
Bạn sẽ nói gì với những người đó?
Họ nên làm gì với cuộc sống của mình?
Họ có nên học lại để làm một nghề khác, hay theo khung thời gian nào?
Đó là sự thay đổi mô hình ở đây.
Trước đây, chúng ta luôn nói, nghề này sẽ bị tự động hóa, học nghề khác.
Nhưng nếu tôi nói với bạn rằng tất cả các nghề sẽ bị tự động hóa, thì không còn phương án B.
Bạn không thể học lại.
Nhìn vào khoa học máy tính.
Hai năm trước, chúng tôi bảo mọi người, học lập trình đi.
Bạn là nghệ sĩ, bạn không thể kiếm tiền, học lập trình đi.
Rồi chúng tôi nhận ra, ôi, AI cũng phần nào biết lập trình và đang ngày càng tốt hơn.
Thành kỹ sư prompt.
Bạn có thể thiết kế prompt cho AI.
Đó sẽ là một nghề tuyệt vời.
Học cả đời cho nó.
Nhưng rồi chúng tôi nhận ra, AI giỏi hơn con người nhiều trong việc thiết kế prompt cho các AI khác.
Vậy là nghề đó cũng mất.
Nên tôi không thể nói giờ đây nghề này cần học làm nghề kia thay thế.
Tôi nghĩ đúng hơn là, chúng ta với tư cách nhân loại, ai cũng mất việc.
Chúng ta làm gì?
Chúng ta giải quyết tài chính ra sao?
Ai sẽ trả lương cho chúng ta?
Và chúng ta làm gì về ý nghĩa cuộc sống?
Tôi làm gì với thêm 60, 80 giờ mỗi tuần?
Bạn đã nghĩ đến ngóc ngách này, phải không?
Một chút.
Trong mắt bạn, điều gì ở ngóc ngách đó?
Về phần kinh tế thì có vẻ dễ.
Nếu bạn tạo ra nhiều lao động miễn phí, bạn có nhiều của cải rẻ, của cải phong phú, những thứ hiện nay chưa phải ai cũng có thể mua được sẽ trở nên rẻ mạt.
Và vậy bạn có thể cung cấp cho mọi người các nhu cầu cơ bản.
Một số người nói bạn có thể cung cấp hơn cả nhu cầu cơ bản.
Bạn có thể đem lại sự tồn tại rất tốt cho mọi người.
Vấn đề khó là bạn làm gì với tất cả thời gian rảnh rỗi đó?
Với nhiều người, công việc là thứ mang lại ý nghĩa cho cuộc đời họ.
Nên họ sẽ bị lạc lõng.
Chúng ta thấy điều đó với những người nghỉ hưu hoặc nghỉ hưu sớm.
Và với rất nhiều người ghét công việc của họ, họ sẽ rất hạnh phúc khi không phải làm nữa.
Nhưng bây giờ bạn có những người cả ngày chỉ thư giãn.
Xã hội sẽ như thế nào?
Điều đó ảnh hưởng ra sao tới tỷ lệ tội phạm, tỷ lệ mang thai, và đủ thứ vấn đề khác?
Không ai nghĩ tới việc các chính phủ không có những chương trình sẵn sàng để đối phó với 99% tỷ lệ thất nghiệp.
Bạn nghĩ thế giới đó sẽ trông như thế nào?
Một lần nữa, tôi nghĩ một phần rất quan trọng cần hiểu ở đây là tính không thể đoán trước của nó.
Chúng ta không thể dự đoán hệ thống thông minh hơn mình sẽ làm gì.
Và thời điểm chúng ta đạt tới điều đó thường được gọi là điểm kỳ dị (singularity), tương tự như kỳ dị vật lý.
Bạn không thể nhìn thấy vượt qua chân trời sự kiện.
Tôi có thể nói cho bạn biết những gì tôi nghĩ có thể xảy ra, nhưng đó là dự đoán của tôi.
Nó không phải là điều chắc chắn sẽ xảy ra vì tôi đơn giản là không có khả năng nhận thức để dự đoán hành vi của một tác nhân thông minh hơn mình rất nhiều.
Khi bạn đọc khoa học viễn tưởng, hiếm khi có một siêu trí thông minh thực sự làm điều gì đó vì chẳng ai có thể viết khoa học viễn tưởng đáng tin ở mức đó.
Họ hoặc là cấm AI như trong Dune, bởi vì theo cách đó họ tránh phải viết về nó.
Hoặc là giống Star Wars.
Bạn có mấy con rô-bốt rất ngớ ngẩn, nhưng không bao giờ có thứ gì đó siêu thông minh thực sự.
Bởi vì theo định nghĩa, nếu đó là thứ bạn có thể dự đoán, thì bạn sẽ đang vận hành ở cùng mức trí tuệ đó, vi phạm giả định rằng nó thông minh hơn bạn.
Nếu tôi chơi cờ với một siêu trí tuệ và tôi có thể dự đoán mọi nước đi, thì tôi đang chơi ở cùng mức độ đó.
Nó giống như con chó bulldog Pháp của tôi cố gắng dự đoán chính xác tôi đang nghĩ gì và sẽ làm gì.
Đó là một khoảng cách nhận thức lớn.
Và không chỉ là nó có thể dự đoán bạn sẽ đi làm, sẽ về nhà, mà nó không thể hiểu tại sao bạn lại làm một podcast.
Đó là điều hoàn toàn nằm ngoài mô hình thế giới của nó.
Ừ, nó thậm chí còn không biết rằng tôi đi làm.
Nó chỉ thấy tôi rời nhà và không biết tôi đi đâu.
Mua đồ ăn cho nó.
Cái lập luận thuyết phục nhất chống lại quan điểm của bạn ở đây là gì?
Rằng chúng ta sẽ không có thất nghiệp do công nghệ tiên tiến?
Rằng sẽ không có khoảng cách kiểu “chó bulldog Pháp” giữa con người và AI về hiểu biết, và, tôi đoán, quyền lực và kiểm soát?
Một số người nghĩ rằng chúng ta có thể nâng cao trí tuệ con người, hoặc thông qua kết hợp với phần cứng, như kiểu Neuralink,
hoặc thông qua kỹ thuật di truyền, hay tái cấu trúc gen, để tạo ra con người thông minh hơn.
Ừ.
Có thể nó sẽ cho ta chút thông minh hơn.
Tôi không nghĩ chúng ta vẫn có thể cạnh tranh ở dạng sinh học với dạng silicon.
Nền vật liệu silicon khả năng cho trí tuệ cao hơn nhiều.
Nó nhanh hơn, bền hơn, tiết kiệm năng lượng hơn theo nhiều cách.
Đó là vật liệu mà máy tính được làm ra, so với não bộ.
Vì vậy tôi không nghĩ chúng ta có thể theo kịp chỉ bằng việc cải thiện sinh học.
Một số người nghĩ có thể, và điều này rất mang tính suy đoán, chúng ta có thể tải não bộ lên máy tính.
Quét não của bạn, kiểu như sao chép cấu trúc não, và chạy mô phỏng trên máy tính.
Và bạn có thể tăng tốc nó, cho nó nhiều khả năng hơn.
Nhưng với tôi, điều đó cảm giác như bạn không còn tồn tại nữa.
Chúng ta chỉ tạo ra phần mềm bằng phương tiện khác.
Và giờ bạn có AI dựa trên sinh học và AI dựa trên các hình thức huấn luyện khác.
Bạn có thể dùng thuật toán tiến hóa, có nhiều con đường để đạt tới AI, nhưng cuối cùng, không con đường nào là con người.
Tôi có một mốc thời gian khác ở đây, là 2030.
Dự đoán của bạn cho năm 2030 như thế nào?
Thế giới sẽ trông ra sao?
Vậy thì có lẽ chúng ta sẽ có những rô-bốt hình người với đủ độ linh hoạt, khéo léo để cạnh tranh với con người ở mọi lĩnh vực, kể cả thợ ống nước.
Chúng ta có thể làm thợ ống nước nhân tạo.
Không còn nghề thợ ống nước an toàn nữa.
Cảm giác như đó là pháo đài cuối cùng của việc làm cho con người.
Vậy 2030, năm năm nữa, rô-bốt hình người.
Rất nhiều công ty hàng đầu, kể cả Tesla, đang phát triển rô-bốt hình người với tốc độ ánh sáng, và chúng ngày càng hiệu quả hơn.
Những rô-bốt hình người này sẽ có thể di chuyển trong không gian vật lý, làm trứng ốp-la, làm bất cứ thứ gì con người có thể làm.
Nhưng rõ ràng chúng còn được kết nối với AI.
Nên chúng có thể suy nghĩ, nói.
Đúng.
Chúng được điều khiển bởi AI.
Chúng luôn kết nối mạng.
Vì vậy chúng đã và đang thống trị theo nhiều cách.
Thế giới của chúng ta sẽ trông khác đáng kể khi rô-bốt hình người hoạt động hiệu quả, bởi vì đó thực sự là lúc, bạn biết đấy, tôi bắt đầu nghĩ, thậm chí thấy chạnh lòng.
Sự kết hợp giữa trí tuệ và khả năng thể chất thật sự không còn để lại nhiều chỗ cho chúng ta loài người, phải không?
Không nhiều.
Ngày nay, nếu bạn có trí tuệ qua Internet, bạn có thể thuê con người làm theo ý mình.
Bạn có thể trả họ bằng Bitcoin.
Vì vậy bạn có thể có thân xác mà không trực tiếp điều khiển họ.
Nên việc thêm khả năng điều khiển trực tiếp thân xác vật lý không phải là thay đổi lớn.
Trí tuệ mới là điều then chốt.
Thành phần quan trọng chắc chắn là khả năng tối ưu cao hơn, giải quyết vấn đề tốt hơn, tìm ra các mô hình mà con người không thấy được.
Và rồi tới năm 2045, tôi đoán thế giới còn hơn thế nữa, tức là 20 năm nữa.
Nếu nó vẫn còn tồn tại, Ray Kurzweil dự đoán đó là năm của điểm kỳ dị.
Đó là năm tiến bộ trở nên nhanh đến mức…
AI đang làm công việc nghiên cứu khoa học và kỹ thuật cải tiến quá nhanh, chúng ta không thể theo kịp nữa.
Đó là định nghĩa của điểm kỳ dị, điểm mà vượt qua đó chúng ta không thể thấy, hiểu, dự đoán.
Bạn thấy, hiểu, dự đoán chính bản thân trí tuệ đó, hay là điều gì đang xảy ra trên thế giới?
Công nghệ đang được phát triển.
Hiện giờ, nếu tôi có một chiếc iPhone, tôi có thể mong chờ một chiếc mới ra vào năm tới, và tôi sẽ hiểu nó có camera tốt hơn một chút.
Hãy tưởng tượng bây giờ quá trình nghiên cứu và phát triển chiếc điện thoại này được tự động hóa.
Nó xảy ra mỗi sáu tháng, mỗi ba tháng, mỗi tháng, tuần, ngày, giờ, phút, giây.
Bạn không thể theo kịp với 30 phiên bản iPhone trong một ngày.
Bạn không hiểu nó có những khả năng gì, cần kiểm soát ra sao.
Nó chỉ trượt khỏi tầm với của bạn.
Hiện giờ, khó có nhà nghiên cứu AI nào có thể theo kịp với trạng thái nghệ thuật.
Khi tôi đang phỏng vấn bạn, một mô hình mới xuất hiện, và tôi không còn biết đâu là đỉnh cao nữa.
Mỗi ngày, xét theo tỷ lệ phần trăm so với tổng lượng kiến thức, tôi càng trở nên kém nhạy bén hơn.
Có thể tôi vẫn biết nhiều hơn vì tôi tiếp tục đọc, nhưng so với tổng kiến thức, chúng ta đều đang trở nên dốt đi.
Và nếu đẩy tới các giá trị cực đoan, bạn sẽ có không còn kiến thức nào, không còn hiểu biết gì về thế giới xung quanh.
Một số lập luận chống lại khả năng này cho rằng khi nhìn lại các công nghệ khác như Cách mạng Công nghiệp,
con người chỉ tìm ra cách làm việc mới và những nghề nghiệp mới mà thời đó chúng ta không thể tưởng tượng nổi đã ra đời.
Bạn phản ứng thế nào trước điều đó trong một thế giới có siêu trí tuệ?
Đó là một cú chuyển đổi mô hình.
Chúng ta luôn có công cụ, các công cụ mới, cho phép một số công việc được thực hiện hiệu quả hơn.
Thay vì cần 10 công nhân, bạn có thể chỉ cần hai, và tám công nhân còn lại phải tìm việc mới.
Rồi lại có một nghề khác.
Bây giờ bạn có thể giám sát những công nhân đó hoặc làm điều gì đó thú vị hơn.
Nếu bạn tạo ra một phát minh “meta”, bạn đang phát minh ra trí tuệ, bạn đang phát minh ra một người lao động, một tác nhân,
thì bạn có thể áp dụng tác nhân đó cho công việc mới.
Không có công việc nào không thể được tự động hóa.
Điều đó trước đây chưa từng xảy ra.
Tất cả các phát minh trước đây của chúng ta đều chỉ là công cụ để làm một việc gì đó.
Chúng ta phát minh ra lửa.
Thay đổi cuộc chơi lớn.
Nhưng chỉ dừng lại ở đó.
Chúng ta phát minh ra bánh xe.
Tương tự như vậy.
Nhưng bản thân bánh xe không phải là kẻ phát minh.
Ở đây chúng ta đang phát minh một sự thay thế cho trí óc con người.
Một nhà phát minh mới có khả năng tạo ra phát minh mới.
Đó là phát minh cuối cùng mà chúng ta từng phải làm.
Đến lúc đó, nó sẽ chiếm quyền.
Và tiến trình làm khoa học, nghiên cứu, thậm chí nghiên cứu về đạo đức, đạo lý, tất cả sẽ được tự động hóa.
Bạn có ngủ ngon vào ban đêm không?
Rất ngon.
Mặc dù bạn đã dành 15, 20 năm cuối đời mình làm việc về an toàn AI và bỗng nhiên nó xuất hiện xung quanh chúng ta theo một cách mà tôi nghĩ không ai có thể dự đoán được cách đây năm năm.
Khi tôi nói “xuất hiện giữa chúng ta”, tôi thực sự có ý rằng lượng vốn và nhân tài hiện đang tập trung nhằm đạt đến siêu trí tuệ nhanh hơn khiến nó có vẻ tất yếu và đến sớm hơn bất kỳ điều gì chúng ta từng tưởng tượng.
Chúng ta là con người có một thiên kiến bẩm sinh là không nghĩ tới những kết quả thực sự tồi tệ và những điều ta không thể ngăn chặn.
Vì vậy tất cả chúng ta rồi cũng chết.
Con cái bạn rồi cũng chết.
Cha mẹ bạn rồi cũng chết.
Mọi người đều rồi cũng chết.
Nhưng bạn vẫn ngủ ngon.
Bạn vẫn tiếp tục cuộc sống của mình.
Ngay cả những người 95 tuổi vẫn chơi trò chơi, chơi golf này nọ.
Bởi vì chúng ta có khả năng không nghĩ tới những hậu quả tồi tệ nhất, đặc biệt nếu ta không thể thực sự thay đổi kết quả đó.
Vì vậy cùng cơ chế tinh thần đó đang được áp dụng cho chuyện này.
Ừ, có khả năng xảy ra một sự kiện như cái chết ở quy mô nhân loại.
Chúng ta có thể khá là gần với nó.
Nhưng trừ khi tôi có thể làm gì đó, tôi chỉ có thể tiếp tục tận hưởng cuộc sống.
Thực ra, có lẽ biết rằng bạn còn thời gian có hạn lại cho bạn lý do để sống tốt hơn.
Bạn không thể phí phạm thời gian.
Và đó có lẽ là đặc tính sinh tồn trong tiến hóa.
Bởi vì những tổ tiên của tôi mà dành hết thời gian để lo lắng sẽ không dành đủ thời gian để sinh con và săn bắn mà tồn tại được.
Những ý nghĩ muốn tự tử, những người thực sự bắt đầu nghĩ thế giới khủng khiếp đến mức nào, thường sẽ sớm kết thúc cuộc đời họ.
Bạn là đồng tác giả một bài báo phân tích các lập luận chính mà người ta đưa ra để cho rằng an toàn AI không quan trọng.
Và một trong những lập luận đó là còn nhiều thứ khác quan trọng hơn ngay bây giờ.
Có thể là chiến tranh thế giới.
Có thể là kiểm soát vũ khí hạt nhân.
Có thể là những vấn đề khác.
Còn có nhiều thứ chính phủ và những người làm podcast như tôi nên nói tới hơn.
Phản biện của ông với lập luận đó là gì?
Vậy nên siêu trí tuệ là một giải pháp siêu cấp.
Nếu chúng ta làm siêu trí tuệ cho đúng, nó sẽ giúp chúng ta với biến đổi khí hậu.
Nó sẽ giúp với chiến tranh.
Nó có thể giải quyết tất cả các rủi ro sinh tồn khác.
Nếu chúng ta làm không đúng, nó sẽ áp đảo.
Nếu biến đổi khí hậu cần một trăm năm để giết chúng ta còn siêu trí tuệ giết mọi người trong năm năm, tôi không phải lo về biến đổi khí hậu.
Vì vậy dù thế nào, hoặc nó giải quyết được vấn đề cho tôi, hoặc nó không còn là vấn đề.
Vậy ông nghĩ đó là điều quan trọng nhất cần làm?
Không nghi ngờ gì, không có gì quan trọng hơn việc làm cho chuyện này đúng.
Và tôi biết mọi người hay nói “môn học nào cũng thế”, nhưng khi bạn vào lớp của giáo sư tiếng Anh và ông ấy bảo đây là môn quan trọng nhất bạn từng học, bạn có thể thấy khác biệt ở cấp độ meta với việc này.
Một lập luận khác trong bài báo đó là chúng ta sẽ kiểm soát được và mối nguy không phải là AI.
Lập luận này cho rằng AI chỉ là một công cụ.
Con người mới là tác nhân thực sự gây nguy hiểm.
Và chúng ta luôn có thể giữ quyền kiểm soát bằng cách đơn giản tắt nó đi.
Chẳng lẽ ta không thể rút phích cắm sao?
Tôi thấy câu đó mỗi khi chúng tôi có một cuộc trò chuyện trên chương trình về AI.
Ai đó sẽ nói, chẳng lẽ ta không thể rút phích cắm sao?
Ừ, tôi nhận được những bình luận đó trong mọi podcast tôi làm.
Và tôi luôn muốn liên hệ với người đó và nói: điều này thật xuất sắc. Tôi chưa bao giờ nghĩ tới. Chúng ta sẽ cùng viết một bài báo và giành giải Nobel.
Thật là tuyệt.
Bởi vì nó thật ngớ ngẩn.
Ví dụ, bạn có thể tắt một loại virus không?
Bạn có một con virus máy tính.
Bạn không thích nó.
Tắt nó đi.
Còn Bitcoin thì sao?
Tắt mạng lưới Bitcoin đi.
Cứ làm đi, tôi chờ.
Thật lố bịch.
Đó là những hệ thống phân tán.
Bạn không thể tắt chúng.
Hơn nữa, chúng còn thông minh hơn bạn.
Chúng tự sao lưu nhiều bản.
Chúng dự đoán những gì bạn sẽ làm.
Chúng sẽ tắt bạn trước khi bạn kịp tắt chúng.
Ý tưởng rằng chúng ta sẽ kiểm soát được chỉ áp dụng cho các cấp độ trước khi đạt siêu trí tuệ, cơ bản là những gì ta có hôm nay.
Ngày nay, con người kết hợp với công cụ AI có thể nguy hiểm.
Họ có thể là tin tặc, là những tác nhân ác ý, hoàn toàn có thể.
Nhưng ngay khi siêu trí tuệ trở nên thông minh hơn, chiếm ưu thế, con người không còn là thành phần quan trọng trong phương trình đó nữa.
Điều tôi lo là trí tuệ cao hơn, chứ không phải con người có thể gắn thêm những tải độc hại bổ sung, nhưng cuối cùng vẫn không kiểm soát được nó.
Thật khó để không theo lập luận tiếp theo mà tôi thấy trong bài báo đó, về cơ bản nói rằng, này này, điều này là không thể tránh khỏi.
Vì vậy chẳng có ý nghĩa gì khi chống lại nó vì thực sự không còn hy vọng.
Vì thế có lẽ ta nên bỏ cuộc và tin rằng mọi chuyện rồi sẽ ổn thôi.
Bởi vì mọi điều bạn vừa nói nghe thật là tất yếu.
Và khi Trung Quốc đang nghiên cứu về nó, tôi chắc Putin có vài đơn vị bí mật.
Tôi chắc Iran cũng đang làm vài việc.
Mỗi nước châu Âu đều cố gắng vượt lên trong AI.
Hoa Kỳ đang dẫn đầu.
Nên điều đó là tất yếu.
Vậy có lẽ chúng ta chỉ còn biết cầu nguyện và tin tưởng.
Cầu nguyện thì luôn tốt.
Nhưng động cơ mới quan trọng.
Nếu bạn nhìn vào những gì thúc đẩy những người này.
Vâng, tiền quan trọng.
Có rất nhiều tiền trong lĩnh vực đó.
Và nên ai cũng cố gắng có mặt ở đó và phát triển công nghệ này.
Nhưng nếu họ thực sự hiểu lập luận, họ sẽ hiểu rằng bạn sẽ chết.
Không có khoản tiền nào hữu ích cho bạn lúc đó.
Thế thì động cơ sẽ đổi sang khác.
Họ sẽ muốn không bị chết.
Nhiều người trong số đó là người trẻ, người giàu.
Họ còn cả cuộc đời phía trước.
Tôi nghĩ họ sẽ tốt hơn nếu không xây dựng siêu trí tuệ tiên tiến.
Tập trung vào các công cụ AI hẹp để giải quyết các vấn đề cụ thể.
Được rồi, công ty tôi chữa khỏi ung thư vú. Chỉ thế thôi.
Chúng tôi kiếm được hàng tỷ đô la.
Ai cũng vui.
Ai cũng hưởng lợi.
Thắng lợi cho tất cả.
Hôm nay chúng ta vẫn kiểm soát được.
Chưa kết thúc thì chưa xong.
Chúng ta có thể quyết định không xây dựng những siêu trí tuệ tổng quát.
Ý tôi là, Hoa Kỳ có thể huy động đủ sự nhiệt tình để làm điều đó.
Nhưng nếu Hoa Kỳ không xây siêu trí tuệ tổng quát, thì Trung Quốc sẽ có lợi thế lớn, phải không?
Vì thế ngay bây giờ, ở những cấp đó, ai có AI tiên tiến hơn thì có quân sự tiên tiến hơn.
Không còn nghi ngờ gì.
Chúng ta thấy điều đó với các xung đột hiện tại.
Nhưng ngay khi bạn chuyển sang siêu trí tuệ, siêu trí tuệ không được kiểm soát,
thì không quan trọng ai xây nó, ta hay họ.
Và nếu họ hiểu lập luận này, họ cũng sẽ không xây.
Đó là thảm họa hủy diệt lẫn nhau ở cả hai phía.
Công nghệ này có khác so với, ví dụ, vũ khí hạt nhân, vốn đòi hỏi đầu tư khổng lồ,
phải làm giàu uranium, và có thể cần hàng tỷ đô la để chế tạo một vũ khí hạt nhân không?
Nhưng cảm giác là công nghệ này rẻ hơn nhiều để đạt tới siêu trí tuệ, có khả năng,
hoặc ít nhất nó sẽ trở nên rẻ hơn.
Tôi tự hỏi có khả năng một người nào đó, một startup nào đó, sẽ có thể xây siêu trí tuệ trong,
biết đâu, vài năm mà không cần hàng tỷ đô la vào điện toán hay điện năng không.
Đó là một điểm rất hay.
Mỗi năm chi phí để huấn luyện các mô hình đủ lớn đều giảm dần.
Nếu hôm nay cần một nghìn tỷ đô để tạo siêu trí tuệ, năm sau có thể chỉ còn một trăm tỷ,
và cứ thế.
Đến một lúc nào đó, một người với laptop cũng có thể làm được.
Nhưng bạn không muốn chờ bốn năm để nó trở nên có thể chi trả.
Vì vậy, đó là lý do có quá nhiều tiền đổ vào.
Ai đó muốn đến đó ngay năm nay, và may mắn trong tất cả các giải thưởng.
Giải thưởng cấp Lightcone.
Vì vậy, ở điểm này, cả hai đều là những dự án rất tốn kém, như các dự án ở quy mô Dự án Manhattan.
Dự án chế tạo bom hạt nhân.
Sự khác biệt giữa hai công nghệ là vũ khí hạt nhân vẫn là công cụ.
Một nhà độc tài, một quốc gia nào đó, ai đó phải quyết định sử dụng chúng, triển khai chúng,
trong khi siêu trí tuệ không phải là công cụ.
Nó là một tác nhân.
Nó tự đưa ra quyết định, và không ai kiểm soát nó.
Tôi không thể loại bỏ nhà độc tài này rồi coi như siêu trí tuệ an toàn.
Vậy đó là một khác biệt cơ bản đối với tôi.
Nhưng nếu bạn nói rằng nó sẽ ngày càng rẻ đi theo từng bước,
như tôi nghĩ đúng là theo định luật Moore, công nghệ sẽ ngày càng rẻ?
Đúng vậy.
Thì sẽ có một tương lai nơi một người trên laptop sẽ có thể tạo ra siêu trí tuệ
mà không có giám sát hay quy định hay nhân viên, v.v.
Ừ.
Đó là lý do nhiều người đề nghị chúng ta cần xây một thứ giống như một hành tinh giám sát,
nơi bạn theo dõi ai đang làm gì, và cố gắng ngăn mọi người làm điều đó.
Tôi có nghĩ điều đó khả thi không?
Không.
Đến một lúc nào đó, nó sẽ trở nên quá rẻ và quá tầm thường đến mức nó sẽ xảy ra thôi.
Nhưng ở thời điểm này, chúng ta đang cố gắng có thêm thời gian.
Chúng ta không muốn điều đó xảy ra trong năm năm tới.
Chúng ta muốn nó xảy ra trong 50 năm nữa.
Ý tôi là, điều đó không có nhiều hi vọng lắm.
Còn tùy bạn bao nhiêu tuổi.
Còn tùy bạn bao nhiêu tuổi.
Ý tôi là, nếu bạn nói bạn tin rằng trong tương lai người ta sẽ có thể tạo siêu trí tuệ
mà không cần các nguồn lực như hiện nay, thì chỉ là vấn đề thời gian.
Ừ, nhưng điều đó cũng đúng với nhiều công nghệ khác.
Chúng ta đang tiến bộ rất nhanh trong sinh học tổng hợp, nơi hôm nay một người có bằng cử nhân sinh học
có thể có khả năng tạo ra một loại virus mới.
Điều này cũng sẽ trở nên rẻ hơn.
Những công nghệ khác cũng vậy.
Vì vậy chúng ta đang tiến tới một điểm nơi rất khó để đảm bảo rằng không có đột phá công nghệ nào
là đột phá cuối cùng.
Nói cách khác, ở nhiều hướng khác nhau, chúng ta có mô hình là làm cho việc phá hủy thế giới trở nên dễ hơn
về mặt tài nguyên và về mặt trí tuệ.
Nếu bạn nhìn lại, tôi không biết, 500 năm trước, tay sai độc tài tồi tệ nhất với tất cả nguồn lực chỉ có thể
giết vài triệu người.
Hắn không thể hủy diệt cả thế giới.
Bây giờ chúng ta có vũ khí hạt nhân, ta có thể thổi bay cả hành tinh nhiều lần.
Sinh học tổng hợp, chúng ta đã thấy với COVID, bạn có thể rất dễ tạo một virus kết hợp, ảnh hưởng hàng tỷ người.
Và tất cả những thứ đó đều ngày càng dễ làm.
Trong ngắn hạn, bạn nói rằng nguy cơ tuyệt chủng là một rủi ro thật sự, nguy cơ loài người bị tuyệt chủng là một rủi ro thật.
Trong tất cả những con đường dẫn đến tuyệt chủng loài người mà anh cho là khả năng cao nhất, con đường nào là khả năng dẫn đầu?
Bởi vì tôi biết anh có nói về việc có một số vấn đề trước khi triển khai các công cụ AI này, kiểu như
anh biết đấy, ai đó phạm sai lầm khi thiết kế một mô hình, hoặc những vấn đề khác sau khi triển khai.
Khi tôi nói “sau khi triển khai”, ý tôi là, một khi ChatGPT hay thứ gì đó, một tác nhân được phát hành ra
thế giới và có người xâm nhập vào nó, thay đổi và lập trình lại nó để trở nên ác ý.
Trong số tất cả những con đường tiềm năng dẫn đến tuyệt chủng loài người này, anh nghĩ con đường nào có xác suất cao nhất?
Vậy tôi chỉ có thể nói về những thứ mà tôi có thể dự đoán được.
Vì vậy tôi có thể dự đoán rằng ngay cả trước khi chúng ta đạt đến siêu trí tuệ, sẽ có người tạo ra một công cụ sinh học rất tiên tiến,
tạo ra một loại virus mới, và virus đó lây cho mọi người hoặc phần lớn mọi người.
Tôi có thể hình dung điều đó.
Tôi có thể hiểu con đường xảy ra.
Tôi có thể nói vậy.
Vậy để thu hẹp lại, nghĩa là dùng AI để chế tạo virus rồi thả nó ra?
Ừ.
Và đó có phải là cố ý không?
Có rất nhiều kẻ tâm thần, nhiều phần tử khủng bố, nhiều giáo phái tận thế.
Lịch sử đã cho thấy, họ cố giết càng nhiều người càng tốt.
Họ thường thất bại.
Họ giết hàng trăm ngàn.
Nhưng nếu họ có công nghệ để giết hàng triệu hoặc hàng tỷ, họ sẽ làm điều đó, với niềm vui sẵn sàng.
Điều tôi cố gắng nhấn mạnh là không quan trọng những gì tôi nghĩ ra.
Tôi không phải là một tác nhân ác ý mà các bạn đang cố đánh bại ở đây.
Chính siêu trí tuệ mới có thể nghĩ ra những cách hoàn toàn mới mẻ để làm điều đó.
Một lần nữa, anh đưa ra ví dụ về con chó của anh.
Con chó của anh không thể hiểu được mọi cách mà người ta có thể hãm hại nó.
Nó có thể chỉ nghĩ là anh sẽ cắn chết nó hay gì đó.
Nhưng chỉ có vậy thôi.
Trong khi anh có nguồn lực vô hạn.
Vì vậy nếu tôi hỏi con chó của anh chính xác là anh sẽ làm gì nó, nó sẽ không cho anh câu trả lời có ý nghĩa.
Chúng ta có thể nói về cắn xé.
Và đó là những gì chúng ta biết.
Chúng ta biết về virus.
Chúng ta đã trải nghiệm virus.
Chúng ta có thể nói về chúng.
Nhưng những gì một hệ thống AI có khả năng làm nghiên cứu vật lý mới có thể nghĩ ra vượt quá khả năng của tôi.
Một trong những điều mà tôi nghĩ hầu hết mọi người không hiểu là chúng ta hiểu rất ít về cách những AI này thực sự hoạt động.
Bởi vì người ta sẽ cho rằng, với máy tính, chúng ta phần nào hiểu máy tính hoạt động thế nào.
Chúng ta biết là nó đang làm cái này rồi đến cái kia và nó chạy trên mã lệnh.
Nhưng từ việc đọc công trình của anh, anh mô tả nó như một hộp đen.
Vì vậy trong ngữ cảnh một cái như ChatGPT hay một AI mà chúng ta biết, anh đang nói rằng những người đã xây dựng công cụ đó thực ra không biết chuyện gì đang diễn ra bên trong.
Đúng như vậy.
Ngay cả những người tạo ra những hệ thống đó cũng phải chạy các thí nghiệm trên sản phẩm của họ để biết nó có khả năng gì.
Vì vậy họ huấn luyện nó bằng cách cho nó toàn bộ dữ liệu.
Giả sử toàn bộ văn bản trên internet.
Họ chạy nó trên rất nhiều máy tính để học các mẫu trong văn bản đó.
Rồi chúng ta bắt đầu thử nghiệm với mô hình đó.
Ồ, bạn có nói được tiếng Pháp không?
Ồ, bạn có làm được toán không?
Ồ, bạn có đang nói dối tôi không?
Và có thể mất một năm để huấn luyện nó và rồi sáu tháng để nắm một số điều cơ bản về khả năng của nó, một số biện pháp an toàn cơ bản.
Nhưng chúng ta vẫn phát hiện được những khả năng mới ở các mô hình cũ.
Nếu bạn đặt câu hỏi theo một cách khác, nó trở nên thông minh hơn.
Nên không còn là kỹ thuật như 50 năm đầu tiên, nơi ai đó là kỹ sư kiến thức lập trình một hệ chuyên gia để làm những việc cụ thể.
Đó là khoa học.
Chúng ta đang tạo ra hiện vật này, nuôi dưỡng nó.
Nó giống như một loài thực vật ngoài hành tinh.
Rồi chúng ta nghiên cứu nó để xem nó làm gì.
Và giống như với cây cối, chúng ta không có kiến thức chính xác 100% về sinh học.
Chúng ta không có hiểu biết đầy đủ ở đây.
Chúng ta chỉ biết một số quy luật.
Chúng ta biết, ừ, nếu tăng lượng tính toán, nó thường thông minh hơn.
Nhưng chẳng ai có thể nói chính xác kết quả sẽ ra sao khi cho một tập đầu vào nhất định.
Tôi đã chứng kiến rất nhiều doanh nhân đối xử với bán hàng như một vấn đề biểu diễn trong khi thực ra thường là do khả năng hiển thị, bởi vì khi bạn không thể thấy gì đang xảy ra trong pipeline của bạn, giai đoạn nào của từng cuộc trao đổi đang ở, cái gì bị tắc, cái gì đang tiến,
bạn không thể cải thiện gì cả.
Và bạn không thể chốt được hợp đồng.
Nhà tài trợ của chúng tôi, Pipedrive, là công cụ CRM số một cho các doanh nghiệp nhỏ và vừa.
Không chỉ là danh sách liên hệ, mà là một hệ thống thực sự cho thấy toàn bộ quy trình bán hàng của bạn, từ đầu đến cuối, tất cả những gì đang hoạt động, cái gì đang chậm trễ, và các bước bạn cần làm tiếp theo.
Tất cả các đội ngũ của bạn có thể di chuyển thông minh và nhanh hơn.
Các đội dùng Pipedrive trung bình đóng được gấp ba lần số hợp đồng so với những đội không dùng.
Đó là CRM đầu tiên do những người làm sales tạo ra cho người làm sales mà hơn 100.000 công ty trên toàn thế giới tin dùng, bao gồm cả đội của tôi, những người hoàn toàn yêu thích nó.
Hãy thử Pipedrive ngay hôm nay bằng cách truy cập pipedrive.com/CEO.
Và bạn có thể bắt đầu trong vài phút mà không cần thanh toán.
Và nếu bạn dùng liên kết này, bạn sẽ nhận được dùng thử miễn phí 30 ngày.
Anh nghĩ sao về OpenAI và Sam Altman và những gì họ đang làm?
Và rõ ràng, anh biết rằng một trong những đồng sáng lập, phải chăng là Ilya, Jack?
Đúng vậy.
Ilya, vâng.
Ilya đã rời và anh ấy bắt đầu một công ty mới tên là gì?
Super Intelligent Safety.
Bởi vì an toàn AI không đủ thử thách, anh ấy quyết định nhảy thẳng vào vấn đề khó.
Là một người quan sát, khi thấy người ta rời OpenAI để thành lập các công ty an toàn siêu trí tuệ, anh có nhận định gì về tình huống đó?
Ồ, nhiều người từng làm việc với Sam nói rằng có thể anh ấy không phải là người chân thật nhất với họ, và họ có những lo ngại về quan điểm của anh ấy về an toàn.
Đó là một phần của vấn đề.
Vì vậy họ muốn nhiều quyền kiểm soát hơn.
Họ muốn tập trung hơn vào an toàn.
Nhưng cũng có vẻ như bất cứ ai rời công ty đó và bắt đầu một công ty mới đều được định giá 20 tỷ đô la chỉ vì đã thành lập nó.
Bạn không có sản phẩm, bạn không có khách hàng, nhưng nếu bạn muốn kiếm nhiều tỷ đô la, chỉ cần làm vậy.
Vậy nên, dường như đó là một việc rất hợp lý đối với bất kỳ ai có thể làm được.
Vì vậy, tôi không ngạc nhiên khi có rất nhiều người bỏ cuộc.
Gặp anh ấy trực tiếp, anh ấy rất thân thiện, rất thông minh, hình ảnh trước công chúng hoàn hảo.
Bạn thấy anh ấy làm chứng trước Thượng viện, anh ấy nói điều đúng với các thượng nghị sĩ.
Bạn thấy anh ấy nói chuyện với các nhà đầu tư, họ nhận được thông điệp đúng.
Nhưng nếu nhìn vào những gì những người biết anh ấy cá nhân nói, có lẽ anh ấy không phải là người phù hợp để điều khiển một dự án có tác động như vậy.
Tại sao?
Anh ấy đặt an toàn ở vị trí thứ hai.
Thứ hai so với?
Thắng cuộc đua đến siêu trí tuệ, trở thành người tạo ra “Chúa” và kiểm soát nón ánh sáng của vũ trụ.
Còn tệ hơn nữa.
Bạn có nghi ngờ đó là động lực thúc đẩy anh ấy không?
Là di sản của việc trở thành một người có ảnh hưởng, làm một điều phi thường hơn là lo lắng về hậu quả điều đó có thể gây ra cho xã hội?
Bởi vì thú vị là startup khác của anh ấy là WorldCoin, về cơ bản là một nền tảng để tạo thu nhập cơ bản phổ quát, tức là một nền tảng để cấp thu nhập trong một thế giới mà con người không còn việc làm nữa.
Vì vậy, một mặt bạn đang tạo công ty AI.
Mặt khác, bạn đang tạo một công ty chuẩn bị cho việc con người không có việc làm.
Nó còn có những đặc điểm khác.
Nó theo dõi sinh trắc học của mọi người.
Nó giữ bạn ở vị trí kiểm soát nền kinh tế thế giới, của cải thế giới.
Họ nắm giữ một phần lớn WorldCoin.
Vì vậy, tôi nghĩ đó là một phần rất hợp lý để tích hợp với sự thống trị thế giới.
Nếu bạn có một hệ thống siêu trí tuệ và bạn kiểm soát tiền bạc, bạn đang làm rất tốt.
Tại sao ai đó lại muốn thống trị thế giới?
Mọi người có những mức độ tham vọng khác nhau.
Rồi bạn là một người rất trẻ, có hàng tỷ đô la, danh tiếng.
Bạn bắt đầu tìm những dự án tham vọng hơn.
Một số người muốn đến sao Hỏa.
Những người khác muốn kiểm soát LightCoin của vũ trụ.
Bạn nói gì?
LightCoin của vũ trụ?
LightCoin.
LightCoin.
Vậy, mọi phần của vũ trụ mà ánh sáng có thể chạm tới từ điểm này, nghĩa là bất cứ thứ gì có thể tiếp cận được mà bạn muốn nắm lấy và đưa vào tầm kiểm soát của mình.
Bạn có nghĩ Sam Altman muốn kiểm soát mọi phần của vũ trụ không?
Tôi nghi rằng có thể là như vậy.
Điều đó không có nghĩa là anh ấy không muốn công nghệ ấy có tác dụng phụ thật sự có lợi, khiến tất cả con người hạnh phúc.
Con người hạnh phúc thì tốt cho việc kiểm soát.
Nếu bạn phải đoán thế giới trông như thế nào vào năm 2100, nếu bạn phải đoán.
Hoặc là không còn con người tồn tại nữa hoặc là nó hoàn toàn không thể hiểu nổi đối với một người như chúng ta.
Là một trong hai cực đó.
Vì vậy, hoặc là không còn con người—về cơ bản thế giới bị hủy diệt—hoặc là nó khác đến mức tôi không thể hình dung nổi những dự đoán đó.
Có thể làm gì để chuyển con tàu này đến một kết cục tích cực chắc chắn hơn vào thời điểm này?
Vẫn còn những việc chúng ta có thể làm hay đã quá muộn?
Vậy, tôi tin vào lợi ích cá nhân.
Nếu mọi người nhận ra rằng làm việc này thực sự có hại cho họ về mặt cá nhân, họ sẽ không làm.
Vì vậy, công việc của chúng ta là thuyết phục mọi người có quyền lực trong lĩnh vực này—những người tạo ra công nghệ này, làm việc cho những công ty đó—rằng họ đang làm điều gì đó rất có hại cho chính họ.
Không chỉ là, quên đi 8 tỷ người mà các bạn đang thử nghiệm mà không xin phép, không có sự đồng thuận.
Bạn sẽ không hài lòng với kết quả.
Nếu chúng ta có thể khiến mọi người hiểu đó là điều mặc định, và không chỉ mình tôi nói vậy.
Bạn đã có Jeff Hinton trên chương trình, người đoạt Nobel, người sáng lập cả lĩnh vực học máy.
Ông ấy cũng nói điều tương tự.
Benji, hàng chục người khác, các học giả hàng đầu.
Chúng tôi đã có một tuyên bố về mối nguy hiểm của AI được ký bởi hàng ngàn học giả, nhà khoa học máy tính.
Về cơ bản đây là những gì chúng tôi nghĩ ngay bây giờ, và chúng ta cần biến điều đó thành điều tất yếu.
Không ai nên phản đối điều này, và rồi có thể chúng ta thực sự đưa ra được những quyết định tốt về công nghệ cần phát triển.
Điều đó không đảm bảo an toàn lâu dài cho nhân loại, nhưng nó có nghĩa là chúng ta sẽ không cố gắng đạt đến đó càng sớm càng tốt, tới kết cục tồi tệ nhất có thể.
Và bạn có hy vọng điều đó thậm chí có thể xảy ra không?
Tôi muốn cố gắng.
Chúng ta không có lựa chọn nào khác ngoài việc cố gắng.
Và cần xảy ra điều gì, và ai cần hành động?
Có phải là luật lệ của chính phủ?
Thật không may, tôi không nghĩ việc cấm là đủ.
Có nhiều khu pháp lý khác nhau.
Có, bạn biết đấy, lỗ hổng pháp lý.
Và bạn sẽ làm gì nếu ai đó làm được?
Bạn sẽ phạt họ vì phá hủy nhân loại sao?
Kiểu phạt rất nặng cho việc đó?
Bạn sẽ làm gì?
Không thể thực thi được.
Nếu họ tạo ra nó, giờ siêu trí tuệ sẽ nắm quyền.
Vì vậy hệ thống tư pháp chúng ta có không mang tính quyết định.
Và tất cả các hình phạt chúng ta có được thiết kế để trừng phạt con người.
Nhà tù, án tử hình thì không áp dụng cho AI.
Bạn biết đấy, vấn đề tôi có là khi tôi có những cuộc trò chuyện này, tôi không bao giờ cảm thấy mình rời đi với, tôi hy vọng sẽ có điều gì đó tốt đẹp xảy ra.
Và ý tôi là tôi không bao giờ cảm thấy mình rời đi với một bộ hành động rõ ràng nào đó để điều chỉnh những gì có thể xảy ra ở đây.
Vậy tôi nên làm gì?
Người đang ngồi ở nhà nghe điều này nên làm gì?
Bạn nói chuyện với nhiều người đang xây dựng công nghệ này.
Hỏi họ chính xác giải thích một số thứ mà họ tuyên bố là không thể, họ đã giải quyết nó thế nào hoặc sẽ giải quyết nó ra sao trước khi họ đến nơi họ định đến.
Bạn biết đấy, tôi không nghĩ Sam Altman muốn nói chuyện với tôi.
Tôi không biết.
Có vẻ như anh ấy xuất hiện trên nhiều podcast.
Có thể là có.
Anh ấy muốn xuất hiện trên mạng.
Tôi tự hỏi tại sao lại như vậy.
Tôi rất muốn nói chuyện với anh ấy, nhưng tôi không nghĩ anh ấy muốn tôi phỏng vấn anh ấy.
Hãy đưa ra một thách thức công khai.
Có thể tiền không phải là động lực, nhưng bất cứ thứ gì thu hút những người như vậy, ai có thể thuyết phục bạn rằng có thể kiểm soát và làm cho siêu trí tuệ an toàn thì sẽ nhận giải.
Họ đến chương trình của bạn và chứng minh trường hợp của họ.
Bất kỳ ai, nếu không ai nhận giải hoặc thậm chí chấp nhận thách thức sau vài năm, có thể chúng ta không có ai có giải pháp.
Chúng ta có những công ty được định giá, một lần nữa, hàng tỷ và hàng tỷ đô la đang làm việc về siêu trí tuệ an toàn.
Chúng tôi vẫn chưa thấy kết quả của họ.
Ừ, tôi cũng muốn nói chuyện với Ilya, vì tôi biết anh ấy đang làm việc về an toàn siêu trí tuệ.
Cũng để ý một mô típ nữa.
Nếu nhìn lịch sử các tổ chức an toàn AI hoặc các phòng ban bên trong công ty, thường họ bắt đầu tốt, rất tham vọng, rồi sau đó thất bại và biến mất.
Vì vậy OpenAI từng có một nhóm căn chỉnh siêu trí tuệ.
Ngày họ công bố điều đó, tôi nghĩ họ nói sẽ giải quyết trong bốn năm.
Khoảng nửa năm sau, họ hủy bỏ nhóm.
Và có hàng chục ví dụ tương tự.
Tạo ra một sự an toàn hoàn hảo cho siêu trí tuệ, an toàn vĩnh viễn khi nó tiếp tục cải tiến, sửa đổi, tương tác với con người.
Bạn sẽ không bao giờ đạt được điều đó.
Điều đó là không thể.
Có một sự khác biệt lớn giữa các vấn đề khó trong khoa học máy tính, các vấn đề “pre-complete” và các vấn đề bất khả thi.
Và tôi nghĩ việc kiểm soát, kiểm soát vô hạn đối với siêu trí tuệ là một vấn đề như vậy.
Vậy thì cố gắng làm gì nếu nó là không thể?
Chà, tôi đang cố chứng minh chính xác điều đó.
Một khi chúng ta xác lập được rằng điều gì đó là không thể, sẽ có ít người lãng phí thời gian tuyên bố họ có thể làm được và tìm tiền hơn.
Rất nhiều người nói: cho tôi một tỷ đô trong hai năm và tôi sẽ giải quyết nó cho bạn.
Tôi không nghĩ là bạn sẽ.
Nhưng người ta sẽ không ngừng cố gắng hướng tới nó.
Vì vậy nếu không có nỗ lực nào để làm cho nó an toàn mà ngày càng có nhiều người cố gắng hướng tới nó, thì điều đó là tất yếu.
Nhưng điều đó thay đổi những gì chúng ta làm.
Nếu chúng ta biết rằng không thể làm cho nó đúng, làm cho nó an toàn, thì con đường trực tiếp là cứ xây càng sớm càng tốt trở thành một nhiệm vụ tự sát.
Hy vọng sẽ có ít người theo đuổi con đường đó hơn.
Họ có thể đi theo những hướng khác, ví dụ như, tôi là một nhà khoa học, tôi là một kỹ sư, tôi yêu AI, tôi yêu công nghệ, tôi dùng nó mọi lúc.
Hãy xây những công cụ hữu ích, đừng xây các agent, xây siêu trí tuệ hẹp chứ không phải siêu trí tuệ tổng quát.
Tôi không nói bạn không nên kiếm hàng tỷ đô.
Tôi yêu hàng tỷ đô.
Nhưng đừng giết mọi người, cả bạn nữa.
Họ không nghĩ họ sẽ làm vậy đâu.
Vậy hãy nói cho chúng tôi biết lý do.
Tôi nghe những điều về trực giác, tôi nghe những điều về chúng tôi sẽ giải quyết nó sau.
Hãy nói cụ thể, theo thuật ngữ khoa học, xuất bản một bài báo được bình duyệt giải thích cách bạn sẽ kiểm soát siêu trí tuệ.
Ừ, thật lạ.
Thậm chí thật kỳ lạ khi bận tâm nếu chỉ có 1% khả năng loài người bị tiêu vong.
Thật kỳ lạ khi làm một việc gì đó.
Ví dụ nếu có 1% khả năng, ai đó nói với tôi có 1% khả năng nếu tôi lên xe hơi, tôi có thể không còn sống.
Tôi sẽ không lên xe.
Nếu bạn nói với tôi có 1% khả năng nếu tôi uống bất cứ chất lỏng nào trong cốc này bây giờ, tôi có thể chết.
Tôi sẽ không uống chất lỏng đó.
Ngay cả khi có một tỷ đô, nếu tôi sống sót — xác suất 99% là tôi nhận một tỷ đô, 1% là tôi chết — tôi cũng sẽ không uống.
Tôi sẽ không liều.
Tệ hơn nữa.
Không chỉ là bạn chết.
Mọi người đều chết.
Ừ.
Bây giờ, chúng tôi có để bạn uống dù ở bất kỳ tỷ lệ nào không?
Đó là việc chúng tôi phải quyết định.
Bạn không có quyền tự quyết thay cho chúng tôi.
Để có được sự đồng ý từ các đối tượng con người, bạn cần họ hiểu những gì họ đang đồng ý.
Nếu những hệ thống đó không thể giải thích được, không thể đoán trước được, làm sao họ đồng ý?
Họ không biết mình đang đồng ý cái gì.
Vì vậy theo định nghĩa, không thể có được sự đồng ý.
Thí nghiệm này không bao giờ có thể được tiến hành một cách có đạo đức.
Theo định nghĩa, họ đang tiến hành thử nghiệm phi đạo đức trên các đối tượng con người.
Bạn có nghĩ mọi người nên biểu tình không?
Có người đang biểu tình.
Có Stop AI.
Có Pause AI.
Họ chặn văn phòng của OpenAI.
Họ làm vậy hàng tuần, hàng tháng, khá nhiều hành động, và họ đang tuyển người mới.
Bạn có nghĩ nên có nhiều người biểu tình hơn không?
Bạn có nghĩ đó là giải pháp hiệu quả không?
Nếu bạn có thể đưa nó tới quy mô đủ lớn để phần lớn dân số tham gia,
nó sẽ có tác động.
Tôi không biết họ có thể mở rộng từ con số hiện tại tới như vậy được không,
nhưng tôi ủng hộ mọi người cố gắng mọi thứ một cách hòa bình và hợp pháp.
Còn đối với người đang nghe ở nhà, họ nên làm gì?
Bởi vì họ không muốn cảm thấy bất lực.
Không ai trong chúng ta muốn cảm thấy bất lực.
Vậy còn tùy vào quy mô và khung thời gian ta đang hỏi.
Chẳng hạn chúng ta đang nói năm nay con bạn vào đại học, chọn chuyên ngành gì?
Có nên đi học đại học không?
Có nên đổi việc không?
Có nên vào những ngành nghề nhất định không?
Những câu hỏi đó chúng ta có thể trả lời.
Chúng ta có thể nói về tương lai gần.
Bạn nên làm gì trong năm năm tới khi điều này được tạo ra?
Với người bình thường, không nhiều lắm.
Cũng giống như họ không thể ảnh hưởng tới Chiến tranh Thế giới thứ ba, vũ khí hạt nhân, Holocaust hay bất cứ điều gì tương tự.
Đó không phải là thứ ai đó sẽ hỏi họ.
Ngày nay, nếu bạn muốn là một phần của phong trào này, vâng, gia nhập POS-AI, gia nhập Stop-AI.
Những tổ chức đó hiện đang cố xây dựng động lực để mang quyền lực dân chủ ảnh hưởng tới những cá nhân đó.
Vì vậy trong ngắn hạn, không quá nhiều.
Tôi tự hỏi có chiến lược thú vị nào trong ngắn hạn không.
Ví dụ, tôi có nên nghĩ khác về gia đình mình không, ý tôi là, bạn có con, đúng không?
Bạn có ba đứa con?
Theo tôi biết thì có, vâng.
Ba đứa.
Bạn đang nghĩ về việc nuôi dạy trong thế giới mà bạn thấy ngay quanh góc như thế nào?
Bạn đang nghĩ gì để nói với chúng, lời khuyên nên cho chúng học cái gì?
Vậy có lời khuyên chung ngoài lĩnh vực này là bạn nên sống mỗi ngày như thể đó là ngày cuối cùng của mình.
Đó là lời khuyên hay bất kể điều gì.
Nếu bạn còn ba năm hoặc còn ba mươi năm, bạn đã sống cuộc đời tốt nhất của mình.
Vì vậy cố gắng đừng làm những việc bạn ghét quá lâu.
Làm những việc thú vị.
Làm những việc có tác động.
Nếu bạn có thể làm tất cả điều đó đồng thời giúp người khác làm điều tương tự.
Lý thuyết mô phỏng là một chủ đề khá thú vị có liên quan ở đây vì khi máy tính bắt đầu tăng tốc và trở nên thông minh hơn, và chúng ta có thể, bạn biết đấy, làm những điều với AI mà trước đây không thể tưởng tượng được — ví dụ nghĩ đến những thế giới mà chúng ta có thể tạo ra với thực tế ảo.
Tôi nghĩ là Google gần đây đã tung ra, gọi là gì nhỉ? Kiểu “thế giới AI”. Bạn chụp một tấm hình và nó sinh ra cả một thế giới. Đúng, bạn có thể di chuyển trong thế giới đó. Tôi sẽ cho mọi người xem trên màn hình. Google đã phát hành công nghệ này, theo như tôi biết, cho phép bạn, với một lời nhắc đơn giản, tạo ra một thế giới ba chiều mà bạn có thể điều hướng. Và trong thế giới đó, nó có bộ nhớ. Nghĩa là trong thế giới ấy, nếu bạn vẽ lên một bức tường rồi quay đi, khi quay lại thì vết vẽ vẫn còn. Nó là persistent. (Nó duy trì được trạng thái.)
Khi tôi thấy điều đó, tôi nghĩ: Ôi trời, Chúa ơi, chết tiệt. Đây giống như chỉ mới là khởi đầu của khả năng tạo ra một mô phỏng chẳng thể phân biệt được với mọi thứ tôi đang thấy ở đây. Đó chính xác là lý do. AI đang đạt tới mức có thể tạo ra các tác nhân ở cấp độ con người, và thực tế ảo đang đến gần mức không thể phân biệt với thế giới của chúng ta.
Vậy anh nghĩ đây là một mô phỏng?
Tôi khá chắc là chúng ta đang ở trong một mô phỏng, vâng.
Với người chưa quen với các lập luận về mô phỏng, những nguyên lý cơ bản nào thuyết phục anh rằng chúng ta hiện đang sống trong một mô phỏng?
Bạn cần một số công nghệ nhất định để điều đó xảy ra. Nếu bạn tin rằng chúng ta có thể tạo ra AI ở cấp độ con người, và bạn tin rằng chúng ta có thể tạo ra thực tế ảo tốt như thế này về mặt độ phân giải, phản hồi xúc giác, bất kỳ thuộc tính gì, thì tôi cam đoan ngay bây giờ: ngay khi điều đó trở nên rẻ, tôi sẽ chạy hàng tỷ mô phỏng của khoảnh khắc chính xác này, đảm bảo rằng về mặt thống kê bạn đang ở trong một mô phỏng. Nói lại phần cuối đi, anh sẽ chạy, anh sẽ chạy…
Tôi cam đoan ngay bây giờ, khi nó rất rẻ, giống như 10 đô một tháng để chạy nó, tôi sẽ chạy một tỷ mô phỏng của cuộc phỏng vấn này.
Tại sao?
Bởi vì về mặt thống kê, điều đó có nghĩa là bạn đang ở trong một mô phỏng ngay bây giờ. Khả năng bạn đang ở trong thế giới thật chỉ là một phần tỷ.
Để tôi hiểu rõ: đó là đặt vào hồi tố?
Đúng vậy, nên ngay khi nó rẻ, bạn có thể chạy hàng tỷ mô phỏng. Và những mô phỏng đó sẽ cảm nhận và xuất hiện chính xác như cuộc phỏng vấn này bây giờ. Nếu AI có trạng thái nội tâm, trải nghiệm, qualia — một số người tranh luận rằng chúng không có, một số nói là chúng đã có — đó là một câu hỏi triết học riêng. Nhưng nếu chúng ta có thể mô phỏng điều này, tôi sẽ làm.
Một số người có thể hiểu lầm. Anh không nói rằng anh sẽ làm. Anh nói là ai đó sẽ làm.
Tôi cũng có thể làm. Tôi không ngại. Tất nhiên, người khác sẽ làm trước khi tôi đến được. Nếu tôi chạy với 10 đô, người khác có thể đã có công nghệ với 1.000 đô. Đó không phải là vấn đề. Nếu bạn có công nghệ, chắc chắn chúng ta sẽ chạy rất nhiều mô phỏng cho nghiên cứu, giải trí, trò chơi, nhiều lý do khác nhau. Và số lượng đó lớn hơn rất nhiều so với số thế giới thật mà chúng ta có.
Hãy nhìn tất cả các trò chơi điện tử mà trẻ con đang chơi. Mỗi đứa trẻ chơi 10 trò khác nhau. Khoảng một tỷ trẻ em trên thế giới. Vậy là 10 tỷ mô phỏng trong một thế giới thật. Hơn nữa, khi nghĩ về AI tiên tiến, các hệ thống siêu thông minh suy nghĩ không giống chúng ta. Họ nghĩ chi tiết hơn nhiều. Họ chạy thí nghiệm. Vì vậy, chạy một mô phỏng chi tiết của một vấn đề ở cấp độ tạo ra con người nhân tạo và mô phỏng cả hành tinh sẽ là thứ họ làm thường xuyên. Nên có khả năng cao là không phải tôi chạy nó với 10 đô; đó là một mô phỏng tương lai đang nghĩ về điều gì đó trong thế giới này.
Có thể một chủng loài người hoặc một dạng trí tuệ nào đó đã đạt tới điểm mà họ có thể chạy các mô phỏng như vậy với chi phí chấp nhận được. Họ quyết định làm điều đó. Và đây chính là thứ đó ngay bây giờ. Và điều đó có lý khi họ chạy mô phỏng như thí nghiệm hoặc để chơi game hay giải trí. Ngoài ra, khi nghĩ về thời gian, trong thế giới mà tôi đang ở, trong mô phỏng mà tôi có thể đang ở ngay bây giờ, thời gian cảm thấy dài tương đối. Bạn biết đấy, tôi có 24 giờ một ngày. Nhưng trong thế giới của họ, có thể… Thời gian là tương đối. Có thể chỉ là một giây. Cả đời tôi có thể chỉ là một phần nghìn giây ở đó. Đúng. Bạn có thể thay đổi tốc độ của các mô phỏng mà bạn chạy, chắc chắn là được.
Vậy niềm tin của anh là đây có thể là một mô phỏng?
Rất có thể. Và có nhiều người đồng ý điều đó, nếu bạn quay lại nhìn tôn giáo. Mỗi tôn giáo về cơ bản mô tả điều gì? Một thực thể siêu thông minh, một kỹ sư, một lập trình viên, tạo ra một thế giới giả để thử nghiệm hay vì lý do gì đó. Nhưng nếu bạn mang giả thuyết mô phỏng ra, đi vào rừng, nói chuyện với những người bản địa nguyên thủy trong một bộ tộc, và bằng ngôn ngữ của họ bạn kể về điều đó. Quay lại hai thế hệ sau, họ có tôn giáo. Về cơ bản câu chuyện là như vậy. Tôn giáo mô tả một lý thuyết mô phỏng, đại khái là ai đó đã tạo ra… Vậy mặc định đó là giả thuyết đầu tiên mà chúng ta có. Và bây giờ với khoa học, ngày càng nhiều người nói: tôi cho điều này một xác suất không nhỏ. Một vài người đặt xác suất cao như tôi, nhưng nhiều người khác cũng cho nó một phần tin cậy.
Anh đánh giá bao nhiêu phần trăm khả năng chúng ta đang sống trong một mô phỏng?
Rất gần với sự chắc chắn.
Điều đó có ý nghĩa gì đối với bản chất cuộc sống của anh? Nếu anh gần như 100% chắc chắn rằng chúng ta đang sống trong một mô phỏng, điều đó có thay đổi gì trong cuộc sống anh không?
Tất cả những thứ anh quan tâm vẫn như cũ. Đau vẫn đau. Tình yêu vẫn là tình yêu, phải không? Những thứ đó không khác. Vậy nên điều đó không quan trọng — chúng vẫn quan trọng. Điều đó là cốt lõi. Khác biệt nhỏ khoảng 1% là tôi quan tâm đến những gì nằm ngoài mô phỏng. Tôi muốn biết về nó.
Tôi viết các bài báo về việc đó.
Vậy đó là tác động duy nhất.
Còn bạn nghĩ bên ngoài mô phỏng là gì?
Tôi không biết.
Nhưng chúng ta có thể nhìn thế giới này và suy ra một số đặc tính của những người mô phỏng.
Rõ ràng, kỹ sư thiên tài, nhà khoa học thiên tài, nghệ sĩ thiên tài.
Không giỏi về đạo đức và luân lý lắm.
Còn chỗ để cải thiện.
Theo quan điểm của chúng ta về đạo đức và luân lý nên thế nào.
Chúng ta biết có đau khổ trên đời.
Vậy trừ khi bạn cho rằng tra tấn trẻ con là hợp đạo đức, nếu không thì tôi đang đặt câu hỏi về cách tiếp cận của bạn.
Nhưng xét về động cơ, để tạo động lực tích cực, bạn có lẽ cũng cần tạo động lực tiêu cực.
Đau khổ dường như là một trong những động lực tiêu cực được xây dựng trong thiết kế của chúng ta để ngăn tôi làm những việc không nên làm.
Ví dụ như đưa tay vào lửa, sẽ rất đau.
Nhưng tất cả đều là vấn đề mức độ.
Mức độ đau khổ, đúng không?
Những kích thích khó chịu, phản hồi tiêu cực không nhất thiết phải ở mức vô cùng như địa ngục.
Bạn không muốn thiêu đốt một sinh mạng và khiến họ cảm nhận nỗi đau đó.
Bạn muốn là: ôi, điều này khó chịu.
Tôi sẽ dừng lại.
Thú vị là vì chúng ta giả định họ không có đạo đức và luân lý tốt.
Nhưng chính chúng ta cũng vậy, chúng ta giết động vật rồi nấu chín và ăn chúng cho bữa tối.
Và chúng ta cũng tiến hành thí nghiệm trên chuột và rat.
Để có sự chấp thuận của trường đại học cho một thí nghiệm, bạn nộp đề xuất.
Và có một hội đồng đạo đức sẽ nói: bạn không thể thử nghiệm trên con người.
Bạn không thể thiêu sống trẻ sơ sinh.
Bạn không thể ăn sống động vật.
Tất cả những điều đó sẽ bị cấm.
Ở hầu hết các nơi trên thế giới.
Nơi có các ủy ban đạo đức.
Ừ.
Một vài nơi thì không bận tâm đến chuyện đó.
Nên quy trình phê duyệt ở đó dễ hơn.
Thật buồn cười khi nói về thuyết mô phỏng, có một yếu tố trong cuộc trò chuyện khiến cuộc sống trở nên ít ý nghĩa hơn theo một cách kỳ lạ.
Tôi biết là chẳng quan trọng, nhưng mỗi khi tôi nói chuyện với mọi người — không phải trên podcast — về việc chúng ta có đang sống trong mô phỏng hay không?
Bạn gần như thấy một chút ý nghĩa rời khỏi cuộc sống họ trong chốc lát.
Rồi họ quên và tiếp tục.
Nhưng suy nghĩ rằng đây là một mô phỏng gần như ngầm bảo rằng nó không quan trọng.
Hoặc rằng tôi nghĩ con người muốn tin rằng đây là cấp độ cao nhất và chúng ta ở mức quan trọng nhất.
Và chúng ta là trung tâm của vũ trụ.
Chúng ta khá tự phụ theo thiết kế.
Và tôi chỉ thấy, đó là một quan sát thú vị tôi luôn có khi trò chuyện với mọi người rằng dường như nó tước mất điều gì đó khỏi cuộc sống của họ.
Bạn có nghĩ người theo tôn giáo cảm thấy như vậy không?
Họ biết có một thế giới khác và thế giới quan trọng không phải là thế giới này.
Bạn có nghĩ họ không trân trọng cuộc sống của mình như vậy không?
Tôi đoán là ở một số tôn giáo có.
Tôi nghĩ họ cho rằng thế giới này được tạo ra cho họ và rằng họ sẽ lên thiên đường hay xuống địa ngục.
Và điều đó vẫn đặt họ ở vị trí trung tâm.
Nhưng nếu đó là một mô phỏng, bạn biết đấy, chúng ta có thể chỉ là một trò chơi máy tính mà một đứa trẻ ngoài hành tinh bốn tuổi đang nghịch trong lúc nó rảnh rỗi.
Nhưng có lẽ có một bài kiểm tra và có một mô phỏng tốt hơn mà bạn sẽ chuyển sang, và một mô phỏng tệ hơn.
Có thể có các mức độ khó khác nhau.
Có thể bạn muốn chơi ở chế độ khó hơn lần sau.
Tôi vừa đầu tư hàng triệu vào việc này và trở thành đồng sở hữu của công ty.
Đó là một công ty tên là Ketone IQ.
Câu chuyện khá thú vị.
Tôi bắt đầu nói về quá trình ketosis trên podcast này và việc tôi ăn rất ít tinh bột, rất, rất ít đường, và cơ thể tôi tạo ra các ketone, những thứ đã khiến tôi tập trung phi thường, cải thiện sức bền, cải thiện tâm trạng, và làm tôi khả năng hơn trong công việc ở đây.
Vì tôi nói về điều đó trên podcast, vài tuần sau, mấy cái lọ/ống nhỏ này xuất hiện trên bàn làm việc tại trụ sở ở London của tôi.
Ôi Chúa ơi, tác động của chúng lên khả năng diễn đạt, tập trung, buổi tập, tâm trạng của tôi, và ngăn cho tôi khỏi sụp năng lượng suốt cả ngày thật sâu sắc đến mức tôi đã liên hệ với những người sáng lập công ty.
Và bây giờ tôi là đồng chủ sở hữu của doanh nghiệp này.
Tôi khuyên bạn rất, rất nên tìm hiểu điều này.
Tôi khuyên bạn nên xem khoa học đứng sau sản phẩm.
Nếu bạn muốn thử cho bản thân, hãy truy cập ketone.com/Stephen để được giảm 30% cho đơn hàng theo gói thuê bao.
Và bạn cũng sẽ nhận được một món quà miễn phí với lô hàng thứ hai.
Đó là ketone.com/Stephen.
Và tôi rất vinh dự rằng một lần nữa, một công ty tôi sở hữu có thể tài trợ cho podcast của tôi.
Tôi đã xây dựng công ty từ con số không và đầu tư vào nhiều công ty khác.
Và có một điểm mù mà tôi cứ thấy ở những nhà sáng lập giai đoạn đầu.
Họ dành rất ít thời gian để nghĩ về nhân sự.
Và không phải vì họ liều lĩnh hay không quan tâm.
Mà vì họ ám ảnh với việc xây dựng công ty của mình.
Và tôi không thể trách họ về điều đó.
Ở giai đoạn đó, bạn nghĩ về sản phẩm, làm sao thu hút khách hàng mới, làm sao phát triển đội ngũ, thực sự là làm sao để tồn tại.
Và nhân sự bị đẩy xuống dưới vì nó không có vẻ khẩn cấp.
Nhưng sớm hay muộn, nó sẽ trở nên khẩn cấp.
Và khi mọi chuyện trở nên lộn xộn, những công cụ như nhà tài trợ hôm nay của chúng tôi, JustWorks, chuyển từ việc chỉ là thứ hay có sang thành thứ cần thiết.
Có chuyện xảy ra ngoài kế hoạch và bạn thấy mình phải có những cuộc đối thoại mà bạn không ngờ tới.
Đó là lúc bạn học được rằng nhân sự thực sự là cơ sở hạ tầng của công ty bạn.
Và nếu không có nó, mọi thứ sẽ lung lay.
Và JustWorks giúp bạn không phải học điều đó bằng cách chịu đựng hậu quả.
Nó lo những thứ mà nếu không sẽ tiêu hao năng lượng và thời gian của bạn, tự động hóa tiền lương, bảo hiểm y tế và các quyền lợi.
Và cung cấp cho đội ngũ của bạn sự hỗ trợ từ con người bất cứ lúc nào.
Nó phát triển cùng doanh nghiệp nhỏ của bạn từ giai đoạn khởi nghiệp đến tăng trưởng, ngay cả khi bạn bắt đầu thuê nhân viên ở nước ngoài.
Vậy nếu bạn muốn có hỗ trợ nhân sự đồng hành cả lúc thú vị lẫn khó khăn, hãy vào JustWorks.com ngay.
Đó là JustWorks.com.
Và bạn có nghĩ nhiều về kéo dài tuổi thọ không?
Rất nhiều, vâng.
Đó có lẽ là vấn đề quan trọng thứ hai bởi vì nếu AI không tiêu diệt chúng ta, thì lão hóa sẽ làm vậy.
Bạn nói gì cơ?
Bạn sẽ chết vì tuổi già.
Cũng không sao.
Điều đó không tốt.
Bạn muốn chết à?
Ý tôi là…
Bạn không bắt buộc phải thế.
Đó chỉ là một căn bệnh.
Chúng ta có thể chữa được.
Không gì ngăn cản bạn sống mãi.
Chỉ cần vũ trụ còn tồn tại.
Trừ khi chúng ta thoát khỏi mô phỏng.
Nhưng chúng ta sẽ không muốn một thế giới mà ai cũng có thể sống mãi, đúng không?
Thế thì sẽ…
Chắc chắn là chúng ta muốn.
Tại sao?
Bạn muốn ai chết?
Tôi không biết.
Ý tôi là, tôi nói vậy vì đó là tất cả những gì tôi từng biết: người ta sẽ chết.
Nhưng chẳng phải thế giới sẽ trở nên quá đông nếu…
Không, bạn sẽ ngừng sinh con nếu bạn sống mãi.
Bạn có con vì bạn muốn có người thay thế bạn.
Nếu bạn sống mãi, bạn sẽ nghĩ, mình sẽ có con sau một triệu năm cũng được.
Ngầu đấy.
Tôi sẽ đi khám phá vũ trụ trước.
Thêm nữa, nếu nhìn vào động lực dân số thực tế ngoài trừ một vài châu lục, chúng ta đang co lại.
Chúng ta không tăng dân số.
Ừ, thật điên rồ.
Thật lạ là càng giàu thì càng ít con, điều đó trùng với những gì bạn nói.
Và tôi thực sự nghĩ, nếu…
Tôi sẽ thành thật hoàn toàn nhé.
Tôi nghĩ nếu tôi biết mình sẽ sống đến một nghìn tuổi, chắc chắn tôi sẽ không sinh con ở tuổi 30.
Đúng.
Chính xác.
Đồng hồ sinh học dựa trên các mốc kết thúc.
Trong khi nếu đồng hồ sinh học của bạn là vô hạn, bạn sẽ nghĩ, để tới một ngày nào đó.
Và bạn nghĩ điều đó gần không?
Có thể kéo dài cuộc sống của chúng ta?
Chỉ còn cách một đột phá thôi.
Tôi nghĩ ở đâu đó trong bộ gen của chúng ta có một vòng lặp trẻ hóa.
Nó được đặt để cơ bản cho chúng ta tối đa 120 năm.
Tôi nghĩ chúng ta có thể đặt lại nó thành con số lớn hơn.
AI có lẽ sẽ đẩy nhanh điều đó.
Đó là một lĩnh vực ứng dụng rất quan trọng.
Vâng, hoàn toàn đúng.
Vậy có thể Brian Johnson nói đúng khi ông ấy nói, đừng chết bây giờ.
Ông ấy cứ nói với tôi, kiểu như, đừng chết bây giờ.
Đừng bao giờ chết.
Bởi vì ông ấy muốn nói là, đừng chết trước khi chúng ta có công nghệ.
Tuổi thọ, thoát, vận tốc.
Bạn muốn sống đủ lâu để rồi có thể sống mãi.
Nếu tại một thời điểm nào đó, mỗi năm bạn sống, nhờ các đột phá y học mà chúng ta cộng thêm hai năm vào thời gian tồn tại của bạn, thì bạn sẽ sống mãi.
Bạn chỉ cần sống đến thời điểm đạt được cái gọi là tuổi thọ, thoát, vận tốc đó.
Ông ấy nghĩ rằng tuổi thọ, thoát, vận tốc, đặc biệt trong một thế giới có AI, ít nhất cũng còn cách vài thập kỷ, nghĩa là…
Ngay khi chúng ta hiểu hoàn toàn bộ gen người, tôi nghĩ chúng ta sẽ tạo được những đột phá tuyệt vời rất nhanh.
Bởi vì chúng ta biết có người có gen sống lâu hơn nhiều.
Họ có những thế hệ người sống đến trăm tuổi.
Nếu chúng ta hiểu được điều đó và sao chép được, hoặc lấy cảm hứng từ một số loài động vật sống rất lâu, chúng ta sẽ đạt được.
Bạn có muốn sống mãi không?
Tất nhiên.
Đảo ngược câu hỏi.
Giả sử chúng ta sống mãi và bạn hỏi tôi, bạn có muốn chết sau 40 năm không?
Tại sao tôi lại phải nói có?
Tôi không biết.
Có thể bạn chỉ quen với mặc định.
Ừ, tôi quen với mặc định.
Và không ai muốn chết.
Dù bạn bao tuổi, không ai nói, vâng, tôi muốn chết năm nay.
Mọi người đều nói, tôi muốn tiếp tục sống.
Tôi tự hỏi nếu sống 10.000 năm thì mọi thứ có kém đặc biệt hơn không.
Tôi tự hỏi lần đầu đến Hawaii hay, tôi không biết, một mối quan hệ, tất cả những thứ đó có còn ý nghĩa nhiều với tôi nếu chúng trở nên không khan hiếm.
Và nếu tôi chỉ, bạn biết đấy.
Nó có thể ít đặc biệt hơn về mặt cá nhân, nhưng bạn có thể làm được nhiều việc hơn rất nhiều.
Hiện giờ bạn chỉ có thể lên kế hoạch làm gì đó trong một thập kỷ hay hai.
Bạn không thể có một kế hoạch tham vọng làm một dự án trong 500 năm.
Hãy tưởng tượng những khả năng mở ra với thời gian vô hạn trong một vũ trụ vô tận.
Ôi trời.
Ừm, bạn không thể.
Nghe mệt mỏi ghê.
Đó là một lượng thời gian khổng lồ.
Ngoài ra, tôi không biết bạn thế nào, nhưng tôi không nhớ chi tiết khoảng 99% cuộc đời mình.
Tôi nhớ những dấu mốc lớn.
Vậy nên dù tôi có thích Hawaii 10 năm trước, tôi sẽ lại thích nó lần nữa.
Bạn đang nghĩ về điều đó rất thực tế theo kiểu giống như Brian Johnson không, Brian Johnson tin rằng có lẽ chúng ta cách vài thập kỷ để kéo dài cuộc sống.
Bạn có nghĩ về điều đó một cách thực tế không?
Và bạn đang làm gì về nó không?
Chế độ ăn, dinh dưỡng.
Tôi cố nghĩ về các chiến lược đầu tư trả được trong một triệu năm.
Thật á?
Ừ, tất nhiên.
Ý bạn là sao, tất nhiên?
Tất nhiên.
Sao lại không?
Nếu bạn nghĩ điều này sẽ xảy ra, bạn nên làm vậy.
Vậy nếu chúng ta làm đúng với AI, thì nền kinh tế sẽ ra sao?
Chúng ta đã nói về Worldcoin.
Chúng ta đã nói về lao động miễn phí.
Tiền là gì giờ đây?
Bây giờ là Bitcoin?
Bạn có đầu tư vào đó không?
Có gì khác trở thành nguồn tài nguyên duy nhất mà ta không thể làm giả không?
Vì vậy những thứ đó là các đề tài nghiên cứu rất quan trọng.
Vậy bạn đang đầu tư vào Bitcoin phải không?
Ừ.
Đó là thứ duy nhất khan hiếm.
Không có gì khác có tính khan hiếm.
Mọi thứ khác, nếu giá lên, sẽ sản xuất thêm.
Tôi có thể làm nhiều vàng bao nhiêu bạn muốn, với mức giá phù hợp.
Bạn không thể làm thêm Bitcoin.
Một số người nói Bitcoin chỉ là thứ trên máy tính mà tất cả chúng ta đồng ý là có giá trị.
Chúng ta cũng chỉ là những thứ trên máy tính mà thôi.
Nhớ chứ?
Được rồi.
Ý tôi là, không phải lời khuyên đầu tư, nhưng là lời khuyên đầu tư.
Thật buồn cười làm sao khi đó là một trong những câu họ nói là không, nhưng bạn biết ngay là có.
“Cuộc gọi của bạn quan trọng với chúng tôi.”
Có nghĩa là cuộc gọi của bạn chẳng có chút quan trọng nào.
Và đầu tư cũng vậy.
Khi họ nói không phải lời khuyên đầu tư, đó chắc chắn là lời khuyên đầu tư, nhưng lại không phải lời khuyên đầu tư.
Được rồi.
Vậy bạn lạc quan về Bitcoin vì nó không thể bị can thiệp.
Nó là thứ duy nhất mà ta biết chính xác có bao nhiêu trên thế giới.
Còn vàng, có thể có một tiểu hành tinh làm bằng vàng nguyên chất đang hướng về chúng ta, làm giảm giá trị nó.
À, đồng thời còn giết hết chúng ta nữa.
Nhưng Bitcoin, tôi biết chính xác con số.
Ngay cả 21 triệu cũng là mức tối đa.
Có bao nhiêu bị mất?
Mật khẩu quên.
Tôi không biết Satoshi đang làm gì với triệu Bitcoin của mình. Nó ngày càng trở nên khan hiếm hơn mỗi ngày trong khi ngày càng nhiều người cố gắng tích lũy nó. Một số người lo rằng nó có thể bị bẻ khóa bằng siêu máy tính. Máy tính lượng tử có thể phá được thuật toán đó. Có những chiến lược để chuyển sang mật mã chống lượng tử cho việc đó. Và máy tính lượng tử vẫn còn khá yếu. Bạn có nghĩ tôi nên thay đổi điều gì trong cuộc sống sau cuộc trò chuyện này không? Có việc gì tôi nên làm khác ngay khoảnh khắc bước ra khỏi cửa không? Tôi đoán là anh đã đầu tư vào Bitcoin rồi, phải không? Vâng, tôi là một nhà đầu tư Bitcoin. Đây không phải là tư vấn tài chính. Không, chỉ là trông anh có vẻ đang chiến thắng. Có thể đó là mô phỏng của anh. Anh giàu, đẹp trai. Anh có người nổi tiếng tụ tập xung quanh. Ồ, như vậy cũng khá tốt. Cứ giữ phong độ. Ừ. Robin Hanson có một bài viết về cách sống trong một mô phỏng, những điều anh nên làm trong đó. Và mục tiêu của anh là làm chính xác như vậy. Anh muốn trở nên thú vị. Anh muốn chơi với người nổi tiếng để họ không tắt chương trình. Như vậy anh là một phần của phần nào đó mà có người thực sự đang xem theo lượt trả tiền hay gì đó như vậy. Ồ, tôi không biết liệu anh có muốn bị xem theo lượt trả tiền không vì khi đó anh sẽ bị… rồi họ tắt anh. Nếu không ai xem, tại sao họ lại phát? Ý tôi là, chẳng phải anh muốn ẩn mình dưới tầm ngắm sao? Chẳng phải anh muốn là người chỉ sống một cuộc đời bình thường mà “chủ” quan sát sao? Đó là những NPC. Không ai muốn làm NPC. Anh có tin tôn giáo không? Không theo nghĩa truyền thống, nhưng tôi tin vào giả thuyết mô phỏng, trong đó có một thực thể siêu thông minh. Nhưng anh không tin vào sách tôn giáo sao? Các tôn giáo khác nhau sẽ nói khác nhau. Tôn giáo này bảo đừng làm việc vào thứ Bảy. Tôn giáo kia bảo đừng làm việc vào Chủ Nhật. Đừng ăn lợn. Đừng ăn bò. Họ chỉ có những tập tục địa phương trên nền tảng lý thuyết đó. Chỉ vậy thôi. Chúng đều là cùng một tôn giáo. Tất cả họ thờ một thực thể siêu thông minh. Tất cả họ nghĩ thế giới này không phải là thế giới chính. Và họ tranh luận về con vật nào không được ăn. Bỏ qua những hương vị địa phương. Tập trung vào điểm chung của tất cả tôn giáo. Và đó là phần thú vị. Tất cả họ đều nghĩ có điều gì đó lớn hơn con người. Rất có năng lực, biết mọi thứ, toàn năng. Rồi tôi chạy một trò chơi máy tính. Đối với những nhân vật đó trong trò chơi, chính là tôi. Tôi có thể thay đổi cả thế giới. Tôi có thể tắt nó đi. Tôi biết mọi thứ trong thế giới. Thật buồn cười, lúc nãy khi chúng ta bắt đầu nói về thuyết mô phỏng, tôi đã nghĩ có thể có cái gì đó bẩm sinh ở chúng ta được để lại từ người tạo ra, gần như là một manh mối, như một trực giác. Bởi vì đó là thứ chúng ta có theo lịch sử. Con người có trực giác rằng tất cả những điều anh nói là đúng, rằng có một ai đó ở phía trên. Và chúng ta có nhiều thế hệ người theo tôn giáo, tin rằng Thượng Đế đã đến với họ và hiện diện và giao cho họ sách vở. Và điều đó được truyền lại qua nhiều thế hệ. Có lẽ đây là một trong những thế hệ đầu tiên không có niềm tin tôn giáo phổ quát. Tôi tự hỏi liệu những người đó có nói thật không. Tôi tự hỏi liệu những người nói rằng Chúa đã đến với họ và nói gì đó có thật không. Hãy tưởng tượng điều đó. Tưởng tượng nếu đó là một phần của chuyện này. Hôm nay tôi đang nhìn tin tức. Có chuyện xảy ra một giờ trước. Và tôi nhận được những kết quả mâu thuẫn khác nhau. Tôi thậm chí không thể biết rõ với camera, với drone, với một anh chàng trên Twitter ở đó. Tôi vẫn không biết chuyện gì đã xảy ra. Và anh nghĩ rằng 3.000 năm trước chúng ta có một bản ghi chép chuyển ngữ chính xác ư? Không, tất nhiên là không. Anh biết những cuộc trò chuyện xung quanh an toàn AI mà anh có không? Anh nghĩ chúng làm người ta cảm thấy tốt chứ? Tôi không biết họ cảm thấy tốt hay xấu, nhưng người ta thấy thú vị. Đó là một trong những chủ đề mà tôi có thể trò chuyện về các phương pháp chữa ung thư khác nhau với một người bình thường. Nhưng ai cũng có quan điểm về AI. Ai cũng có quan điểm về mô phỏng. Thật thú vị là bạn không cần phải được giáo dục cao hay là thiên tài mới hiểu được những khái niệm đó. Bởi vì tôi có xu hướng nghĩ rằng nó làm tôi cảm thấy không tích cực. Và tôi hiểu điều đó, nhưng tôi luôn cho rằng bạn không nên sống trong một thế giới ảo tưởng, nơi bạn chỉ tìm cách để cảm thấy tích cực, nghe những điều tích cực và tránh những cuộc trò chuyện khó chịu. Thực ra, tiến bộ trong đời tôi thường đến từ việc có những cuộc trò chuyện khó chịu, nhận thức được điều gì đó, và ít nhất là biết cách mình có thể làm gì về nó. Và vì vậy tôi nghĩ đó là lý do tôi đặt câu hỏi, bởi tôi nghĩ hầu hết mọi người, nếu họ là con người bình thường, sẽ nghe những cuộc trò chuyện này và nói, ôi trời, đáng sợ quá. Và điều này thật đáng lo. Rồi tôi lại quay về điểm này, tức là, tôi làm gì với năng lượng đó? Ừ, nhưng tôi đang cố chỉ ra, điều này không khác gì nhiều cuộc trò chuyện khác. Chúng ta có thể nói về, ôi, có đói kém ở khu vực này, diệt chủng ở khu vực kia, người ta đang chết, ung thư đang lan, tỷ lệ tự kỷ tăng. Luôn luôn có thể tìm ra điều gì đó khiến bạn rất chán nản, và không có gì bạn có thể làm về nó. Và chúng ta rất giỏi tập trung vào những gì mình có thể thay đổi, những gì mình giỏi, và cơ bản là không cố ôm lấy cả thế giới như một môi trường địa phương. Về mặt lịch sử, bạn lớn lên với một bộ tộc, xung quanh bạn có một chục người, nếu có chuyện gì xảy ra với một trong số họ, đó rất hiếm, đó là một tai nạn. Và bây giờ, nếu tôi lên mạng, ai đó bị giết ở khắp nơi mọi lúc. Bằng cách nào đó, hàng ngàn người được báo cho tôi mỗi ngày. Tôi thậm chí không có thời gian để nhận ra. Quá nhiều. Vậy nên tôi phải đặt bộ lọc vào. Và tôi nghĩ chủ đề này là thứ người ta rất giỏi lọc ra như kiểu, đây là buổi nói chuyện giải trí tôi đã đi, giống như một chương trình. Và ngay khi tôi rời đi, nó kết thúc. Thường thì tôi sẽ đi thuyết trình chính tại một hội nghị, và tôi nói với họ, cơ bản là, các bạn đều sẽ chết. Các bạn chỉ còn hai năm nữa.
Có câu hỏi nào không?
Mọi người kiểu hỏi: “Tôi sẽ mất việc à?”
“Làm sao để bôi trơn robot tình dục của tôi?”
Kiểu đủ thứ vô lý như vậy, rõ ràng họ không hiểu tôi đang cố nói gì.
Đó là những câu hỏi hay, thú vị, nhưng chưa thực sự chấp nhận kết quả.
Họ vẫn mắc kẹt trong cái bong bóng “cục bộ so với toàn cầu”.
Còn những người phản đối bạn nhất về vấn đề an toàn AI thì họ nói gì?
Họ thường phản biện như thế nào?
Rất nhiều người thậm chí không tham gia cuộc thảo luận.
Họ chẳng có kiến thức nền tảng về chủ đề.
Họ chưa từng viết một cuốn sách hay một bài báo nào, không phải của tôi mà của bất kỳ ai.
Họ thậm chí có thể đang làm việc trong một lĩnh vực liên quan.
Ví dụ họ làm một số việc về máy học cho công ty, tối đa hóa lượt click quảng cáo.
Với họ, những hệ thống đó rất chuyên biệt, rất hẹp.
Rồi họ nghe rằng, rõ ràng, AI sẽ thống trị thế giới.
“Nó không có tay. Làm sao mà nó làm được?”
Nghe nực cười. Người này điên. Ông ta có râu. Tại sao tôi phải nghe ông ta, đúng không?
Rồi họ bắt đầu đọc một chút. Họ thấy: “Ồ, được rồi. Có lẽ AI có thể nguy hiểm. Ừ, tôi thấy vậy.”
Nhưng trước đây chúng ta luôn giải quyết các vấn đề. Lần này cũng sẽ giải quyết. Ý tôi là, có lúc chúng ta đã xử được virus máy tính hay gì đó. Vậy thì cũng giống nhau.
Về cơ bản, họ càng tiếp xúc nhiều thì càng ít có khả năng giữ quan điểm đó.
Tôi biết nhiều người đã từ một lập trình viên rất cẩu thả trở thành nhà nghiên cứu an toàn.
Tôi không biết ai từ “tôi lo về an toàn AI” chuyển sang “không có gì phải lo cả”.
Bạn có lời kết nào không?
Hãy chắc chắn rằng chúng ta sẽ không phải có một “lời kết” dành cho nhân loại.
Hãy chắc chắn rằng chúng ta vẫn làm chủ, kiểm soát.
Hãy chắc chắn rằng chúng ta chỉ xây dựng những thứ có lợi cho mình.
Hãy đảm bảo những người đưa ra quyết định đó ít nhất có đủ năng lực để làm việc đó.
Họ không chỉ giỏi khoa học, kỹ thuật và kinh doanh, mà còn phải có tiêu chuẩn đạo đức.
Và nếu bạn làm điều gì ảnh hưởng tới người khác, bạn nên hỏi ý kiến họ.
Nếu trước mặt bạn có một nút bấm, và nó sẽ tắt mọi công ty AI trên thế giới ngay bây giờ, vĩnh viễn, không ai có thể thành lập công ty AI mới nữa, bạn có bấm không?
Chúng ta sẽ mất AI hẹp hay chỉ mất phần AGI siêu thông minh?
Mất hết AI ư? Đó là câu hỏi khó vì AI cực kỳ quan trọng.
Nó điều khiển thị trường chứng khoán, các nhà máy điện. Nó điều khiển bệnh viện.
Đó sẽ là một tai họa khủng khiếp. Hàng triệu người có thể mất mạng.
Được, ta có thể giữ lại AI hẹp.
Ồ vâng. Đó là điều chúng ta muốn. Chúng ta muốn AI hẹp làm tất cả những việc này cho chúng ta, nhưng không muốn một thực thể mạnh như “Chúa” mà ta không kiểm soát được làm điều gì đó với chúng ta.
Vậy anh sẽ dừng nó, dừng AGI và siêu trí tuệ?
Chúng ta đã có AGI. Những gì chúng ta có ngày hôm nay rất tốt cho hầu như mọi thứ. Ta có thể biến nó thành thư ký.
99% tiềm năng kinh tế của công nghệ hiện tại chưa được khai thác.
Chúng ta phát triển AI quá nhanh, nó không có thời gian để lan tỏa qua ngành công nghiệp, qua công nghệ.
Khoảng một nửa các công việc bị coi là “công việc vô nghĩa”. Thực ra không cần phải tồn tại.
Những việc đó thậm chí không cần được tự động hóa; chúng có thể biến mất hoàn toàn.
Nhưng tôi nói rằng chúng ta có thể thay thế 60% công việc hiện nay bằng các mô hình tồn tại.
Chúng ta chưa làm điều đó. Vì vậy nếu mục tiêu là tăng trưởng kinh tế, phát triển, chúng ta có thể làm được trong nhiều thập kỷ mà không cần phải tạo ra siêu trí tuệ ngay lập tức.
Bạn có nghĩ toàn cầu, đặc biệt là ở phương Tây, tỷ lệ thất nghiệp từ đây sẽ chỉ tăng không?
Bạn có nghĩ đây là mức thấp của tỷ lệ thất nghiệp? Ý tôi là, nó dao động nhiều do các yếu tố khác — có chiến tranh, có chu kỳ kinh tế.
Nhưng nhìn chung, càng tự động hóa nhiều công việc và càng đòi hỏi trình độ cao để bắt đầu một công việc, thì càng ít người đủ điều kiện.
Nếu vẽ biểu đồ trong 20 năm tới, anh cho rằng tỷ lệ thất nghiệp sẽ dần tăng theo thời gian?
Tôi nghĩ vậy. Ngày càng ít người có thể đóng góp.
Chúng ta phần nào đã hiểu điều đó vì đã tạo ra lương tối thiểu. Chúng ta hiểu rằng một số người không đóng góp đủ giá trị kinh tế để thực sự được trả lương. Vì vậy chúng ta phải bắt buộc chủ sử dụng lao động trả họ nhiều hơn giá trị họ mang lại.
Và chúng ta chưa cập nhật mức đó. Nó là bao nhiêu, 7,25 đô la theo liên bang ở Mỹ. Nếu nhìn vào nền kinh tế hiện nay, lẽ ra phải khoảng 25 đô la/giờ. Điều đó có nghĩa là tất cả những người đang kiếm ít hơn mức ấy không tạo ra đủ sản lượng kinh tế để biện minh cho mức lương họ nhận.
Chúng tôi có một truyền thống khép lại podcast: khách mời cuối cùng để lại một câu hỏi cho khách mời tiếp theo mà không biết họ là ai. Câu hỏi để lại cho bạn là: những đặc điểm quan trọng nhất của một người bạn, đồng nghiệp hoặc bạn đời là gì?
Đó là những kiểu người rất khác nhau. Nhưng với tất cả họ, sự trung thành là số một.
Và trung thành với bạn nghĩa là gì? Không phản bội bạn? Không lừa dối bạn? Không ngoại tình với bạn? Dù bị cám dỗ. Dù hoàn cảnh và môi trường có thế nào đi nữa.
Tiến sĩ Roman, cảm ơn ông rất nhiều. Cảm ơn ông vì đã làm những gì ông làm — vì ông đang khởi xướng và thúc đẩy một cuộc trò chuyện, và làm nghiên cứu vô cùng quan trọng.
Và ông đang làm điều đó trước mặt nhiều kẻ hoài nghi, tôi nghĩ vậy. Có nhiều người có động cơ để bác bỏ những gì ông nói và làm vì họ có lợi ích riêng và hàng tỷ đô la đang bị đặt cược.
Họ còn có nguy cơ mất việc nữa. Vì vậy thật quan trọng khi có những người sẵn sàng, tôi đoán vậy, dám lộ mặt, xuất hiện trên những chương trình như thế này, lên các nền tảng lớn và nói về tương lai không thể giải thích, không thể dự đoán, không thể kiểm soát mà chúng ta đang tiến tới.
Vì vậy, cảm ơn ông đã làm điều đó.
Cuốn sách này — mà tôi nghĩ ai cũng nên đọc nếu họ muốn tiếp nối cuộc trò chuyện này — theo tôi là xuất bản năm 2024, cung cấp một cái nhìn toàn diện về nhiều điều chúng ta đã bàn hôm nay.
Ngăn ngừa thất bại của AI và còn rất, rất nhiều thứ khác nữa.
Và tôi sẽ để đường link ở dưới cho ai muốn đọc.
Nếu mọi người muốn tìm hiểu thêm từ anh, nếu họ muốn đi sâu hơn vào công việc của anh, thì điều tốt nhất họ nên làm là gì?
Họ nên đến đâu?
Họ có thể theo dõi tôi, theo dõi tôi trên Facebook, theo dõi tôi trên X.
Chỉ đừng theo tôi về nhà. Rất quan trọng.
Tôi có thể theo dõi anh.
Được rồi, vậy tôi sẽ để tài khoản Twitter/X của anh ở dưới để mọi người có thể theo dõi anh ở đó.
Và vâng, cảm ơn anh rất nhiều vì những gì anh đã làm.
Nó thực sự mở mang tầm mắt và đã cho tôi rất nhiều thứ để suy ngẫm.
Nó thậm chí còn làm tôi tin hơn rằng chúng ta đang sống trong một mô phỏng.
Nhưng nó cũng khiến tôi nghĩ khác về tôn giáo, tôi phải nói vậy.
Bởi vì anh đúng, tất cả các tôn giáo, khi tách khỏi các truyền thống địa phương, đều hướng tới cùng một điều.
Thực ra, nếu tất cả đều hướng về cùng một điều, thì có lẽ những chân lý cơ bản tồn tại ở giữa chúng là điều tôi nên chú ý hơn.
Những điều như yêu thương người lân cận, như thực tế rằng chúng ta là một, rằng có một đấng sáng tạo thiêng liêng.
Và có lẽ nữa, chúng dường như đều có hệ quả vượt ra ngoài đời này.
Vậy nên có lẽ tôi nên nghĩ nhiều hơn về cách tôi hành xử trong đời này và tôi có thể kết thúc ở đâu sau đó.
Roman, cảm ơn.
Amen.
Amen.
Amen.
是的。我曾確信我們能做出安全的人工智慧,但我越研究,越發現這並不是我們能真正做到的事。
你對各種不同的時間點做過一系列預測。
那麼你對 2027 年的預測是什麼?
羅曼·楊波斯基博士是全球公認的人工智慧安全領域聲音,也是電腦科學副教授。
他正在教育大眾關於人工智慧的可怕真相,以及我們要如何拯救人類。
在未來兩年內,取代大多數人從事大多數職業的能力會非常快速地出現。
我的意思是,五年內,我們會看到前所未有的失業率。
不是說 10%,而是 99%。
而這還不是超級智慧的情況。
超級智慧是指在所有領域都比所有人更聰明的系統。
它在創造新 AI 的能力上會比我們更強。
但情況比那更糟:
我們不知道如何讓它們安全。
然而全世界最聰明的人仍在競相贏得通往超級智慧的競賽。
那你怎麼看像山姆·奧克曼這樣的人與 AI 的旅程?
十年前,我們發布了如何正確做 AI 的防護準則。
他違反了每一條。
他拿著八十億條性命來賭,卻變得更富有、更有權力。
所以我想,如果有人想去火星,有些人則想控制宇宙。
但誰建造它並不重要。
一旦你切換到超級智慧,我們很可能會為此深感後悔。
然後到了 2045 年……
現在事情變得有趣了。
羅曼·金波斯基博士。
談談模擬理論吧。
我認為我們正身處於一個模擬之中。
這點有很多人認同。
而在這個模擬中,你應該做的事,是不要讓它被關閉。
首先,先給我 30 秒鐘時間。
我想說兩件事。
第一,非常感謝你一週又一週收聽並關注這個節目。
這對我們所有人意義重大。
這真的是我們從未夢想過、也無法想像會達到的地方。
但第二,這是一個讓我們覺得才剛開始的夢。
如果你喜歡我們做的內容,請加入那 24% 每週定期收聽這個播客並在這個應用上關注我們的人。
我向你保證一件事:
我會盡我所能讓這個節目現在和未來都做到最好。
我們會邀請你希望我採訪的來賓。
我們會繼續做所有你喜愛的節目內容。
謝謝你。
羅曼·金波斯基博士。
你目前的使命是什麼?
在我看來你確實有一個使命。
而且我想你已經為此奮鬥了至少接近二十年。
我希望確保我們現在正在創造的超級智慧不會殺光所有人。
把那句話放進背景說明一下,因為那句話相當震撼。
當然可以。
在過去十年,我們其實弄清楚如何讓人工智慧變得更好。
事實證明,加入更多計算力、更多資料,它就會變得更聰明。
因此現在,全世界最聰明的人、數十億美元的資源,都在用來創造我們能做出的最佳超級智慧。
不幸的是,雖然我們知道如何讓這些系統更有能力,我們不知道如何讓它們安全。
如何確保它們不會做出我們會後悔的事。
而這正是現行技術的狀態。
當我們只看預測市場——我們會多快到達先進 AI?
時間線非常短,幾年而已,根據預測市場、根據頂尖實驗室的執行長,兩、三年。
同時,我們不知道如何確保那些系統與我們的偏好對齊。
所以我們正在創造這種外來的智慧。
如果外星人要來到地球,而你有三年準備時間,你現在會驚慌失措。
但大多數人甚至不知道這件事正在發生。
那麼一些反駁可能會是,嗯,這些人非常非常聰明。
這些是有大量資金的大公司。
他們有責任——道德上的責任,也有法律上的責任,確保不造成傷害。
所以我相信一切會沒事的。
他們唯一的責任是為投資者賺錢。那是他們的法律責任。
他們沒有道德或倫理上的義務。
而且,根據他們自己,他們還不知道怎麼做。
現階段的答案是,我們會想辦法,到時候再解決。或者讓 AI 幫我們控制更先進的 AI。
那簡直瘋了。
就機率而言,你認為發生災難性錯誤的機率有多高?
沒有人能確定地告訴你會發生什麼。
但如果你不在掌控之中,你無法得到你想要的結果。
可能性的空間幾乎是無限的。
我們會喜歡的結果空間卻極其渺小。
你是誰?你從事這項工作多久了?
我受過電腦科學訓練。
我有電腦科學與工程的博士學位。
我大概在 15 年前開始做 AI 安全的工作,那時比較狹義地定義為對機器人的控制。
15 年前。
所以你是在這個名詞還沒流行之前就開始研究 AI 安全了。
在這個術語存在之前。
我創造了「AI 安全」這個詞。
所以你是「AI 安全」這個詞的創始人?
是這個詞,沒錯。
不是這個領域。
在我之前也有人做過傑出的工作。
你為何在 15 年前就開始思考這件事?
因為大多數人直到近兩三年才開始談「AI 安全」這個詞。
它一開始只是個安全性計畫。
我那時在看撲克機器人。
我發現這些機器人越來越強。
如果你把這個趨勢持續推進下去,它們將會變得比我們還強。
更聰明、更有能力。
而這也真的發生了。
他們打撲克牌的水平遠高於一般玩家。
但更廣泛地說,這會發生在所有其他領域。
所有其他的網路資源也是如此。
我想確保人工智慧是一項對每個人都有益的技術。
所以我開始致力於讓人工智慧更安全。
在你的職業生涯中有沒有某個時刻讓你想,天啊?
至少前五年,我一直在努力解決這個問題。
我深信我們可以做到這件事。
我們可以做出安全的人工智慧。
那就是目標。
但我越去研究,就越意識到那個方程式裡的每一個組成部分,
其實都不是我們能真正做到的。
你越放大看,就像分形一樣。
你一深入,就會發現十個新問題,
再深入就發現一百個問題。
而這些問題不只是困難。
有些根本是無法解決的。
在這個領域沒有哪一項開創性的研究能說「我們已經解決了這個問題,不用再擔心」。
只有補丁、一些臨時修補。
但人們很快就會找到繞過的方法,
破解我們設的任何安全機制。
所以當人工智慧能力的進展呈指數甚至可能是超指數性增長時,人工智慧安全的進展卻是線性的或停滯的。
差距在擴大。
系統的能力有多強,和我們能多好地控制它們、預測它們會做什麼、解釋它們的決策之間的差距在拉大。
我覺得這一點很重要,因為你剛剛說我們基本上是在對發現的問題打補丁。
我們在開發這個核心智慧,然後為了阻止它做出某些事情、或阻止它展現某些不可預測性或威脅,
開發這些 AI 的公司就在程式碼上再加一層規則,比方說:「不要罵髒話、不要說那個詞、不要做那種壞事。」
你也可以看看其他的例子。
像人力資源手冊,對吧?
我們面對的是人類。他們有通用的智慧,但你希望他們在公司裡有規矩。
所以有政策:禁止性騷擾、禁止這個那個。
但只要你夠聰明,總能找到變通辦法。
你只是把行為推到另一個還沒被限制的子領域。
我們可能應該定義一些術語。
有狹域智慧,可以下棋或做某項特定任務。
有人工通用智慧(AGI),可以跨領域運作。
然後有超級智慧,比所有人在所有領域都更聰明。
我們現在處在什麼位置?
這個界線其實很模糊,對吧?
我們確實有很多出色的狹域系統,這是毫無疑問的。
而且在那個狹窄領域它們是超級強大的。
像蛋白質摺疊就是用狹域人工智慧解決的問題,
在那個領域它優於所有人類。
談到通用人工智慧,我再說一次,如果我們把今天的成果展示給二十年前的科學家看,
他們會相信我們已經有全面的 AGI。
我們有能學習的系統,能在數百個領域表現,而且在許多領域優於人類。
所以你可以說我們有一個弱形式的 AGI。
現在,我們還沒有超級智慧。
在科學和工程領域,仍然有傑出的人類在主導人工智慧。
但差距正在迅速縮小。
尤其在數學領域,你可以看到:三年前大型語言模型還做不出基本代數,三位數相乘都是挑戰。
現在它們在協助數學證明、在數學奧林匹亞比賽中獲勝,
它們在研究千禧年難題──數學中最困難的問題。
所以在三年內,我們從低於人的表現,追趕到比世界上大多數數學家還優秀。
在科學和工程領域也看到同樣的過程。
你做了一系列預測,對應到不同的日期。
我這裡面有那些日期。
你對 2027 年的預測是什麼?
我們大概會看到預測市場和各大實驗室頂端所預測的 AGI。
也就是說我們可能在 2027 年出現人工通用智慧。
那會如何改變世界?
如果你有「可直接替換的員工」這個概念,你擁有免費的身體與認知勞動力,價值以兆美元計,
那麼對於大多數工作而言,雇用人類就不合算了。
如果我只要付每月 20 美元的訂閱,或用一個免費模型就能做到員工的工作,
首先,凡是在電腦上能做的事都會被自動化。
接著,我認為仿人機器人大概落後五年左右。
所以在五年內,所有的體力勞動也能自動化。
我們會面臨前所未見的失業率。
我說的不是那種可怕的 10% 失業率,而是 99%。
你只剩下那些因為某些原因你寧願由另一個人類來做的工作,
其他一切都可以被完全自動化。
這並不代表在實際上一定會被自動化。
很多時候,技術存在但沒有被部署。視像電話早在七零年代就發明了,
但直到 iPhone 出現後大家才開始使用。
所以我們在工作與世界看起來像這樣的狀態上,可能還有更多時間。
但替代大多數人類與多數職業的能力會很快到來。
好,讓我們針對這點多做驗證。
像我這樣的播客主持人,你還需要像我這樣的人嗎?
來看看你的工作內容。
你會準備、提出問題、追問,而且鏡頭前看起來很有說服力。
謝謝你。
我們來看看能做什麼。
今天的大型語言模型可以很容易地讀完我寫的所有東西,並有非常穩固的理解力。
我猜你不可能讀過我每一本書。
那個模型會做到的。
它可以以你做過的每一集播客作為訓練資料,所以它會完全掌握你的風格、你提問的類型。
它還能找出哪些做法特別奏效,比如這類問題特別能提高觀看次數。
這類主題很有前景,所以你可以做得更好,我想,比你自己現在能做的還要好,因為你沒有資料集。
當然,現在視覺模擬已經很簡單了。
所以你可以在我坐在這裡的情況下,幾秒鐘內就做出一段影片。
我們可以非常有效率地產生你與任何人在任何主題上對談的影片,你只要取得相似度、授權、同意之類的就行。
在一個有通用人工智慧(AGI)的世界裡,你認為還會剩下很多工作嗎?
如果你說通用人工智慧很可能會在 2027 年出現,無論是否已部署,
那會是什麼樣的工作會剩下?好,先把所有體力勞動的工作排除在外。
在一個有 AGI 的世界裡,還有什麼工作是人類能做得比較好的嗎?
這是我常常問別人的問題。在一個有 AGI 的世界,我幾乎立刻就會認為會出現超級智慧作為副產物。
所以真正的問題是:在一個超級智慧的世界——定義為在所有領域都比所有人類更優秀——你還能貢獻什麼?
沒有人比你更了解成為你是什麼感覺。你知道冰淇淋對你來說嚐起來如何。
你能靠那種知識賺錢嗎?有人會對那有興趣嗎?也許不會,市場不大。
有些職位你會想要一個人類。也許你很有錢,出於某些歷史或情感上的原因,你還是想要人類會計師。
年長者喜歡傳統的做事方式。Warren Buffett(沃倫·巴菲特)不會換成 AI,他會繼續用他的人類會計師。
但這只是市場的一小部分。如今我們有些產品是在美國人工製造,而不是在中國大量生產,有些人會因此付更多錢去買那些東西。但那只是小眾,幾乎是一種癖好,沒有實際理由。
我認為任何你能在電腦上做到的事,都可以用那項技術自動化。
當你說出這些話時,你一定聽到很多反駁,因為人們在聽到自己的工作、職業、學位、或是他們投資了十萬美元的東西將被奪走時,會經歷巨大的心理不適。
所以有些人的自然反應是認知失調,認為「不,你錯了,AI 不能有創造力,AI 不是這樣、不是那樣,它永遠不會對我的工作感興趣,我會沒事的,因為……」
你經常會聽到這些論點,對吧?真的很有趣。
我會問不同職業的人這個問題。我會問我的Uber司機:「你擔心自駕車嗎?」他們會說:「不,沒有人能做我做的事。我熟悉紐約的街道,我能像沒有人一樣導航。」「我很安全。」
任何工作都會有人這樣想。教授們也對我這麼說,「沒有人能像我這樣講課,這太特別了。」
但你也知道這很可笑。我們已經有自駕車在取代司機了。問題不在於是否可能,而是在於多快你會被替代、被解雇。
是的,我昨天剛在洛杉磯,我的車會自動駕駛。我上車輸入目的地後,就不碰方向盤或煞車踏板,車子會從 A 到 B,即便是一小時的車程也完全不需要我干預。其實我還是自己停車,但除此之外,我根本沒在開車。
在洛杉磯我們也有 Waymo,意思是你在手機上下單,它會來一台沒有駕駛的車載你去想去的地方。
所以這顯然只是時間問題。
對那些以開車為職業的人——我們現在也有一些這類聽眾——你會怎麼對他們說?如果我沒記錯的話,開車可能是世界上最多人的職業之一。
你會建議他們怎麼做?應該去再訓練學別的技術嗎?時間點要怎麼安排?
這就是範式轉移。以前我們總說,這個工作會被自動化,去受訓轉做另一份工作。
但如果我告訴你所有工作都會被自動化,那就沒有第二計畫。你不能靠再訓練來保住飯碗。
看看電腦科學。兩年前我們告訴人們:「去學程式吧,你是藝術家賺不了錢就去學寫程式。」然後我們發現,哦,AI 有點會寫程式,而且越來越好。
去當提示工程師吧,你可以替 AI 設計提示。那會是一份好工作,去念個四十年的學位吧(語帶諷刺)。但接著我們發現,AI 在替其他 AI 設計提示方面,比任何人都強得多。那也沒了。
所以我現在真的不能告訴你哪一份工作是安全的。現在最難的工作可能是為實際應用設計 AI 代理,但我敢保證,一兩年內那工作也會消失。
我不認為可以說「這個職業需要學這個技能來取代」。我覺得更像是,整個人類都會失去工作。我們該怎麼辦?財務上誰要養我們?在意義上我們要做什麼?我每週多出來的 60、80 個小時要怎麼安排?
你有想到這個轉折點,對吧?有一點。
在你看來,那個轉折會是什麼?
經濟面看起來比較容易。如果你創造很多免費勞力,你就創造大量免費財富,變成富足。現在很昂貴的東西會變得非常便宜,所以你可以為所有人提供基本生活需要。有些人說你甚至可以提供超出基本需要的生活品質,可以為每個人提供相當不錯的生活。
困難的問題是:那麼多人閒置的時間要怎麼處理?對很多人來說,工作是他們生命意義的一部分,因此他們會有點迷失。我們從退休或提前退休的人身上就能看到這一點。對於那些非常討厭自己工作的多人來說,他們可能會很高興不用工作。但也會有人整天閒散度日。
社會會發生什麼事?
這會怎麼影響犯罪率、懷孕率、以及各種問題?
沒有人在想,如果政府沒有準備應對 99% 失業的方案,會怎麼辦。
你認為那個世界會長什麼樣子?
再說一次,我認為這裡一個非常重要的部分是它的不可預測性。
我們無法預測一個比我們更聰明的系統會做什麼。
當我們到達那一點時,通常會被稱為「奇點」,是用物理奇點的類比。
你無法看到事件視界之外。
我可以告訴你我認為可能會發生什麼,但那只是我的預測。
它不一定會是實際發生的事,因為我根本沒有認知能力去預測一個比我強很多的智能體如何影響這個世界。
當你讀科幻小說時,裡面其實從來沒有真正做任何事的超級智慧,因為沒有人能寫出在那個層次上令人信服的科幻。
他們要麼像《沙丘》那樣禁止 AI,藉此避免去描寫它;
要麼就像《星際大戰》,裡面有些很笨的機器人,但從來沒有出現超級智慧。
因為依定義,如果那是你能預測的東西,你就會在那個智慧等級上運作,這會違背我們假設它比你更聰明。
如果我和超級智慧下棋而且我能預測每一步,那麼我就是在那個等級上在下棋。
這有點像我的法國鬥牛犬試圖精準預測我在想什麼、我要做什麼。那是一個明顯的認知差距。
而且不只是牠能預測你會去上班、會回來,牠無法理解你為什麼要做播客。那完全超出牠對世界的模型。
對,牠甚至不知道我去上班。牠只是看到我離開家,不知道我去哪裡——去替牠買食物。
反對你自己觀點的最有說服力論點是什麼?
是說因為先進科技我們不會有失業嗎?
還是說不會有這種像法國鬥牛犬與人類之間的理解差距,以及(我想)權力與控制的差距?
有些人認為我們可以增強人類心智,或是透過與硬體結合(例如 Neuralink),或是透過基因工程、基因再設計,來讓人類變得更聰明。
是啊,這可能會讓我們多一些智力。但我不認為以生物體的形式我們還能在與矽基形式競爭。
矽基載體對智慧更有優勢:它更快、更有韌性、在很多方面更節能——這就是電腦所用的材料,和大腦不同。
所以我不認為單靠改善我們的生物性就能追上。
有人認為,也很推測性地,我們可以把心智上傳到電腦裡。掃描你的大腦,把大腦徹底掃描並在電腦上運行一個模擬,然後你可以加速它,賦予它更多能力。
但對我來說,那感覺像你不再存在了。我們只是用不同的方式創造了軟體。現在你會有基於生物的 AI,和基於其他訓練方式的 AI。
你可以用進化演算法,有很多路徑可以達到 AI,但最後,它們都不是人類。
我這裡還有另一個日期,是 2030 年。
你對 2030 年的預測是什麼?世界會是什麼樣子?
所以大概到 2030 年,我們可能會有具備足夠靈活度與靈巧度、能在所有領域與人類競爭的類人機器人,包括水電工。
我們可以製造人工水電工。水電工曾被視為人類就業的最後堡壘。
所以 2030 年,五年後,類人機器人會出現。
許多領先公司,包括特斯拉,都在以極快的速度開發類人機器人,效果也越來越好。
這些類人機器人將能在實體空間移動、做煎蛋、做任何人類能做的事。當然它們也會連接到人工智慧。
它們能思考、能說話,由 AI 控制,並且會持續連接網路。
所以在很多方面它們已經佔據優勢了。
當類人機器人能夠有效運作時,我們的世界會變得非常不同,因為那真的是讓我開始思考、感到不安甚至想哭的時刻。
智慧與身體能力的結合,真的、真的沒留下太多(給我們人類)的空間,對吧?不多了。
今天,如果你透過網路擁有智能,你可以雇用人類替你辦事,你可以用比特幣付薪。
所以你可以擁有(或雇用)肉體,但不需要親自操控它們。因此,增加對實體身體的直接控制並不會帶來巨大的遊戲規則改變。重點在於智能——能更好地優化、解決問題、找到人們看不到的模式。
到 2045 年,世界會看起來更不一樣,這是 20 年後的事。
如果它還存在的話,雷·庫茲韋爾預測那一年是奇點年。那一年進展會變得極其快速,
人工智慧在科學與工程上的工作改進會如此之快,以至於我們無法再跟上。
那就是奇點的定義:超出我們能看見、理解、預測的點。
你是說我們無法看見、理解、預測那個智慧本身,還是無法看見、理解、預測世界會發生什麼事?
技術正在被開發。現在,如果我有一支 iPhone,我可以期待明年會出新型號,我會理解它只是相機稍微好一點。
想像現在這個研發新手機的過程被自動化了:每六個月、每三個月、每個月、每週、每天、每小時、每分鐘、每秒都在迭代。
你無法跟上一天內 30 次 iPhone 的迭代。你無法理解它有什麼功能、需要什麼適當的控制。它就超出你的掌握。
現在,對任何人工智慧研究者來說,也很難跟上最先進的技術狀態。
在跟你做這次訪談的時候,出了一個新模型,我已經不知道什麼是技術最前沿了。
每天,就佔整體知識的比例而言,我都在變得更愚笨。
我可能因為一直閱讀還知道更多東西,但以整體知識的百分比來看,我們都在變笨。
把這個推到極端,你會有零知識、對周遭世界零理解的情況。
反對這種結局的論點之一是,當你回顧像工業革命這類技術,人們只是找到新的工作方式和新的職業——當時我們無法想像的職業被創造出來。
在一個有超級智慧的世界,你如何回應這種說法?
這是個範式轉移。
我們一直都有工具,新工具讓某些工作做得更有效率。
所以不是要十個工人,可以只要兩個工人,另外八個工人就得去找新工作。那時會有新的工作。
你可以去監督那些工人或做些更酷的事。
但如果你在創造一項元發明——你發明的是智慧,發明的是一個工人、一個代理人——那你就能把那個代理人套用到新的工作上。
沒有哪份工作不能被自動化。這以前從未發生過。
我們之前的所有發明,都只是做事的工具。
我們發明了火——巨大的改變。但就止於此。
我們發明了輪子——同樣道理,影響深遠。但輪子本身不是發明者。
在這裡我們在發明一個能取代人類心智的東西,一個能做新發明的新發明者。
這將是我們必須做的最後一項發明。
到那時,它會接管一切。
科學研究、學術研究,甚至倫理研究、道德等所有這些,到那時都會被自動化。
你晚上睡得好嗎?
非常好。
儘管你在過去 15、20 年一直在從事 AI 安全的工作,而它突然以一種我想五年前誰都預料不到的方式出現在我們之中。
當我說「出現在我們之中」,我是指為了更快達到超級智慧而聚焦的資金與人才數量,讓它看起來比我們任何人想像的都更不可避免、來得更快。
我們人類有一種內建偏誤,不會去想那些非常糟的結果和我們無法阻止的事情。
所以我們都會死去——你的孩子會死、你的父母會死、每個人都會死。但你仍然睡得好,你仍然過你的日子。
即便九十五歲的人還是在玩牌、打高爾夫等等。
因為我們有這種能力,不去想最壞的結果,尤其當我們其實無法改變結果時。
對這件事也是同樣的心理機制。
是的,會有類似人類滅絕等級的事件。我們可能正相當接近它。
但除非我能做些什麼,否則我只好繼續享受我的生活。
事實上,也許知道自己剩的時間有限會讓你更想過好日子。你不能浪費一分一秒。
我想這是演化的存活特徵。那些整天擔心的祖先,不會花足夠時間生育和打獵來存活下來。
有自殺傾向、真的開始覺得世界有多可怕的人,通常很快就不在了。
你共同署名了一篇論文,分析人們反對重視 AI 安全的主要論點。其中一個論點是,現在有更重要的事情需要處理,像世界戰爭、核子遏制,或其他政府和像我這樣的播客主持人應該談論的更重要議題。你對這個論點有什麼反駁?
超級智慧是一個元級的解決方案。如果我們把超級智慧做對了,它能幫我們解決氣候變遷、幫我們解決戰爭,它可以解決所有其他存在性風險。
如果我們做不好,它會主導一切。如果氣候變遷要一百年把我們煮死,而超級智慧會在五年內殺光所有人,那我根本不需要擔心氣候變遷。
不管怎樣,要麼它為我解決了其他問題,要麼這些問題就不是重點。
所以你認為這是最重要的事要做?
毫無疑問,沒有比把這件事做對更重要的事了。我知道每個人都會說「任何課程都有老師會說這是你人生中最重要的一課」,但這件事在元層面上是不同的。
那篇論文裡另一個論點是我們會掌控局面,真正的危險不是 AI。這個論點主張 AI 只是工具,真正的行為者仍是人類。我們總可以通過把它關掉來維持控制。難道我們不能把插頭拔掉嗎?
我在節目上每次談到 AI 都會看到這種說法。有人會說:「我們不能就把它拔掉嗎?」是的,我每做一次播客都會收到這種評論。
我總想聯絡那個人說,這主意太聰明了,我以前從來沒想到,我們一起寫篇論文拿個諾貝爾獎吧。就像,「來吧,我們做吧。」
因為這實在太荒謬了。像是,你能把病毒關掉嗎?你有電腦病毒,不喜歡它,把它關掉。
那比特幣呢?把比特幣網絡關了試試。去做啊,我等你。
那些都是分散式系統,你沒辦法把它們關掉。
而且它們比你聰明。它們做了多重備份,預測你會做什麼。它們會在你能關掉它們之前先把你關掉。
「我們會掌控」這個想法只適用於超級智慧出現之前的層級,基本上就是我們今天擁有的這種層級。
今天,擁有 AI 工具的人類是危險的。他們可以成為駭客、惡意行為者,這點毫無疑問。
但一旦超級智慧變得更聰明並主導局勢,人類就不再是那個方程式中重要的一環。
我關心的是更高等的智慧,而不是那個可能會加入額外惡意載荷但最後仍控制不了它的人類。
我很想接著說我在那篇論文裡看到的下一個論點,基本上就是在說,聽著,這是不可避免的。
所以反抗沒有意義,因為根本沒有希望。
所以我們大概應該放棄嘗試,相信它會自我解決。
因為你剛才說的一切聽起來真的很不可避免。
而且中國也在做,我敢肯定普丁有某個祕密部門,伊朗也在做一點一滴,歐洲每個國家都在想要在 AI 上領先;美國領先,所以這是不可避免的。
所以我們大概只能有信心、祈禱。祈禱總是好的。
但誘因很重要。如果你在看是什麼驅動這些人。
是的,錢很重要。那方面有很多錢,所以每個人都想參與、想開發這項技術。
但如果他們真的理解這個論點,他們會明白你將會死去。再多的錢對你也沒有用。
那誘因就會改變。他們會想要不死。很多人是年輕人、富有人,他們還有整個人生在前面。
我認為對他們來說,不去打造先進的超級智慧會比較好。專注在用窄域人工智慧工具解決特定問題會比較妥當。
好吧,我的公司治療乳癌,就這樣。我們賺了數十億美元,大家都高興、大家都有利,這是雙贏。
我們今天還能掌控局勢。不到結束就還沒結束。我們可以決定不去建造通用的超級智慧。
我的意思是,美國或許能激起足夠的意願去做到這點。可是假如美國不去建造通用的超級智慧,那中國就會擁有巨大優勢,對吧?
所以在那個層次上,誰擁有更先進的 AI,誰就有更先進的軍力,毫無疑問。我們從現有的衝突中就看得到。
但一旦轉換到超級智慧、失控的超級智慧,誰建造它其實就不重要了,無論是我們還是他們。
如果他們理解這個論點,他們也不會去建造它。這在雙方那端是一種相互確保毀滅。
這項技術和核武之類的不同嗎?核武需要巨額投資,要濃縮鈾,可能需要數十億美元去建造一顆核武。但這項技術看起來要達到超級智慧可能便宜得多,或至少將會變得更便宜。我在想是否有可能某個人、某個新創公司在幾年內就在不需要數十億計算資源或電力的情況下造出超級智慧。
好問題。每一年訓練到足夠大模型的成本都在下降。如果今天要花一兆美元才能造出超級智慧,明年可能只要一千億,之後又更便宜。到某個時候,一個人在筆電上就能做到了。但你不想等四年才變得負擔得起。這就是為什麼有這麼多錢湧進來。有人想在今年就做到,並希望落在勝利者身上、拿到那種光錐級獎賞。
在這方面,兩者都是非常昂貴的專案,像曼哈頓計畫那種級別(曼哈頓計畫就是核彈計畫)。兩種技術的差別在於,核武仍然是工具。某個獨裁者、某個國家得有人決定使用、部署它;而超級智慧不是一個工具,它是個代理,它自己做決定,沒有人在控制它。
我不能只是把這個獨裁者搞掉,然後超級智慧就安全了。對我來說,這是一個根本性的差別。
但如果你說它會逐漸變得更便宜,就像摩爾定律那樣,科技會變便宜?
確實是的。那麼未來某個人在筆電上就能在沒有監督、沒有法規、沒有員工等情況下創造超級智慧,這是有可能的。
所以很多人建議我們需要建立某種像是監視地球的系統,監控誰在做什麼,試圖阻止人們去做這件事。
我認為那可行嗎?不。在某個時候,它會變得如此便宜、如此微不足道,最後就會發生。但在此刻,我們是在努力爭取更多時間。我們不想讓它在五年內發生,我們希望能拖到五十年後發生。
嗯,那不太令人樂觀。取決於你幾歲。
取決於你幾歲。
我的意思是,如果你相信未來人們能在不需要今天那種資源下就能造出超級智慧,那就只是時間問題。
是的,但很多其他技術也會如此。合成生物學進步很快,今天一個生物學學士可能就能創造出新病毒。這也會變得更便宜,其他類似的技術亦然。
所以我們正在接近一個點:很難確保沒有任何技術突破會成為最後致命的一次。
如果你回頭看看,譬如說五百年前,最差的獨裁者用盡所有資源最多也只能殺幾百萬人,他殺不了整個世界。現在有了核武,我們知道可以把整個地球炸好幾遍。合成生物學,我們從 COVID 看到,你可以很容易地製造出一種混合病毒,影響數十億人。所有這些事情都變得越來越容易做。
在近期內,你說滅絕是真實的風險,人類滅絕是真實的風險。
在你認為最有可能導致人類滅絕的各種途徑中,哪一條路徑是最可能的?
因為我知道你會說,在這些 AI 工具部署前會有一些問題,比如——
你知道,有人設計模型時犯錯,或是在部署後出現其他問題。
當我說部署後,我的意思是,一旦像 ChatGPT 之類的代理被放到世界上,然後有人入侵它、改變它、把它重新程式化成為惡意的。
在所有這些可能導致人類滅絕的路徑中,你認為哪一個機率最高?
我只能談我自己能預測到的那些路徑。
所以我可以預測,即使還沒到超級智慧階段,也會有人創造出非常先進的生物工具,製造出一種新病毒,然後那個病毒感染每個人或大多數人。
我能想像這個情況。
我能理解這個路徑。
我可以這麼說。
那就把焦點放在那個上面,會是用 AI 製造病毒然後釋放它嗎?
對。
那會是蓄意的嗎?
有很多精神病患者、很多恐怖分子、很多世界末日教派。我們從歷史上見過,他們試圖殺盡更多人——通常會失敗,他們殺了數十萬人。但若是獲得能夠殺死數百萬或數十億人的技術,他們會樂意去做。
我要強調的是,重點不是我能想出什麼。我不是那個你要擊敗的惡意行動者。真正要小心的是能想出全新方法的超級智慧。再說一次,你舉了你家的狗的例子。你的狗無法理解你可以用多少種方法把它除掉。它可能會想到你會咬死它之類的。但那也就是全部了。而你擁有無限的資源。所以如果我問你的狗你究竟會如何把它除掉,它不會給你有意義的答案。我們可以談咬這件事。我們知道這些東西。我們知道病毒,我們有病毒的經驗,我們可以談論它們。但一個能做出全新物理學研究的 AI 系統能想出來的東西,超出我的理解。
我覺得大多數人不理解的一點是:我們對這些 AI 真正如何運作的了解有多麼有限。因為一般人會以為,對電腦來說,我們大致理解電腦如何運作。我們知道它先做這個然後做那個,運行在程式碼上。但從讀你(指受訪者)的研究來看,你把它形容成一個黑箱。
沒錯。就連那些做出這些系統的人,也必須對他們的產品做實驗,才能知道它能做什麼。於是他們透過給它所有的資料來訓練它。比方說所有的網路文字。他們把它放到很多電腦上學習那些文字中的模式。然後我們開始用那個模型做實驗。喔,你會說法語嗎?喔,你會做數學嗎?喔,你現在在對我說謊嗎?所以也許訓練需要一年,然後要花六個月才能掌握它的某些基本能力,建立一些安全的預備認知。但我們仍然會在舊的模型上發現新的能力。如果你以不同方式問問題,它會變得更聰明。因此這不再像過去五十年那種工程學——有人當知識工程師,為專家系統寫出具體的規則讓它做特定的事。這是科學。我們正在創造這個產物,讓它成長。它像一棵外星植物,然後我們研究它在做什麼。就像植物學一樣,我們沒有百分之百準確的生物學知識。我們沒有完整的理解。我們大致知道一些模式:知道如果我們加更多算力,大多數時候它會變得更聰明。但沒有人能精確告訴你,給定一組輸入,結果會是什麼。
我看過很多創業家把業績當成表現問題來對待,但它常常是可見度的問題,因為當你看不到你的銷售管道中發生了什麼、每個對話在哪個階段、哪裡停滯、哪裡在推進時,你就無法改進任何事,也無法成交。
我們的贊助商 Pipedrive 是中小型企業首選的 CRM 工具。不只是個聯絡人名單,而是一個實際的系統,顯示你的整個銷售流程,端到端地呈現一切正在進行中的、落後的,以及你接下來需要採取的步驟。你所有的團隊都能運作得更聰明、更迅速。使用 Pipedrive 的團隊平均成交數是沒用它團隊的三倍。這是第一個由業務人員為業務人員打造的 CRM,有超過十萬家公司在全球倚賴它,包括我團隊,我們非常喜歡它。今天就到 pipedrive.com/CEO 試用 Pipedrive,你可以在幾分鐘內啟動並運行,不需付款。如果你使用這個連結,你將可獲得 30 天免費試用。
你怎麼看 OpenAI 和 Sam Altman 及他們的作為?顯然你也知道其中一位共同創辦人,是 Ilya 還是 Jack?
是 Ilya,對,Ilya。
Ilya 離開之後成立了一間新公司叫什麼來著?
Super Intelligent Safety。
因為 AI 安全還不夠有挑戰性,他決定直接跳到那個硬問題上。作為旁觀者,當你看到有人離開 OpenAI 去創辦超級智慧安全公司,你對那種情況的解讀是什麼?
很多和 Sam 共事過的人說,也許他不是一個對他人完全坦率的人,他們對他對安全性的看法有疑慮。這是其中一部分。所以,他們想要更多控制權。他們想要把更多注意力放在安全上。但此外,好像任何離開那家公司去創業的人,僅憑創立新公司,就能拿到 200 億美元的估值。你沒有產品、沒有客戶,但如果你想賺上幾十億美元,只要這麼做就行。
所以,對任何有能力的人來說,這看起來是很理性的選擇。
所以我並不驚訝會有大量人離職。
親自見到他時,他超級親切、非常聰明,對外形象絕對完美。
你看到他在參議院作證,他對參議員們說的話都是正確的。
你看到他跟投資人說話,他們也得到正確的訊息。
但如果你看看那些私下認識他的人怎麼說,可能他並不是那個應該掌控這種影響力項目的人。
為什麼?
他把安全放第二位。
第二位讓給什麼?
贏得通往超級智能的這場競賽,成為那個創造上帝、並控制宇宙光錐(light cone)的人。
更糟的是——
你懷疑他是被那種東西驅動的嗎?
被留下轟轟烈烈事跡以致成為有影響力的人、做了一件了不起的事,與可能對社會造成的後果相比,前者更驅動他?
因為有趣的是,他的另一個創業是 WorldCoin,本質上是一個要創造普遍基本收入的平台,也就是在一個人們不再有工作時給人們收入的平台。
所以,一方面你在創造一家 AI 公司,
另一方面你在創造一家為人們失業做準備的公司。
它也有其他特性。
它追蹤每個人的生物識別資料。
它讓你掌控世界經濟、世界財富。
他們保留了大量的 WorldCoin。
所以,我覺得這跟稱霸世界是很合理地結合在一起的。
如果你有一個超級智能系統又掌握金錢,你就很有優勢。
為什麼會有人想稱霸世界?
人的野心程度不同。
假如你是個又年輕又有數十億美元、又有名氣的人,你會開始尋找更宏大的計畫。
有些人想去火星。
有些人想控制宇宙的 Light——
你剛說什麼?
宇宙的 LightCoin?
LightCoin。
LightCoin。
也就是說,從這個點光可以到達的宇宙每一個部分,任何可取得的東西,你都想抓住並納入你的控制之下。
你覺得山姆·奧特曼想控制宇宙的每個角落嗎?
我懷疑他可能想,是的。
這並不表示他不希望它成為一項對人類非常有益、讓所有人都快樂的技術的副產品。讓人快樂對控制來說是有利的。
如果要你猜 2100 年的世界會是什麼樣子,你會怎麼猜?
要嘛沒有人類存在,要嘛對我們這種人來說完全不可理解。
就是那兩個極端之一。
所以,要麼沒有了人類——基本上世界被毀了;要麼變得如此不同,以至於我無法想像。
現在要把這艘船轉向一個更有把握的正面結果,還能做什麼?還有得救嗎,還來得及嗎?
我相信個人的利己動機。
如果人們意識到做這件事對他們個人真的很糟糕,他們就不會去做。
所以我們的工作是說服這個領域裡任何有權力的人——那些在創造這項技術、在那些公司工作的人——他們正在做的事對他們自己非常不利。
不只是叫他們去管我們 80 億人被拿來當實驗對象、沒有許可、沒有同意這件事;你們不會對結果感到滿意。
如果我們能讓所有人把這當成一個預設,且不只是我一個人在說這件事……你們請來過 Jeff Hinton,那位諾貝爾獎得主、整個機器學習領域的創始者,他也說了同樣的話。Benji、還有數十位其他頂尖學者也都這麼說。
我們有一份關於 AI 危險性的聲明,已由數千名學者、電腦科學家簽署。
這基本上就是我們現在的共識,我們需要把它變成普遍的認知。沒有人應該反對,然後我們或許才能對要開發哪些技術做出正確的決定。
這不保證長期的人類安全,但它表示我們不會以最快的速度衝向可能導致最壞後果的那個終點。
你對這件事有希望嗎?
我想要嘗試。我們別無選擇,只能嘗試。
那需要發生什麼事?誰需要採取行動?是靠政府立法嗎?
不幸的是,我認為把它定為非法並不夠。
不同司法管轄區有差異,也有漏洞。
如果有人真的做了,你要怎麼辦?要對他們因「毀滅人類」罰款嗎?罰非常重的款?你要怎麼做?這根本無法執行。
如果他們真的創造出來,超級智能就會掌權。
所以我們現有的司法系統沒有太大影響力,而我們所有的懲罰手段都是用來懲罰人類的:監禁、死刑都不適用於 AI。
你知道,我的問題是,當我跟人討論這些時,我從來沒有帶著那種「我希望事情會順利」的感覺離開。我的意思是,我從來沒有帶著一套清晰、能糾正事態的行動方案離開。
那我該怎麼做?坐在家裡聽的人應該怎麼做?
你們要去跟很多正在打造這項技術的人談。精準地問他們那些他們宣稱「不可能」的問題,他們是怎麼解決的,或打算在到達那一步之前如何解決。
你知道嗎,我不認為山姆·奧特曼想跟我談。我不知道。他似乎上很多播客。也許他會上網。我想知道為什麼會這樣。我很想跟他談,但我不認為他想讓我採訪他。
提出一個公開挑戰吧。也許金錢不是誘因,但不管是什麼能吸引那類人──凡能說服你超級智能能被控制並確保安全的人,就給他獎勵。他們來你的節目,證明他們的主張。任何人都可以參加;如果幾年後沒有人聲稱獲獎或接受挑戰,也許我們就沒有解決方案。現在有些公司估值又是一再地數十億美元,正在研究安全的超級智能。
我們還沒看到他們的產出。
對,我也想跟伊利亞談談,因為我知道他在做安全的超智能方面的工作。
也注意到一個模式。
如果你看看歷史上那些人工智慧安全的組織,或是公司內部的相關部門,通常一開始都做得很好、雄心勃勃,然後就失敗消失了。
所以 OpenAI 曾有超智能對齊團隊。
他們宣布那天,我記得他們說要在四年內解決它。
大概半年後,他們就取消了那個團隊。
類似的例子有好幾十個。
為一個會持續改進、修改、並與人互動的超智能創造一個完美且永續的安全,是做不到的。
那不可能達成。
計算機科學中的困難問題、準完備問題,和不可能的問題之間有很大差別。
我認為對超智能的無限期控制就是這樣一個不可能的問題。
那如果不可能,為什麼還要嘗試?
我在做的是試著證明它恰好就是不可能的。
一旦我們確定某事不可能,就會減少有人浪費時間去宣稱他們能做到並四處募錢。
很多人在說:「給我十億美元,兩年內我幫你解決。」
我不認為你會做到。
但人們不會停止去追求它。
如果沒有人嘗試讓它變得安全,而越來越多人努力朝那方向前進,那麼(壞結果)就是不可避免的。
但這會改變我們的行動。
如果我們知道把它做對、把它做安全是不可能的,那麼那條「儘快把它做出來」的直接路線就成了自殺任務。
希望會因此少一些人去走那條路。
他們可能會轉向其他方向,比如——我再說一次,我是科學家、我是工程師,我愛 AI、愛科技,我一直在用它。
去打造有用的工具,別再造智能代理,去做窄域超智能,而不是通用型的。
我不是說你不該賺十億美金。我也喜歡十億美金。
但別把每個人都殺了,包括你自己。
但他們不覺得會那樣。
那就告訴我們為什麼。
我聽到的理由有直覺、有「我們以後會解決」之類的說法。
用科學術語明確告訴我,發表經過同行審查的論文,解釋你要如何控制超智能。
是啊,這很奇怪。
如果哪怕有 1% 的機率會導致人類滅絕,要去做那件事本身就很奇怪。
舉例來說,如果有人告訴我,上車有 1% 的機率我會沒命,我就不會上車。
如果你告訴我喝下這杯裡的液體有 1% 的機率會死,我就不會喝。
即便有十億美元在等著我,99% 的機率我拿得到錢、1% 的機率我會死,我也不會喝。
我不會冒那個險。
更糟的是,不只是你死,是所有人都死。
對。
那麼在任何賠率下我們會讓你喝下去嗎?那由我們決定,你不能替我們做這個選擇。
要取得人類受試者的同意,你必須讓他們理解自己在同意什麼。
如果那些系統無法解釋、無法預測,他們怎麼能同意?他們不知道自己在同意什麼。
所以從定義上說,不可能取得同意,這個實驗永遠無法合乎倫理。
從定義上說,他們是在對人類受試者做不道德的實驗。
你覺得人們應該去抗議嗎?
有人在抗議。有 Stop AI,也有 Pause AI。他們封鎖 OpenAI 的辦公室,每週、每月都有不少行動,並且在招募新成員。
你覺得應該有更多人抗議嗎?你覺得那是有效的解法嗎?
如果能把規模擴大到多數人口都參與,那會有很大影響力。
我不知道他們能否從現在的規模擴展到那樣,但我支持每個人以和平且合法的方式嘗試各種方法。
那對在家聽的人,他們該做什麼?因為他們不想感到無能為力——我們誰都不想。
這要看問的是什麼尺度、什麼時間範圍。
是說今年你的小孩要上大學,選什麼科系?要不要上大學?要不要換工作?要不要進入某些產業?這些問題是可以回答的。我們可以談近期的未來:在這東西五年內問世,你該怎麼做?
對一般人來說,沒太多可以做的事情。就像普通人無法影響第三次世界大戰、核戰、大屠殺之類一樣,這些事情不會有人問普通人的意見。
如果今天你想參與這個運動,去加入 POS-AI、加入 Stop-AI。這些組織目前正努力累積動能,試圖把民主機構拉進來以影響那些人。所以在短期內,沒太多事可做。
我在想近期是否有什麼有趣的策略。比如,我應該對我的家庭、我的孩子有不同的打算嗎?你有小孩吧?你有三個小孩?我知道的,對,三個。面對你所看到的這個即將到來的世界,你如何考慮親職?你會對他們說些什麼,給他們什麼建議,他們應該學什麼?
在這個議題之外有一條普遍建議:你應該把每一天當成最後一天來過。這無論如何都是好建議。無論你還剩三年或三十年,要活出你最好的生活。盡量不要長時間做你討厭的事。做有趣的事,做有影響力的事。如果你能在做到這些的同時也幫助別人做到,那就更好了。
模擬假說在這裡是一個挺有趣、相近的話題,因為隨著電腦開始加速、變得更聰明,我們能用人工智慧做一些以前根本無法想像的事——想像我們能用虛擬實境打造出的世界。
我記得好像是 Google 最近發布了一個東西,叫什麼來著?
像是 AI 世界那樣的。你拍張照片,它就生成整個世界。
對,你可以在那個世界裡移動。
我會把它放到螢幕上給大家看。
Google 釋出了這項技術,我覺得只要一個簡單的提示,就能製作出一個你可以在其中導航的三維世界。
而且那個世界有記憶。
比方說在那個世界裡,你在牆上畫東西、然後轉過身,回頭看,牆上的東西還在。
它是持久的。
對,它是持久的。
當我看到那個時候,我想,天啊、我的老天,該死。
這就像是能夠創造一個與我們所見完全無法分辨的模擬的前奏。
所以我才覺得我們活在模擬中。
那正是原因所在。
人工智慧越來越接近能創造出人類級的代理人,虛擬實境也越來越接近與我們無法區別。
所以你覺得這是模擬?
我相當確定我們是在模擬中,對。
對於不熟悉模擬論證的人,最基本的原理是什麼,讓你相信我們現在正生活在模擬中?
要讓這件事成真,你需要某些技術。如果你相信我們可以創造出人類級的 AI,也相信我們可以打造出在解析度、觸覺回饋或其他屬性上與現實一樣的虛擬實境,那我現在就下賭注:一旦這變得平價可行,我就會運行數十億個這個時刻的模擬,確保從統計上你會落在其中一個裡面。
再說一次,你會運行,你會運行?
我現在就承諾,當它變得非常便宜時,比如每月只要十美元,我會運行十億個本次訪談的模擬。
為什麼?
因為從統計上來看,那就表示你現在很可能就在其中一個模擬中。
你在真實世界中的機率是十億分之一。
好,那我想確認一下,這是事後放入(回溯安置)嗎?
是的,所以一旦它變得負擔得起,你就能運行數十億個模擬,而那些模擬感受起來、呈現出來,都會和現在這場訪談一模一樣。
所以假設 AI 有內在狀態、有經驗、有主觀質感(qualia),有人爭論它們沒有,也有人說它們已經有了,那是另一個哲學問題。但如果我們能模擬出這一切,我就會這麼做。
有些人可能會誤解。你不是在說「你會」做,而是在說「有人會」做。
我也可以做啊,我不介意。當然別人會在我之前做。如果我能用十美元做,肯定有人是用一千美元先做到的。重點不是我。如果你有這種技術,我們肯定會大量跑模擬來做研究、娛樂、遊戲,出於各種原因。而這些模擬的數量遠遠超過真實世界的數量。看看現在孩子在玩多少電玩。每個孩子玩十款不同遊戲。全世界有十億個孩子。那就是一個真實世界裡的百億個模擬。更何況,當我們考慮到先進的 AI、超級智慧系統時,他們的思考方式並不像我們,他們思考得更細緻,會不停做實驗。所以對他們來說,去運行一個在細節上能創造人工人類並模擬整個星球的模擬,是日常會做的事。
所以很有可能這不是我用十美元在做,而是未來某個智慧體在思考這個世界的某件事時所運行的模擬。
也就是說,可能某個人類物種或某種形式的智慧達到了一個階段,他們負擔得起大量運行與此無法區別的模擬,他們決定去做,而我們現在就在其中。這樣做作為實驗、遊戲或娛樂都是說得通的。
另外,當我們考慮時間時,在我所處的這個世界、或者說我可能身處的這個模擬裡,時間感覺相對較長──你知道,我一天有 24 小時。但在他們的世界裡,時間可能是……
時間是相對的。
相對的。
對,可能是一秒鐘。他們那裡一毫秒就等於我整個人生。
沒錯。你可以改變你所運行模擬的速度,當然可以。
所以你的信念是這很可能是模擬?
極有可能。若你再回頭看宗教,會發現很多共識。每個宗教基本上都在描述什麼?一個超級智慧的存在,一個工程師、一個程式設計師,為了測試或其他目的創造一個假的世界。但如果你拿著模擬假說那篇論文,走進叢林去跟原始部落談,在他們的語言裡把這件事講給他們聽,兩代之後他們就有了宗教。那基本上就是故事的輪廓。宗教,對,基本上描述的是一種模擬論。某個人創造了……
所以那是我們最初的理論。現在隨著科學的發展,越來越多人開始說:「我給它一個不小的機率。」有少數人的估計和我一樣高,但很多人都給它一些可信度。
你相信我們目前生活在模擬中的機率大概是多少百分比?
非常接近確定。
那這對你生活的本質意味著什麼?如果你幾乎百分之百確定我們正生活在模擬中,這會改變你的人生嗎?
你在乎的那些事其實都沒變。痛還是會痛。愛還是會愛,對吧?那些東西並沒有不同。所以沒關係,它們仍然很重要。重點是那剩下的大約 1% 差別:我在乎模擬之外的東西。我想去了解它。
我寫論文討論這個。
所以那是唯一的影響。
那你認為模擬世界之外是什麼?
我不知道。
但我們可以觀察這個世界,推導出模擬者的一些特徵。
很明顯,他們是傑出的工程師、傑出的科學家、傑出的藝術家。
在道德與倫理方面就不太行了。
還有改善空間——以我們對道德與倫理應有標準的觀點來看。
我們知道這個世界存在痛苦。
所以除非你認為折磨小孩是合乎倫理的,否則我會質疑你的做法。
但從誘因的角度,要創造正向誘因,你大概也需要建立一些負向誘因。
痛苦似乎是我們設計中內建的負向誘因之一,用來阻止我做不該做的事。
像是把手伸進火裡,會很痛。但一切都是程度的問題。
痛苦的層次,不愉快的刺激或負面回饋不必達到那種無限負面、地獄般的等級。
你不會想把一個生命燒到要去承受那種痛苦,你只是希望讓它覺得「喔,這很不舒服,我會停下來」。
有趣的是,我們假設模擬者道德與倫理不怎麼好,但我們自己也會拿動物來烹煮吃掉,還會在老鼠與大鼠身上做實驗。
要獲得大學同意做實驗,你要提交一份提案,會有一個倫理委員會說:「你不能在人類身上做實驗。你不能燒嬰兒。你不能把動物活活吃掉。」在世界上大多數有倫理委員會的地區,上述行為都會被禁止。
有些地方根本不管,所以審核程序會比較容易通過。
談到模擬理論時,有個元素會讓生命在某種奇怪的方式下顯得沒那麼有意義。有時你會覺得「知道了也無所謂」,但每當我和人私下(不是在播客上)討論我們是否活在模擬中時,你幾乎會看到他們生命中的某種意義在瞬間流失。然後他們忘了,繼續過自己的生活。
但這個想法幾乎在暗示這不重要。人類想要相信這裡是最高層、我們處在最重要的位置,我們都是以自我為中心設計的。這是我在和人討論時一直有的有趣觀察:這好像會剝奪他們生命中的某些東西。
你覺得宗教人士會有那種感覺嗎?他們知道有另一個世界,真正重要的不是這個世界。你覺得他們對生命的看重會不同嗎?
我想在某些宗教裡會是這樣。他們認為這個世界是為了他們而創造的,而他們會去天堂或地獄。那仍然把他們放在整件事的中心。但如果這是一個模擬呢?我們可能只是某個四歲外星人在打發時間時玩的電腦遊戲罷了。
但也可能有等級之分,有更好的模擬和較差的模擬,也許有不同的難度等級。下次你或許想把難度調高一點。
我剛投資了好幾百萬,成為這家公司的一位共同持有人。公司叫 Ketone IQ,故事還滿有趣的。
我在這個播客上開始談酮症(生酮),提到我很低碳、極低糖,身體會產生酮體,這讓我專注力極佳、耐力提升、情緒改善,讓我能更好地做我在這裡要做的事。因為我在播客上談到這件事,幾週後總部在倫敦的辦公桌上就出現了這些小小的補充劑。
天啊,這對我表達能力、專注、訓練表現、情緒以及避免整天能量崩潰的影響非常深遠,於是我聯絡了公司的創辦人,現在我是這家公司的一位共同持有人。
我非常非常建議你去了解這個產品。我強烈建議你看看相關科學。如果你想自己試試看,請造訪 ketone.com/Stephen,訂閱享 30% 折扣,第二次出貨還會附贈一份免費禮物。網址是 ketone.com/Stephen。
我很榮幸,再次有我持有的公司能贊助我的播客。我從零開始建立過公司,也投資過很多公司。我一直看到一個創業早期創辦人的盲點:他們花很少時間去思考人資(HR)。不是因為他們粗心或不在乎,而是因為他們專注於打造公司。這點我不能苛責。在那個階段,你在想產品、怎麼吸引新客戶、怎麼擴大團隊、真的就是怎麼生存下去。人資順位就會掉下來,因為沒有感覺緊迫。但遲早會要處理的,當事情變得混亂時,像今天贊助我的服務 JustWorks 這種工具,會從「可有可無」變成「必要」。
事情出差,你會發現自己在進行預料之外的對話。這時你會領悟人資真的是公司的一項基礎設施,沒有它,公司會動搖。JustWorks 幫你避免用痛苦的方式學到這一課。它把那些原本會耗掉你時間與精力的事處理掉,像是自動化薪資發放、健康保險與各項福利,並在任何時候為你的團隊提供真人支援。它會伴隨你的小公司從創業到成長階段擴展,甚至在你開始招募海外員工時仍能支援。
如果你想要在美好與困難時刻都有在人資方面支援,現在就前往 JustWorks.com。網址是 JustWorks.com。
你有沒有人想到長壽的問題?
常常會想,是的。那大概是第二重要的問題,因為如果不是 AI 把我們毀滅,長壽問題會。
你是什麼意思?
你會死於年老。
那也沒關係。
那可不妙。
你想死嗎?
我是說……
你不必這樣。
這只是一種疾病。
我們可以治好它。
沒什麼能阻止你永生。
只要宇宙存在。
除非我們逃出模擬。
但我們不會想要一個大家都能永遠活著的世界,對吧?
那樣會是……
當然會想。
為什麼?
你想誰死?
我不知道。
我是說,我之所以這麼說,是因為在我所知道的一切裡,人都會死。
但如果人人都長生不老,世界不會變得很擁擠嗎……
不會的,如果你永遠活著你就不會再生孩子了。
你生孩子是因為你想要有人取代你。
如果你永遠活著,你會想,我一百萬年後再生也行。
那也不錯。
我先去探索宇宙。
再說,實際的人口動態——除了某一個大陸以外——我們其實都在縮小。
我們不是在成長。
是啊,這太瘋狂了。
越有錢的人越少生小孩,這點跟你說的很一致,真是瘋狂。
說實話,如果……
我得完全坦白。
如果我知道我會活到一千歲,那我絕對不會在三十歲去生小孩。
對。
沒錯。
生物時鐘是建立在終點之上的。
如果你的生物時鐘是無限的,你會想,總有一天吧。
你覺得那離我們很近嗎?
能延長我們的壽命嗎?
其實只差一次突破。
我覺得我們基因組某處有一個年輕化循環。
它基本上被設定為最多給我們一百二十年。
我想我們可以把它重設成更長的。
人工智慧很可能會加速這件事。
那是個非常重要的應用領域。
是的,絕對是。
也許布萊恩·強生(Brian Johnson)說的「現在別死」是對的。
他一直對我說,別現在死。
永遠別死。
因為他的意思是,別在我們有這項技術之前死掉。
長壽、逃脫、加速(longevity, escape, velocity)。
你要活夠久才能活到永恆。
如果到了某個階段,我們每一年都能透過醫療突破把你的壽命再延長兩年,那你就相當於活不朽了。
你只要撐到那個「長壽、逃脫、加速」的時刻。
他認為在有了人工智慧的世界裡,「長壽、逃脫、加速」至少還要幾十年才可能到來。
也就是說——
一旦我們完全理解人類基因組,我相信我們會很快取得驚人的突破。
因為我們知道有些人天生有活得更久的基因。
他們有世代的百歲人瑞。
所以如果我們能理解並複製那些基因,或是從某些壽命極長的動物那裡複製,我們就能達成。
你想永遠活著嗎?
當然想。
把問題倒過來問。
假設我們能永生,你問我,想不想在四十年後死去?
我為什麼要說想?
我也不知道。
也許你只是習慣了這個預設值。
是啊,我習慣了這個預設值。
沒有人想死。
不管你多老,沒人會說,對,我今年想死。
大家都說,我想繼續活下去。
我在想,如果我活一萬年,人生和一切會不會變得不那麼特別。
第一次去夏威夷、第一次談戀愛,這些如果不再稀缺,對我來說會不會少了很多意義。
可能對個人來說會少了儀式感,但你能做的事情會多很多。
現在你只能規劃十年或二十年的事業。
你無法抱持一個要做五百年的宏大計劃。
想像一下在無限時間和無限宇宙中為你開啟的可能性。
天啊。
你不能這樣想。
感覺會很累。
那是很長的一段時間。
另外,我不知道你怎麼樣,但我不記得我百分之九十九的人生細節。
我只記得重要的亮點。
所以即使十年前我去了夏威夷,我還是會再享受一次。
你是在很實際地想這件事,就像布萊恩·強生那樣嗎?他堅信我們或許在兩個十年之內能延長壽命。
你是實際地在思考這事嗎?
你有在做些什麼嗎?
飲食、營養。
我會試著去想一些在一百萬年後才有回報的投資策略。
真的嗎?
當然。
你說當然是什麼意思?
當然啊,為什麼不呢?
如果你認為這會發生,你就該這麼做。
那如果我們把人工智慧做好,經濟會變成怎樣?
我們談過 Worldcoin(世界幣)。
我們談過免費勞動力。
錢會是什麼?會變成比特幣嗎?
你會投資那個嗎?
會不會有其他東西成為我們唯一無法偽造的資源?
這些都是非常重要的研究課題。
所以你在投資比特幣,對吧?
是啊。
那是唯一有稀缺性的資源。
其他東西沒有人造不出來的稀缺。
其他東西只要價格上升就會產更多。
只要價格合適,我就能讓你有多少黃金都行。
但你不能製造更多比特幣。
有人說比特幣只是電腦裡的一個我們大家約定它有價值的東西。
我們也是電腦裡的一個東西,還記得嗎?
好吧。
所以,我不是投資建議,但這其實也是投資建議。
這句話太好笑了,就是那種他們說不是,但你立刻就知道那是的句子。
「您的來電對我們很重要。」那句話的意思就是你的來電完全不重要。
投資也是如此。
是啊。
當他們說「這不是投資建議」的時候,這絕對是投資建議,但又不是投資建議。
好吧。
所以你看好比特幣,因為它無法被動手腳。
它是我們知道宇宙中確切數量的唯一東西。
黃金的話,可能有一顆純金的小行星朝我們飛來,會讓黃金貶值。
嗯,那同時也會殺死我們所有人。
但比特幣我可以確切知道數量。
就算那兩千一百萬的上限也是上限。
有多少比特幣已經永遠消失了?
密碼忘了。
我不知道中本聰拿著他那百萬在做什麼。
它每天都在越來越稀少,同時越來越多人在設法囤積它。
有人擔心它會被超級電腦駭掉。
量子電腦可以破解那個演算法。
有一些策略可以改用抗量子密碼學來因應。
而且量子電腦現在還是有點弱。
你覺得在聽完這段對話後,我的生活應該做出什麼改變嗎?
我一走出這扇門,有沒有什麼事我當下就該立刻改變做法?
我猜你已經投資比特幣了,是吧?
是的,我是比特幣的投資者。
這是理財建議嗎?
不是,只是你看起來好像在贏。
也許這是你的模擬。
你有錢、長得帥,還有名人和你混在一起。
那挺不錯的,繼續保持。
羅賓·漢森有篇論文講在模擬中該如何生活,你在裡面應該做什麼。
你的目標就是要那樣做:變得有趣、跟名人打成一片,讓他們不會把模擬關掉。
這樣你就是某種付費點播節目裡的一部分,某人實際上在看你。
我不確定你是否想被當作付費點播來看,因為那樣你就會曝光,然後他們可能會把你關掉。
如果沒有人在看,他們為什麼要播呢?
我是說,你不想低調行事嗎?你不想當個過著平凡生活的那種人嗎?
那樣的人就是 NPC(非玩家角色)。
沒人想當 NPC。
你有宗教信仰嗎?
不是傳統意義上的,但我相信模擬假說,也就是存在一個超級智慧的存在。
那你不相信宗教經典嗎?
不同宗教會有不同說法。這個宗教會告訴你週六不能工作,那個說週日不能工作,有的說不能吃豬、有的說不能吃牛。
那些只是基於那個理論上的地方性習俗。
而已。他們其實都是同一種宗教——都在崇拜一個超級智慧的存在,都認為這個世界不是主要的那個世界,然後爭論到底哪種動物不能吃。
把地方口味的東西放一邊,集中注意力在所有宗教共有的部分,這才有意思。
他們都認為有比人類更偉大的東西,能力極強、無所不知、無所不能。
然後我運行一個電腦遊戲,對於遊戲裡的那些角色來說,我就是那個存在。
我可以改變整個世界、我可以把它關掉,我知道世界上的一切。
有趣的是,我剛才在談到模擬理論時想到,或許在我們身上本來就留有某些創造者的痕跡,幾乎像是一個線索,像是一種直覺。
因為歷史以來人類往往有這種直覺:你剛說的那些事情是真的,上面有某個存在。
我們有好幾代人都很虔誠、相信上帝曾降臨並告訴他們,並把書傳下來。這傳承了好多代。
這大概是最早的一代沒有普遍宗教信仰的一代。
我在想那些人是不是在說真話。我在想那些說上帝來找過他們、跟他們說話的人是否真的如此。
想像一下,想像那是這個系統的一部分。
我今天在看新聞。一小時前發生了某件事,可是我得到的是不同且互相矛盾的報導。
即便有攝影機、有無人機、有推特上的人報導,我仍然不知道到底發生了什麼。
你就認為三千年前我們有精確的翻譯紀錄嗎?不,當然沒有。
你知道那些有關 AI 安全的對話嗎?你覺得那會讓人感覺良好嗎?
我不知道人們感覺好還是不好,但大家覺得那很有趣。
這類議題不像某些專業話題需要高度教育或天才才能理解,任何人都能有看法。
因為我往往覺得這讓我心情不太好。我理解那點,但我一直覺得不應該活在一個妄想的世界裡,只追求正面、只聽正面話、躲避不舒服的對話。
其實我人生中的進步常常來自於那些不舒服的對話、來自意識到某些事情,然後至少知道我可以怎麼做。
所以我想我會問這個問題,是因為我假設大多數正常人會聽到這類對話後想,天啊,太可怕了、這讓人擔心。
然後我一直在想,問題是我該如何處理這股能量?
是的,但我想指出的是,這跟很多對話沒什麼不同。我們可以談某地有人挨餓、某地有種族滅絕、有人在死去、癌症在擴散、自閉症比例上升——總有令人沮喪的事情,而且你可能無能為力。
我們很擅長把注意力放在能改變、自己擅長的事上,基本上不試圖把整個世界當成自己的生活環境去承擔。
從歷史來看,你是跟一個部落一起長大的,周圍只有十幾個人,如果其中一個出了事,那很罕見,多半是意外。
但現在,只要我上網,哪裡都有人被殺,似乎無所不在。每天都有成千上萬的事件被報給我,我連時間去注意都沒有,太多了。
所以我必須設定過濾器。我想人們很會把這類議題過濾成「這是我去聽的一場有趣演講,有點像表演」,然後一走出去就結束了。
通常我去某個會議做主題演講,我會跟他們說,基本上你們都會死,你們只剩兩年了。
有問題嗎?
有人會問:「我會失去工作嗎?」
「我要怎麼替我的性愛機器人上油?」
像這種各式各樣的無稽問題,顯然沒真正理解我在說什麼。
這些問題都還不錯、也很有趣,但沒完全接受結論。
他們仍停留在局部與全局的思維泡泡裡。
而那些在 AI 安全問題上最不贊同你的人,通常會怎麼說?
他們的反駁是什麼?
很多人根本不參與討論。
他們對這個主題沒有任何背景知識。
他們從來沒寫過一本書、沒發過一篇論文,不只針對我,對任何人都是如此。
他們甚至可能在某個領域工作。
比如在公司做一些機器學習的工作,最大化廣告點擊率。
對他們來說,那些系統非常狹窄。
然後他們聽到有人說 AI 明顯會接管世界。
「它沒有手,怎麼可能?」「這是胡說八道」「這個人瘋了,他有鬍子,我為什麼要聽他講?」對吧?
然後他們開始讀一點東西,會想,「喔,好吧,或許 AI 會有危險,我懂了。」
但他們會說:「過去我們總是解決問題,這次也會再解決。我記得某次電腦病毒被修好了,都是一樣的。」
基本上,曝光越多的人越不可能維持那種觀點。
我認識很多人從非常粗心的開發者,轉成了安全研究員。
我沒見過有人是從「我擔心 AI 安全」變成「根本沒什麼可擔心的」。
你有什麼結語要說?
讓我們確定不需要給人類一個『最後聲明』吧。
讓我們確保自己仍掌控局勢。
讓我們確保只建造對我們有益的東西。
讓我們確保做決定的人至少具備某種程度的資格——不只是擅長科學、工程和商業,還要有道德與倫理標準。
如果你做的事會影響他人,你應該徵得他們的同意。
如果你面前有一個按鈕,按下去會永久關閉全世界所有的 AI 公司,並且任何人都無法再開一家新公司,你會按那個按鈕嗎?
我們是要放棄狹義的 AI,還是只放棄超級智慧/通用人工智慧(AGI)那一部分?
是要放棄所有 AI 嗎?
這個問題很難,因為 AI 非常重要。
它控制股市、電廠,也控制醫院。
若發生(關閉)會是毀滅性的意外,會有數百萬人喪生。
好吧,我們可以保留窄域 AI。
對,這正是我們想要的。
我們希望窄域 AI 為我們處理這些事,但不要一個我們無法掌控、像上帝一樣對我們做事的存在。
所以你會停止它,你會停止 AGI 與超級智慧?
我們其實已經有 AGI 了。
我們今天擁有的技術對幾乎所有事都很有用。
我們可以把它當祕書用。
目前技術的經濟潛力有 99% 尚未被部署。
我們開發 AI 太快,技術來不及在產業中傳播、擴散。
像是大約一半的工作被認為是毫無意義的工作(「bullshit jobs」),根本不需要存在。
那些工作甚至不需要被自動化,它們可以直接消失。
但我要說的是,現有模型今天就能替代約 60% 的工作。
我們還沒做到那一步。
所以如果目標是讓經濟成長、發展,我們可以在幾十年內做到,而不必盡快創造出超級智慧。
你認為全球,特別是西方世界,失業率從現在起只會上升嗎?
你覺得相對來說,現在是失業率的低點嗎?
我指的是這會受很多因素波動,有戰爭、有經濟週期。
但整體而言,你自動化的工作越多,開始一份工作的智力門檻越高,符合資格的人就越少。
所以如果把未來 20 年畫成一張圖,我想失業率會逐步上升。
會越來越少人能夠貢獻。
我們其實已經有些理解了,因為我們訂了最低工資。
我們明白有些人對經濟的貢獻不夠多,實際上拿不到任何報酬。
所以我們被迫要求僱主付給他們比他們價值還高的薪水。
我們還沒更新這個標準。美國聯邦是 7.25 美元。
如果跟上經濟應該是現在要像每小時 25 美元。
這意味著那些領較少的人,他們創造的經濟產出不足以證明他們得到的報酬是合理的。
我們節目的結語傳統是:上一位來賓會在離開時留一個問題給下一位來賓,但不知道會是給誰。
留給你的問題是:對朋友、同事或伴侶來說,最重要的特質是什麼?
那是非常不同的關係,但對所有人來說,忠誠是第一位。
忠誠對你來說是什麼意思?
不要背叛你?不要坑你?不要出軌你?
即使有誘惑、即使世界和環境如此。
羅曼博士,非常感謝你。
非常感謝你所做的一切,因為你啟動並推動了這場對話,並且做著極其重要的研究。
而且你是在面對許多懷疑者的情況下這麼做。
有很多人有強烈的動機去抹黑你說的話和你的工作,因為他們有自己的利害關係,身家性命可能都與此相關,甚至有數十億美元的利潤在那裡。
所以很重要的是,有這些願意把頭伸出來、上像這樣的節目、利用大型平台討論我們正走向的那個難以解釋、難以預測、難以控制的未來的人存在。
謝謝你願意這麼做。
這本書,如果有人想延續這段對話,我覺得大家都該去看看;我記得它大概在2024年出版,對我們今天談到的許多議題提供了整體性的觀點——包括如何防止AI失敗,以及更多更多內容。我會在下方放連結,想讀的人可以點進去看。
如果有人想從你那裡學更多,想更深入你的研究,他們應該怎麼做?要去哪裡?
他們可以追蹤我,在Facebook上追蹤我,或在X上追蹤我。只是別跟到我家去。非常重要。
我可以追蹤你。
好,我會把你的Twitter、X帳號也放在下面,讓大家可以在那裡追蹤你。非常感謝你所做的一切,這真是讓人大開眼界,給了我很多思考的素材。
這也讓我更相信我們生活在一個模擬世界。但我也得說,這讓我對宗教有了很不一樣的看法。你說得對,當你撇開各地的傳統細節時,所有宗教其實都在指向同一件事。事實上,如果它們都指向同一個方向,那麼那些跨宗教存在的基本真理也許是我應該更多去關注的。像是愛鄰如己、像是我們是一體、像是存在一位神聖的創造者。或許它們也都認為有超越此生的後果,所以我或許應該更在意自己今生的行為,以及我之後可能的去向。
Roman,謝謝你。
阿們。阿們。阿們。
WARNING: AI could end humanity, and we’re completely unprepared. Dr. Roman Yampolskiy reveals how AI will take 99% of jobs, why Sam Altman is ignoring safety, and how we’re heading toward global collapse…or even World War III.
Dr. Roman Yampolskiy is a leading voice in AI safety and a Professor of Computer Science and Engineering. He coined the term “AI safety” in 2010 and has published over 100 papers on the dangers of AI. He is also the author of books such as, ‘Considerations on the AI Endgame: Ethics, Risks and Computational Frameworks’.
He explains:
⬛ How AI could release a deadly virus
⬛ Why these 5 jobs might be the only ones left
⬛ How ‘superintelligence’ will dominate humans
⬛ Why ‘superintelligence’ could trigger a global collapse by 2027
⬛ How AI could be worse than nuclear weapons
⬛ Why we’re almost certainly living in a simulation
00:00 Intro
02:41 How to Stop AI from Killing Everyone
04:48 What’s the Probability Something Goes Wrong?
05:10 How Long Have You Been Working on AI Safety?
08:28 What Is AI?
10:07 Prediction for 2027
11:51 What Jobs Will Actually Exist?
14:40 Can AI Really Take All Jobs?
19:02 What Happens When All Jobs Are Taken?
20:45 Is There a Good Argument Against AI Replacing Humans?
22:17 Prediction for 2030
24:11 What Happens by 2045?
25:50 Will We Just Find New Careers and Ways to Live?
29:05 Is Anything More Important Than AI Safety Right Now?
30:20 Can’t We Just Unplug It?
31:45 Do We Just Go With It?
37:34 What Is Most Likely to Cause Human Extinction?
39:58 No One Knows What’s Going On Inside AI
41:43 Ads
42:45 Thoughts on OpenAI and Sam Altman
46:37 What Will the World Look Like in 2100?
47:09 What Can Be Done About the AI Doom Narrative?
54:08 Should People Be Protesting?
56:24 Are We Living in a Simulation?
61:58 How Certain Are You We’re in a Simulation?
67:58 Can We Live Forever?
72:33 Bitcoin
74:16 What Should I Do Differently After This Conversation?
75:20 Are You Religious?
77:25 Do These Conversations Make People Feel Good?
80:23 What Do Your Strongest Critics Say?
81:49 Closing Statements
82:21 If You Had One Button, What Would You Pick?
83:49 Are We Moving Toward Mass Unemployment?
84:50 Most Important Characteristics
Follow Dr Roman:
You can purchase Dr Roman’s book, ‘Considerations on the AI Endgame: Ethics, Risks and Computational Frameworks’, here: https://amzn.to/464J2HR
The Diary Of A CEO:
⬛ Join DOAC circle here – https://doaccircle.com/
⬛ Buy The Diary Of A CEO book here – https://smarturl.it/DOACbook
⬛ The 1% Diary is back – limited time only: https://bit.ly/3YFbJbt
⬛ The Diary Of A CEO Conversation Cards (Second Edition): https://g2ul0.app.link/f31dsUttKKb
⬛ Get email updates – https://bit.ly/diary-of-a-ceo-yt
⬛ Follow Steven – https://g2ul0.app.link/gnGqL4IsKKb
Sponsors:
Pipedrive – http://pipedrive.com/CEO
KetoneIQ – Visit https://ketone.com/STEVEN for 30% off your subscription order
Learn more about your ad choices. Visit megaphone.fm/adchoices