AI transcript
0:00:07 The problem is that we are divided against each other and the algorithms are using our
0:00:09 weaknesses against us.
0:00:13 And this is very dangerous because once you believe that people who don’t think like you
0:00:18 are your enemies, democracy collapses and then the election becomes like a war.
0:00:22 So if something ultimately destroys us, it will be our own delusions, not the AIs.
0:00:25 We have a big election in the United States.
0:00:27 Yes, democracy in the States is quite fragile.
0:00:30 But, the big problem is, what if…
0:00:32 Surely that will never happen.
0:00:37 You bald Noah Harari, the author of some of the most influential non-fiction books in
0:00:41 the world today and is now at the forefront of exploring the world-shaping power of AI
0:00:43 and how it is beyond anything humanity has ever faced before.
0:00:47 Being a social networks in the world, they’re effectively going to go for free speech.
0:00:48 What is your take on that?
0:00:50 The issue is not the humans.
0:00:51 The issue is the algorithms.
0:00:52 So let me unpack this.
0:00:57 In the 2010s, there was a big battle between algorithms for human attention.
0:01:01 Now the algorithms discovered when you look at history, the easiest way to grab human
0:01:05 attention is to press the fear button, the hate button, the greed button.
0:01:10 The problem is that there was a misalignment between the goal that was defined to the algorithm
0:01:12 and the interests of human society.
0:01:15 But this is how it becomes really disconcerting.
0:01:21 Because if so much damage was done by giving the wrong goal to a primitive social media
0:01:25 algorithm, what would be the results with AI in 20 or 30 years?
0:01:26 So what’s the solution?
0:01:31 We’ve been in this situation many times before in history and the answer is always the same,
0:01:32 which is…
0:01:33 Are you optimistic?
0:01:34 I try to be a realist.
0:01:42 This is a sentence I never thought I’d say in my life.
0:01:45 We’ve just hit 7 million subscribers on YouTube and I want to say a huge thank you to all
0:01:51 of you that show up here every Monday and Thursday to watch our conversations.
0:01:54 From the bottom of my heart, but also on behalf of my team, who you don’t always get to meet,
0:01:59 there’s almost 50 people now behind the Diary of a CEO that work to put this together.
0:02:01 So from all of us, thank you so much.
0:02:05 We did a raffle last month and we gave away prizes for people that subscribed to the show
0:02:07 up until 7 million subscribers.
0:02:10 And you guys loved that raffle so much that we’re going to continue it.
0:02:14 So every single month, we’re giving away money can’t buy prizes, including meetings with
0:02:19 me, invites to our events, and a thousand pound gift vouchers to anyone that subscribes
0:02:20 to the Diary of a CEO.
0:02:22 There’s now more than 7 million of you.
0:02:25 But if you make the decision to subscribe today, you can be one of those lucky people.
0:02:27 Thank you from the bottom of my heart.
0:02:28 Let’s get to the conversation.
0:02:37 Ten years ago, you made a video that was titled, Why Humans Run the World.
0:02:42 It’s a very well-known TED talk that you did.
0:02:46 After reading your new book, Nexus, I wanted to ask you a slightly modified question, which
0:02:52 is, do you still believe that 10 years from now, humans will fundamentally be running
0:02:55 the world?
0:02:56 I’m not sure.
0:03:00 It depends on the decisions we all take in the coming years, but there is a chance that
0:03:07 the answer is no, that in 10 years, algorithms and AIs will be running the world.
0:03:12 I’m not having in mind some kind of Hollywoodian science fiction scenario of one big computer
0:03:19 kind of conquering the world, it’s more like a bureaucracy of AIs, that we will have millions
0:03:28 of AI bureaucrats everywhere, in the banks, in the government, in businesses, in universities,
0:03:34 making more and more decisions about our lives, that every day of decisions, whether to give
0:03:40 us a loan, whether to accept us to a job, and we will find it more and more difficult
0:03:47 to understand the logic, the rationale, why the algorithm refused to give us a loan, why
0:03:55 the algorithm accepted somebody else for the job, and you still have democracies with
0:04:01 people voting for this president or this prime minister, but if most of the decisions are
0:04:09 made by AIs, and humans, including the politicians, have difficulty understanding the reason why
0:04:17 the AIs are making a particular decision, then power will gradually shift from humanity
0:04:20 to these new alien intelligences.
0:04:21 Alien intelligences?
0:04:26 Yeah, I prefer to think about AI, I know that the acronym is artificial intelligence, but
0:04:30 I think it’s more accurate to think about it as an alien intelligence, not in the sense
0:04:35 of coming from outer space, in the sense that it makes decisions in a fundamentally different
0:04:39 way than the human minds.
0:04:47 Artificial means have the sense that we design it, we control it, something artificial is
0:04:49 made by humans.
0:04:56 With each passing year, AI is becoming less and less artificial and more and more alien.
0:05:04 Yes, we still design the kind of baby AIs, but then they learn and they change and they
0:05:11 start making unexpected decisions, and they start coming up with new ideas which are an
0:05:14 alien to the human way of doing things.
0:05:20 There is this famous example with the game of Go that in 2016, AlphaGo defeated the world
0:05:27 champion, Lisa Doll, but the amazing thing about it was the way it did it, because humans
0:05:31 have been playing Go for 2,500 years.
0:05:32 A board game.
0:05:38 A board game, a strategy game developed in ancient China and considered one of the basic
0:05:45 arts that any cultivated civilized person in East Asia had to know.
0:05:52 And tens of millions of Chinese and Koreans and Japanese played Go for centuries.
0:05:56 Entire philosophies developed around the game of how to play it.
0:06:01 It was considered a good preparation for politics and for life.
0:06:08 And people thought that they explored the entire realm, the entire geography landscape
0:06:10 of Go.
0:06:16 And then AlphaGo came along and showed us that actually for 2,500 years, people were
0:06:22 exploring just a very small bit, a very small part of the landscape of Go.
0:06:27 There are completely different strategies of how to play the game that not a single human
0:06:31 being came up with in more than 2,000 years of playing it.
0:06:34 And AlphaGo came up with it in just a few days.
0:06:37 So this is alien intelligence.
0:06:44 And if it’s just a game, then the same thing is likely to happen in finance, in medicine,
0:06:49 in religion, for better or for worse.
0:06:50 You wrote this book, Nexus.
0:06:51 Nexus.
0:06:53 How do you pronounce it?
0:06:54 Nexus.
0:06:59 I’m not an expert on pronunciation.
0:07:02 You could have written many a book.
0:07:05 You’re someone that’s, I think, broadly curious about the nature of life, but also the nature
0:07:06 of history.
0:07:10 For you to write a book that is so detailed and comprehensive, there must have been a
0:07:16 pretty strong reason why this book had to come from you now.
0:07:17 And why is that?
0:07:21 Because I think we need a historical perspective on the AI revolution.
0:07:23 I mean, there are many books about AI.
0:07:27 Nexus is not a book about AI.
0:07:31 It’s a book about the long-term history of information networks.
0:07:39 I think that to understand what is really new and important about AI, we need a perspective
0:07:44 of thousands of years to go back and look at previous information revolutions, like the
0:07:49 invention of writing and the printing press and the radio.
0:07:56 And only then you really start to understand what is happening around us right now.
0:08:00 One thing you understand, for instance, is that AI is really different.
0:08:05 People compare it to previous revolutions, but it’s different because it’s the first
0:08:14 technology ever in human history that is able to make decisions independently and to create
0:08:17 new ideas independently.
0:08:22 A printing press could print my book, but it could not write it.
0:08:24 It could just copy my ideas.
0:08:30 An atom bomb could destroy a city, but it can’t decide by itself which city to bomb
0:08:32 or why to bomb it.
0:08:34 And AI can do that.
0:08:39 And there is a lot of hype right now around AI, so people get confused because they now
0:08:42 try to sell us everything as AI.
0:08:44 Like you want to sell this table to somebody.
0:08:46 Oh, it’s an AI table.
0:08:49 And this water, this is AI water.
0:08:51 So people, what is AI?
0:08:52 Everything is AI.
0:08:53 No, not everything.
0:08:57 There is a lot of automation out there, which is not AI.
0:09:03 If you think about a coffee machine that makes coffee for you, it does things automatically,
0:09:04 but it’s not an AI.
0:09:11 It’s pre-programmed by humans to do certain things, and it can never learn or change by
0:09:12 itself.
0:09:15 A coffee machine becomes an AI.
0:09:20 If you come to the coffee machine in the morning and the machine tells you, “Hey, based
0:09:26 on what I know about you, I guess that you would like an espresso.”
0:09:30 It learns something about you, and it makes an independent decision.
0:09:33 It doesn’t wait for you to ask for the espresso.
0:09:39 And it’s really AI if it tells you, and I just came up with a new drink.
0:09:42 It’s called Bofi, and I think you would like it.
0:09:44 That’s really AI.
0:09:50 When it comes up with completely new ideas, that we did not program into it and that we
0:09:52 did not anticipate.
0:09:55 And this is a game changer in history.
0:09:57 It’s bigger than the printing press.
0:09:59 It’s bigger than the atom bomb.
0:10:04 You said we need to have a historical perspective, and do you consider yourself to be a historian?
0:10:07 Yes, my profession is a historian.
0:10:08 That’s kind of…
0:10:12 In my training, I was originally a specialist in medieval military history.
0:10:19 I wrote about the Crusades and the Hundred Years’ War, and the strategy and logistics
0:10:23 of the English armies that invaded France in the 14th century.
0:10:26 This was my first articles.
0:10:32 And this is the kind of perspective or of knowledge that I also bring to try and understand
0:10:35 what’s happening now with AI.
0:10:39 Because most people’s understanding of what AI is comes from them playing around with
0:10:43 a large language model, like chat GPT or Gemini or Grock or something.
0:10:44 That’s their understanding of it.
0:10:47 You can ask it a question, and it gives you an answer.
0:10:52 That’s really what people think of AI as, and so it’s easy to be a bit complacent with
0:10:58 it, or to see this technological shift as being trivial.
0:11:02 But when you start talking about information, and they’re like disruption of the flow of
0:11:06 information and information networks, and when you bring it back through history, and
0:11:11 you give us this perspective on the fact that information effectively glues us all together,
0:11:15 then it starts to become, for me, I think about it completely differently.
0:11:18 I mean, there are two ways I think about it.
0:11:22 I mean, one way is that when you realize that, as you said, that information is the basis
0:11:29 for everything, when you start to shake the basis, everything can collapse or change or
0:11:31 something new could come up.
0:11:38 For instance, democracies are made possible only by information technology.
0:11:43 Democracy in essence is a conversation, a group of people, conversing, talking, trying
0:11:46 to make decisions together.
0:11:48 Dictatorship is that somebody dictates everything.
0:11:51 One person dictates everything that’s dictatorship.
0:11:52 Democracy is a conversation.
0:11:58 Now, in the Stone Age, hunter-gatherers living in small bands, they were mostly democratic.
0:12:03 Whenever the band needed to decide anything, they could just talk with each other and decide.
0:12:11 As human societies grew bigger, it just became technically difficult to hold the conversation.
0:12:17 So the only examples we have from the ancient world for democracies are small city-states
0:12:20 like Athens or Republican Rome.
0:12:24 These are the two most famous examples, not the only ones, but the most famous.
0:12:30 And even the ancients, even philosophers like Plato and Aristotle, they knew once you go
0:12:35 beyond the level of a city-state, democracy is impossible.
0:12:42 We do not know of a single example from the pre-modern world of a large-scale democracy.
0:12:49 Millions of people spread over a large territory, conducting their political affairs democratically.
0:12:54 Why? Not because of this or that dictator that took power.
0:12:56 Because democracy was simply impossible.
0:13:03 You cannot have a conversation between millions of people when you don’t have the right technology.
0:13:08 Large-scale democracy becomes possible only in the late modern era, when a couple of
0:13:15 information technologies appear, first the newspaper, then telegraph and radio and television,
0:13:18 and they make large-scale democracy possible.
0:13:22 So democracy, it’s not like you have democracy, and on the side you have these information
0:13:23 technologies.
0:13:27 No, the basis of democracy is information technology.
0:13:32 So if you have some kind of earthquake in the information technology, like the rise of
0:13:40 social media or the rise of AI, this is bound to shake democracy, which is now what we see
0:13:45 around the world is that we have the most sophisticated information technology in history,
0:13:47 and people can’t talk with each other.
0:13:50 The democratic conversation is breaking down.
0:13:54 And every country has its own explanation, like you talk to Americans, what’s happening
0:13:56 there between Democrats and Republicans?
0:13:59 Why can’t they agree on even the most basic facts?
0:14:04 And they give you all these explanations about the unique conditions of American history
0:14:07 and society, but you see the same thing in Brazil.
0:14:10 You see the same thing in France, in the Philippines.
0:14:14 So it can’t be the unique conditions of this or that country.
0:14:18 It’s the underlying technological revolution.
0:14:25 And the other thing that history kind of, that I bring from history is how even relatively
0:14:32 small technological changes or seemingly small changes can have far-reaching consequences.
0:14:37 Like you think about the invention of writing, originally it was basically people playing
0:14:38 with mud.
0:14:43 I mean, writing was invented for the first, it was invented many times in many places,
0:14:50 but the first time in ancient Mesopotamia, people take clay tablets, which is basically
0:14:57 pieces of mud, and they take a stick and they use the stick to make marks in the clay, in
0:14:59 the clay, in the mud.
0:15:01 And this is the invention of writing.
0:15:04 And this had a profound effect.
0:15:09 To give just one example, you think about ownership.
0:15:11 What does it mean to own something?
0:15:14 Like I own a house, I own a field.
0:15:20 So previously, before writing, to own a field, if you live in a small Mesopotamian village
0:15:26 like 7,000 years ago, you own a field, this is a community affair.
0:15:32 It means that your neighbors agree that this field is yours and they don’t pick fruits
0:15:36 there and they don’t graze their sheep there because they agree it’s yours.
0:15:38 It’s a community agreement.
0:15:45 Then comes writing and you have written documents, and ownership changes its meaning.
0:15:53 Now to own a field or a house means that there is some piece of dry mud somewhere in the
0:16:00 archive of the king with marks on it that says that you own that field.
0:16:05 So suddenly, ownership is not a matter of community agreement between the neighbors,
0:16:10 it’s a matter of which document sits in the archive of the king.
0:16:15 And it also means, for instance, that you can sell your land to a stranger without the
0:16:22 permission of your neighbors simply by giving the stranger this piece of dry mud in exchange
0:16:26 for gold or silver or whatever.
0:16:34 So what a big change, a seemingly simple invention like using a stick to draw some signs on a
0:16:41 piece of mud and now think about what AI will do to ownership like maybe turning down the
0:16:46 line to own your house means that some AI says that you own it.
0:16:51 And if the AI suddenly says that you don’t own it for whatever reason that you don’t
0:16:52 even know that’s it.
0:16:53 It’s not yours.
0:16:59 That mark on that piece of mud was also the invention of sort of written language.
0:17:04 And I think I was thinking about when I was reading your book about how language holds
0:17:09 our society together, not in the way that we often might assume, as in me having a conversation
0:17:19 with you, but passwords, like banking, it’s like our whole society is secured by language.
0:17:24 And the first thing that the AIs have mastered is with large language models is the ability
0:17:29 to replicate that, which is, which made me think about all the things that in my life
0:17:32 actually held together with language, even my relationships now, because I don’t see
0:17:33 my friends.
0:17:37 My friends live in Dubai and America and Mexico.
0:17:41 So we conversate in language or relationships are held together in language.
0:17:46 And as you said, democracies are held together in language.
0:17:49 And now there’s a more intelligent force that’s mastered that.
0:17:50 Yeah.
0:17:55 It was so unexpected, like, you know, five years ago, people said AI will master this
0:18:00 or that, self-driving vehicles, but language, now, this is such a complicated problem.
0:18:03 This is the human masterpiece language.
0:18:05 It will never master language.
0:18:10 And I’m a world’s person.
0:18:21 And I’m simply amazed by the quality of the texts that these large language models produce.
0:18:29 It’s not perfect, but they really understand the semantic field of words.
0:18:33 They can string words together and sentences to form a coherent text.
0:18:36 But that’s really remarkable.
0:18:39 And as you said, I mean, this is the basis for everything.
0:18:42 Like I give instructions to my bank with language.
0:18:50 If AI can generate text and audio and image, then how do I communicate with the bank in
0:18:55 a way which is not open to manipulation by an AI?
0:18:59 But the tempting part in that sentence is, you don’t like communicating with your bank
0:19:00 anyway.
0:19:01 That’s cool.
0:19:06 As if calling them, being on the phone, waiting for another human.
0:19:09 So the temptation is, “I don’t like speaking to my bank anyway, so I’m going to let the
0:19:10 AIs do that.
0:19:11 I’m going to invest.”
0:19:12 If I can trust them.
0:19:17 I mean, the big question is, I mean, why does the bank want me to call personally to make
0:19:19 sure that it’s really me?
0:19:24 It’s not somebody else telling the bank, “Oh, make this transfer to, I don’t know, Cayman
0:19:25 Islands.
0:19:26 It’s really me.”
0:19:28 And how do you make sure?
0:19:29 How do you build this?
0:19:34 I mean, the whole of finance for thousands of years is just one question, trust.
0:19:39 All these financial devices, money itself is really just trust.
0:19:42 It’s not made from gold or silver or paper or anything.
0:19:45 It’s how do we create trust between strangers?
0:19:50 And therefore, most financial inventions in the end, they are linguistic and symbolic
0:19:51 inventions.
0:19:55 It’s not, you don’t need some complicated physics.
0:19:58 It’s complicated symbolism.
0:20:04 And now AI might start creating new financial devices and will master finance because it
0:20:07 mastered language.
0:20:12 And like you said, I mean, we now communicate with other people, our friends all over the
0:20:13 world.
0:20:18 In the 2010s, there was a big battle between algorithms for human attention.
0:20:23 We’re just discussing it before the podcast, like how do we get the attention of people?
0:20:27 But there is something even more powerful out there than attention.
0:20:29 And that’s intimacy.
0:20:36 If you really want to influence people, intimacy is more powerful than attention.
0:20:39 How are you defining intimacy in this regard?
0:20:47 Imagine that you have a long-term acquaintance with, that you know personally, that you trust,
0:20:52 that to some extent that you love, that you care about.
0:21:00 And until today, it was utterly impossible to fake intimacy and to mass produce intimacy.
0:21:04 Dictators could mass produce attention.
0:21:08 Once you have, for instance, radio, you can tell all the people in Nazi Germany or in
0:21:13 the Soviet Union, the great leader is giving a speech, everybody must turn their radio
0:21:14 on and listen.
0:21:16 So you can mass produce attention.
0:21:18 But this is not intimacy.
0:21:21 You don’t have intimacy with the great leader.
0:21:26 Now with AI, you can, for the first time in history, at least theoretically, mass produce
0:21:35 intimacy with millions of bots, maybe working for some government, faking intimate relationships
0:21:42 with us, which will be hard to know that this is a bot and not a human being.
0:21:48 It’s interesting because when I, I’ve had so many conversations with relationship experts
0:21:55 and a variety of people that speak to the decline in human, to human intimacy and the
0:22:03 rise in loneliness and us becoming more sexless as a society and all of these kinds of things.
0:22:09 So it’s almost with the decline in human-to-human intimacy and human-to-human connection and
0:22:13 the rise of this sort of artificial, the possibility of artificial intimacy.
0:22:16 It begs the question what the future might look like in a world where people are lonelier
0:22:20 than ever, more disconnected than ever, but still have the same mass-lovia need for that
0:22:24 connection and that feeling of, you know, love and belonging.
0:22:30 And maybe this is why we’re seeing a rise in polarization at the same time because people
0:22:35 are desperately trying to belong somewhere and the algorithm is like reinforcing my echo
0:22:36 chamber.
0:22:43 So, you know, but I don’t know how that ends.
0:22:45 I don’t think it’s deterministic.
0:22:48 It depends on the decision we make individually and as a society.
0:22:54 There are, of course, also wonderful things that this technology can do for us.
0:23:01 The ability of AI to hold a conversation, the ability to understand your emotions, it
0:23:10 can potentially mean that we will have lots of AI teachers and AI doctors and AI therapists
0:23:18 that can give us better healthcare services, better education services than ever before.
0:23:23 Instead of being, you know, a kid in a class of 40 other kids that the teacher is barely
0:23:29 able to give attention to this particular child and understand his or her specific needs
0:23:37 and his or her specific personality, you can have an AI tutor that is focused entirely
0:23:44 on you and that is able to give you a quality of education which is really unparalleled.
0:23:46 I had this debate with my friend on the weekend.
0:23:52 He’s got two young kids who are one years old and three years old and we were discussing
0:23:57 in the future in sort of 16 years time, where would you rather send your child?
0:24:00 Would you rather send your child to be taught by a human in a classroom as you’ve described
0:24:03 with lots of people, lots of noise where they’re not getting personalised learning.
0:24:06 So if the classroom and we’re intelligent, they’re being left behind.
0:24:10 If they’re more intelligent, they’re being dragged back or would you rather your child
0:24:16 sat in front of a screen potentially or a humanoid robot and was given a really personalised
0:24:24 tailored education that was probably significantly cheaper than say private education or university.
0:24:30 But you need a combination, I mean, I think that for many of the lessons, it will be better
0:24:35 to go with the AI tutor, but you don’t even have to sit in front of a screen.
0:24:43 You can go to the park and get a lesson on ecology, just listening as you walk.
0:24:50 But you will need large groups of kids for break time because very often you learn that
0:24:54 the most important lessons in school are not learned during the lessons.
0:24:56 They are learned during the breaks.
0:25:00 And this is something that should not be automated.
0:25:06 You would still need large group of children together with human supervision for that.
0:25:11 The other thing I thought about a lot when I was reading your book is this idea that
0:25:16 I would assume that us having more information and more access to information would lead
0:25:24 to more truth in the world, less conspiracy, more agreement, but that doesn’t seem to be
0:25:25 the case.
0:25:26 No, not at all.
0:25:28 Most information in the world is junk.
0:25:33 I mean, I think the best way to think about it is it’s like with food.
0:25:39 That there was a time like a century ago in many countries where food was scarce.
0:25:45 So people ate whatever they could get, especially it was full of fat and sugar.
0:25:48 And they thought that more food is always good.
0:25:52 Like if you ask your great-grandmother, she would say, “Yes, more food is always good.”
0:25:57 And then we reach a time of abundance in food.
0:26:03 And we have all this industrialized, processed food, which is artificially full of fat and
0:26:06 sugar and salt and whatever.
0:26:08 And it’s obviously bad for us.
0:26:14 The idea that more food is always good, no, and definitely not all this junk food.
0:26:16 And the same thing has happened with information.
0:26:18 That information was once scarce.
0:26:23 So if you could get your hands on a book, you would read it because it was nothing else.
0:26:25 And now information is abundant.
0:26:28 We are flooded with information.
0:26:34 And much of it is junk information, which is artificially full of greed and anger and
0:26:39 fear because of this battle for attention.
0:26:41 And it’s not good for us.
0:26:47 So we basically need to go on an information diet, that again, the first step is to realize
0:26:51 that it’s not the case that more information is always good for us.
0:26:57 We need the limited amount, and we actually need more time to digest the information.
0:27:03 And we have to be, of course, also careful about the quality of what we take in.
0:27:07 Because again, of the abundance of junk information.
0:27:13 And the basic misconception, I think, is this link between information and truth.
0:27:19 That people think, okay, if I get a lot of information, this is the raw material of truth.
0:27:23 And more information will mean more knowledge.
0:27:30 And that’s not the case because even in nature, most information is not about the truth.
0:27:37 The basic function of information in history, and also in biology, is to connect.
0:27:39 Information is connection.
0:27:45 And when you look at history, you see that very often the easiest way to connect people
0:27:52 is not with the truth, because the truth is a costly and rare kind of information.
0:27:58 It’s usually easier to connect people with fantasy, with fiction.
0:27:59 Why?
0:28:04 Because the truth tends to be, not just costly, the truth tends to be complicated, and it
0:28:09 tends to be uncomfortable, and sometimes painful.
0:28:16 If you think, you know, like in politics, a politician who would tell people the whole
0:28:22 truth about their nation is unlikely to win the elections, because every nation has this
0:28:27 skeleton in the cupboard and all these dark sides and dark episodes that people don’t
0:28:30 want to be confronted with.
0:28:38 So we see that politically, it’s not, if you want to connect nations, religions, political
0:28:42 parties, you often do it with fictions and fantasies.
0:28:44 And fear.
0:28:49 I was thinking about sapiens and the role that stories play in engaging our brains.
0:28:51 And I was thinking a lot about the narratives.
0:28:56 In the UK, we have a narrative where we’re told that much of the cause of the problems
0:29:02 we have in society, unemployment, other issues with crime are because there’s people crossing
0:29:07 from France on boats, and it’s a very effective narrative to get people to band together to
0:29:08 march in the streets.
0:29:13 And in America, obviously, the same narrative of the wall and the southern border, they’re
0:29:17 crossing our border in the millions, it’s their rapists, they’re not sending negative
0:29:21 people, they’re coming from mental institutions, has galvanized people together, and those
0:29:26 people are now like marching in the streets and voting based on that story that is a fearful
0:29:27 story.
0:29:33 It’s a very powerful story because it connects to something very deep inside us.
0:29:38 And if you want to get people’s attention, if you want to get people’s engagement, so
0:29:44 the fear button is one of the most efficient, most effective buttons to press in the human
0:29:45 mind.
0:29:48 And again, it goes back to the Stone Age.
0:29:55 So if you live in a Stone Age tribe, one of your biggest worries is that the people
0:30:03 from the other tribe will come to your territory and you will take your food or will kill you.
0:30:09 So this is a very ingrained fear, not just in humans, in every social animal.
0:30:15 They did experiments on chimpanzees that show that chimpanzees have also a kind of almost
0:30:23 instinctive fear or disgust towards foreign chimpanzees from a different band.
0:30:31 And politicians and religious leaders, and they learn how to play on these human emotions
0:30:33 are almost like you play on a piano.
0:30:42 Now, originally these feelings like disgust, they evolved in order to help us.
0:30:48 You know, the most basic level, disgust is there because, you know, especially as a kid,
0:30:51 you want to experiment with different foods.
0:30:56 But if you eat something that is bad for you, you need to, you know, puke it.
0:30:59 You need to throw it out.
0:31:01 So you have disgust protecting you.
0:31:08 But then you have religious and political leaders throughout history hijacking this defensive
0:31:15 mechanism and teaching people from a very young age to not just to fear, but to be disgusted
0:31:19 by foreign people, by people who look different.
0:31:25 And this is, again, you, as an adult, you can learn all the theories and you can educate
0:31:30 yourself that this is not true, but still very deep in your mind.
0:31:38 If there is a part that is just these people are disgusting, these people are dangerous.
0:31:46 And we saw it throughout history, how many different movements have learned how to use
0:31:53 these emotional mechanisms to motivate people?
0:31:58 We sit down at a very interesting time, Yvonne, because two quite significant things have
0:32:04 happened in the last, I think, year as it relates to information and many of the things
0:32:05 we’ve been talking about.
0:32:10 One of them is Elon Musk bought Twitter and his real mandate has been this idea of free
0:32:11 speech.
0:32:16 And as part of that mandate, he’s unblocked a number of figures who were previously blocked
0:32:17 on Twitter.
0:32:21 A lot of them are right-leaning people that were blocked for a variety of different reasons.
0:32:27 And then also this week, Mark Zuckerberg released basically a letter publicly, and in that letter
0:32:35 he says that he regrets the fact that he cooperated so much with the FBI, the government, when
0:32:38 they asked him to censor things on Facebook.
0:32:42 One particular story he says he regrets doing that, and it looks like, if you read between
0:32:46 what he’s saying, what he actually says explicitly, he says, “We’re going to push back harder
0:32:51 in the future if governments or anybody else asks us to censor certain messaging.”
0:32:54 Now, what I’m saying is that Twitter, which is one of the biggest social networks in the
0:32:59 world, and Meta, the biggest social network in the world, have now taken this stance that
0:33:01 effectively they’re going to let information flow.
0:33:04 They’re effectively going to go for this free speech narrative.
0:33:09 Now, as someone that’s used these platforms for a long time, specifically X or Twitter,
0:33:13 it is crazy how different it is these days.
0:33:18 There are things that I see every time I scroll that I never would have seen before this free
0:33:19 speech position.
0:33:23 Now, I’m not taking a stance whether it’s good or bad.
0:33:25 It’s just very interesting.
0:33:29 And there’s clearly an algorithm that is now really, like if I scroll, if I go on X right
0:33:31 now, I will see someone being killed with a knife.
0:33:34 I reckon within 30 seconds.
0:33:37 And I will see someone getting hit by a car.
0:33:41 I will see extreme Islamophobia, potentially.
0:33:43 But then I’ll also see the other side.
0:33:46 So it’s not just I’m saying, I’ll see all of the sides.
0:33:49 And when you’re talking earlier about, like, is that good for me?
0:33:51 I had a flashback to my friend this weekend.
0:33:52 It was my birthday.
0:33:56 So me and my friends were together just looking over at him, mindlessly scrolling these horror
0:34:01 videos on Twitter as he was sat on my left thinking, “God, he’s like frying his dopamine
0:34:02 receptors.”
0:34:07 And I just this whole new like free speech movement.
0:34:10 What is your take on this idea of free speech and the role, you know?
0:34:15 Only humans have free speech, bots don’t have free speech.
0:34:20 The tech companies are constantly confusing us about this issue because the issue is not
0:34:21 the humans.
0:34:23 The issue is the algorithms.
0:34:25 And let me explain what I mean.
0:34:30 If the question is whether to ban somebody like Donald Trump from Twitter, I agree.
0:34:32 This is a very difficult issue.
0:34:38 And we should be extremely careful about banning human beings, especially important politicians
0:34:45 from voicing their views and opinions, however much we dislike their opinions or them personally.
0:34:51 It’s a very serious matter to ban any human being from a platform.
0:34:53 But this is not the problem.
0:34:56 The problem on the platform is not the human users.
0:35:02 The problem is the algorithms and the companies constantly shift the blame to the humans
0:35:05 in order to protect their business interests.
0:35:08 So let me unpack this.
0:35:11 Humans create a lot of content all the time.
0:35:13 They create hateful content.
0:35:15 They create sermons on compassion.
0:35:21 They create cooking lessons, biology lessons, so many different things, a flood of information.
0:35:25 The big question is then what gets human attention?
0:35:27 Everybody wants attention.
0:35:31 Now the companies also want attention.
0:35:38 The companies give the algorithms that run the social media platforms a very simple goal.
0:35:41 Increase user engagement.
0:35:48 Make people spend more time on Twitter, more time on Facebook, engage more, sending more
0:35:50 likes and recommending to their friends.
0:35:51 Why?
0:35:54 Because the more time we spend on the platforms, the more money they make.
0:35:56 Very, very simple.
0:36:00 Now the algorithms made a huge, huge discovery.
0:36:06 By experimenting on millions of human guinea pigs, the algorithms discovered that if you
0:36:12 want to grab human attention, the easiest way to do it is to press the fear button, the
0:36:16 hate button, the greed button.
0:36:23 And they started recommending to users to watch more and more content full of hate and
0:36:28 fear and greed to keep them glued to the screen.
0:36:34 And this is the deep cause of the epidemic of fake news and conspiracy theories and so
0:36:35 forth.
0:36:42 And the defense of the companies is we are not producing the content.
0:36:48 Somebody, a human being, produced a hate-filled conspiracy theory about immigrants.
0:36:50 And it’s not us.
0:36:55 It’s like a bit like, I don’t know, the chief editor of the New York Times publishing a
0:37:00 hate-filled conspiracy theory on the front of the first page of the newspaper.
0:37:03 And when you ask him, “Why did you do it or are you blaming it?
0:37:04 Look what you did?”
0:37:06 He says, “I didn’t do anything.
0:37:07 I didn’t write the piece.
0:37:10 I just put it on the front of the New York Times.
0:37:11 That’s all.
0:37:12 That’s nothing.
0:37:14 It’s not nothing.”
0:37:17 People are producing immense amount of content.
0:37:22 The algorithms of the king makers, they are the editors now.
0:37:25 They decide what gets viewed.
0:37:27 Sometimes they just recommend it to you.
0:37:30 Sometimes they actually auto-play it to you.
0:37:32 Like you chose to watch some video.
0:37:38 At the end of the video, to keep you glued to the screen, the algorithm immediately,
0:37:43 without you telling him it, the algorithm, without you telling the algorithm, the algorithm
0:37:50 auto-plays some kind of video full of fear or greed just to keep you glued to the screen.
0:37:53 It is the algorithm doing it.
0:37:58 And this should be banned, or this should at least be supervised and regulated.
0:38:04 And this is not freedom of speech, because the algorithms don’t have freedom of speech.
0:38:12 Yeah, the person who produced the hate-filled video, I would be careful about banning them.
0:38:13 But that’s not the problem.
0:38:17 It’s the recommendation, which is the problem.
0:38:26 The second problem is that a lot of the conversations now online are being overrun by bots.
0:38:32 Again, if you look, for instance, at TwitterX as an example, so people often want to know
0:38:37 what is trending, which stories get the most attention.
0:38:41 If everybody’s interested in a particular story, I also want to know what everybody’s
0:38:43 talking about.
0:38:48 And very often, it’s the bots that are driving the conversation.
0:38:54 Because a particular story initially gets a lot of traction, a lot of traffic, because
0:38:56 a lot of bots retreat it.
0:39:00 And then people see it and think, they don’t know it’s bots.
0:39:01 They think it’s humans.
0:39:06 So they say, oh, lots of humans are interested in this, so I also want to know what’s happening.
0:39:08 And this grows more attention.
0:39:10 This should be forbidden.
0:39:17 It’s very, basically, you cannot have AIs pretending to be human beings.
0:39:18 This is fake humans.
0:39:20 This is counterfeit humans.
0:39:26 If you see activity online and you think it’s human activity, but actually it’s bot activity,
0:39:27 this should be banned.
0:39:35 And it doesn’t harm the free speech of any human being because it’s a bot.
0:39:37 It doesn’t have freedom of speech.
0:39:42 I was thinking a lot about what you said about these algorithms are actually running the
0:39:43 world.
0:39:48 And I mean, yeah, so if the algorithms are deciding what I see based on what I spend
0:39:52 my time looking at, because they want to make– the platforms want to make more money.
0:39:57 And if I have an innate sort of predisposition to spend more time focused on things that
0:40:05 scare me, or then you just have to give me a couple of years, and every year that goes
0:40:07 past, I’ll become more fearful.
0:40:09 It reinforces your own weaknesses.
0:40:12 I mean, again, it’s like the food industry.
0:40:18 So the food industry discovered we liked food with a lot of salt and fat in it, and gives
0:40:20 it more to us.
0:40:22 And then it says, but this is what the customers want.
0:40:24 What do you want from us?
0:40:30 It’s the same thing, but even worse, with these algorithms because this is the food for the
0:40:31 mind.
0:40:36 Yes, humans have a tendency that if something is very frightening or something fills them
0:40:41 with anger, they focus on it, and they tell all the friends about it.
0:40:48 But to artificially amplify it, it’s just not good for our mental health and social health.
0:40:55 It is using our own weaknesses against us instead of helping us deal with them.
0:40:59 Is it fair to say– now, this is me just jumping to conclusions a little bit– but is it fair
0:41:06 to say that in a world where you remove restrictions around blocking certain characters, right wing
0:41:11 characters that are their messages, maybe based on immigration, et cetera, you remove
0:41:12 those restrictions.
0:41:14 So they’re all allowed on every platform.
0:41:19 And then you program the algorithm to be focused on revenue, that eventually more people will
0:41:21 become right wing.
0:41:27 And I say that in part because it’s a right wing narrative to say that immigrants are
0:41:32 bad and that– I’m not saying that the left are innocent because they’re absolutely not,
0:41:37 but I’m saying that the fearful narratives, the fear seems to come more from the right
0:41:41 in my opinion, especially in the UK.
0:41:44 The fear comes from immigrants and these people are going to take your money and all these
0:41:46 kinds of things.
0:41:55 I think the key issue is not to label it as a right or left issue because, again, democracy
0:41:57 is a conversation.
0:42:01 And you can have a conversation only if you have several different opinions.
0:42:06 And I think it should be OK to have a conversation about immigration that people should be able
0:42:09 to have different opinions about it.
0:42:11 That’s fine.
0:42:22 The problem starts when one side vilifies and demonizes anybody who doesn’t think– and
0:42:25 you see it to some extent from both sides.
0:42:29 But in the case of immigration, so you would have these conspiracy theories that anybody
0:42:34 who supports immigration, for instance, they want to destroy the country.
0:42:38 They are part of this conspiracy to flood the country with immigrants and to change
0:42:41 its nature and whatever.
0:42:49 And this is the problem, that democracy, once you believe that people who don’t think like
0:42:53 you, they are not just your political rivals.
0:42:55 They are your enemies.
0:42:58 They are out to destroy you.
0:43:02 They intend to destroy your way of life, your group.
0:43:07 Then democracy collapses because there can be no way.
0:43:10 Between enemies, democracy doesn’t work.
0:43:16 It works if you think that the other side is wrong, but they are still essentially good
0:43:21 people who care about the country, who care about me, but they have different opinions.
0:43:27 If you think that they are my enemies, they try to destroy me, then the election becomes
0:43:31 like a war because you’re fighting for your survival.
0:43:35 You will do anything to win the election because your survival is at stake.
0:43:40 If you lose, you have no incentive to accept the verdict.
0:43:45 If you win, you only take care of your tribe and not of the enemy tribe.
0:43:48 What if you don’t believe the election is legitimate?
0:43:51 Then democracy can’t function.
0:43:57 This is the basic … Democracy can’t exist in just any … It’s like a delicate plant
0:44:02 that needs certain conditions in order to survive and to flourish.
0:44:08 One condition, for instance, is that you have information technologies that allows a conversation.
0:44:12 Another condition is that you trust the institutions.
0:44:17 If you don’t trust the institution of elections, it doesn’t work.
0:44:23 A third condition is that you need to think that the people on the other side of the political
0:44:28 divide, they are my rivals, but they are not my enemies.
0:44:33 The problem with what’s happening now with democratic conversations is because of this
0:44:41 tendency to go to more and more and more extremes, it creates the impression that the other side
0:44:43 is an enemy.
0:44:47 This is a problem not just for the right, also for the left.
0:44:56 On both sides, you see this feeling that the other side is an enemy and that its positions
0:44:59 are completely illegitimate.
0:45:03 If we reach that point, then the conversation collapses.
0:45:10 It should be possible to have complex conversations and discussions about difficult issues like
0:45:18 immigration, gender, climate change, without seeing the other side as an enemy, which was
0:45:21 possible for generations.
0:45:26 Why is it that now it seems to just become impossible to talk with the other side or
0:45:30 to agree about anything?
0:45:33 We have a big election in the United States this year.
0:45:34 Very big one.
0:45:37 Do you think a lot about it?
0:45:46 Yes, it seems like it would be a coin toss, like 50-50.
0:45:49 Elections become really an existential issue.
0:45:54 If there is a chance, they will be the last elections.
0:46:03 If one side intends to simply change the rules of the game, if it comes to power, then it
0:46:11 becomes existential because democracy works on the basis of self-correcting mechanisms.
0:46:14 This is the big advantage of democracy over dictatorship.
0:46:18 In a dictatorship, a dictator can make a lot of good decisions, but sooner or later,
0:46:25 they will make a bad decision and there is no mechanism in a dictatorship to identify
0:46:27 and correct such mistakes.
0:46:28 Putin.
0:46:34 There is just no mechanism in Russia that could say Putin made a mistake.
0:46:38 He should let somebody else try a different course of action.
0:46:41 This is the great advantage of democracy.
0:46:45 You try something, it doesn’t work, you try something else.
0:46:52 But the big problem is, what if you choose someone who then changes the system, neutralizes
0:46:56 its self-correcting mechanism, and then you cannot get rid of him anymore?
0:47:01 This is what happened, for instance, in Venezuela, that originally Chavez and the Chavista movement,
0:47:03 they came to power democratically.
0:47:05 People wanted to, “Hey, let’s try this.”
0:47:11 Now in the last elections a couple of weeks ago, the evidence is very, very clear that
0:47:17 Maduro lost big time, but he controls everything, the election committee, everything, and he
0:47:20 claims, “No, I won.”
0:47:22 They destroyed Venezuela.
0:47:28 It’s something like a quarter of the population fled the country, which was one of the richest
0:47:33 countries in South America before, and they just can’t get rid of the guy.
0:47:37 Surely that will never happen in the West?
0:47:40 Don’t say never in history.
0:47:44 History can catch up with you, whoever you are.
0:47:45 That’s one of the illusions we can–
0:47:49 Venezuela was part of the West, in many ways, still is.
0:47:52 This is one of the illusions we live under, though we think that that can never happen
0:48:00 to the UK, or the United States, or Canada, these sort of quote-unquote civilized nations.
0:48:05 You know, according to some measurements, democracy in the United States is quite new,
0:48:12 and quite, quite fragile, if you think about it in terms of who gets to vote, for instance.
0:48:19 So it’s– yeah, it would be– again, I don’t know what are the chances.
0:48:25 But even if there is a 20% chance that a Trump administration would change the rules of the
0:48:32 game of American democracy in such a way as to make it, for instance, by changing the
0:48:40 rules about who votes, or how do you count votes, that it will become almost impossible
0:48:42 to get rid of them.
0:48:47 That’s not out of the possible in historical terms.
0:48:50 Do you think it’s possible that Trump will do that?
0:48:51 Yes.
0:48:52 I mean, you saw it on the 6th of January.
0:49:00 I mean, the most sensitive moment in every democracy is the moment of transfer of power.
0:49:06 And the magic of democracy is that democracy is meant to ensure a peaceful transfer of
0:49:07 power.
0:49:13 But as I said, like, you choose one party, you give them a try, after some time, if people
0:49:17 say they didn’t do a good job, let’s try somebody else.
0:49:21 And you know, you have people who hold– in the United States, they hold the biggest
0:49:23 power in the world.
0:49:27 The president of the United States have enough power to destroy human civilization.
0:49:33 All these nuclear missiles, all these arming, and he loses the election.
0:49:39 And he says, OK, I give up all this power, and I let the other guy try.
0:49:40 This is amazing.
0:49:43 And this is exactly what Trump didn’t do.
0:49:49 He from the beginning– I mean, even from 2016, he refused– they asked him directly,
0:49:52 if you lose the election, will you accept the results?
0:49:54 And he said, no.
0:49:58 And in 2020, he did not hand power peacefully.
0:50:01 He tried to prevent it.
0:50:06 And the fact that he is now running again– and I think, to some extent, the lesson he
0:50:12 got from the 6th of January is that I can basically get away with anything, at least
0:50:19 with my people, with my base, that it was like a test, a try.
0:50:26 If I do this extreme thing, and they still support me afterwards, it basically means
0:50:29 they will support me no matter what I do.
0:50:35 I’m wondering in a world of such a fragile democracy, when information flows and networks
0:50:41 are disrupted by something like AI, if misinformation and disinformation– and the ability for me
0:50:45 to make a video– I could make a video right now of Donald Trump speaking and saying something
0:50:47 in his voice.
0:50:51 And I could help that video go viral.
0:50:56 How do you hold together democracy and communication when you don’t believe anything that you’re
0:50:58 seeing online?
0:51:00 We’re just at the start of this now.
0:51:01 We haven’t seen anything yet.
0:51:04 This is just really the first baby steps of this.
0:51:07 I’m going to play a video on the screen right now so people can see.
0:51:09 And for those listening, you’ll just hear it.
0:51:13 But I’m going to play a video that Isaac, over there in the corner of the room, made
0:51:15 of me speaking in this chair.
0:51:16 And it wasn’t me.
0:51:17 And I didn’t say it.
0:51:18 And I wasn’t in this chair.
0:51:19 Hey there.
0:51:20 This is AI Steve.
0:51:23 Do you think I’ll be able to take over the dire of a CEO one day?
0:51:26 Leave your comments below.
0:51:28 And it sounds exactly like me, identical.
0:51:29 And it’s not me.
0:51:33 And I wonder this with most of us get our political information, and our information generally
0:51:36 now, from social media.
0:51:39 And if I can’t believe anything that I’m seeing, because it’s all easy to make, some
0:51:44 kid in Russia in that bedroom can make a video of the Prime Minister here.
0:51:46 I don’t know where we get our information from anymore.
0:51:47 How we verify.
0:51:48 The answer is institutions.
0:51:52 We’ve been in this situation many times before in history.
0:51:54 And the answer is always the same, institutions.
0:51:57 You cannot trust the technology.
0:52:01 You trust the institution that verifies the information.
0:52:09 Think about it like with print, that you can write on a piece of paper anything you want.
0:52:14 You can write, the Prime Minister of Britain said, and then you open quotation marks, and
0:52:17 you put something into the mouth of the Prime Minister.
0:52:19 You can write anything you want.
0:52:23 And when people read it, they don’t believe it.
0:52:24 They shouldn’t believe it.
0:52:29 Just because it’s written that the Prime Minister said it, doesn’t mean that it’s true.
0:52:35 So how do we know which pieces of paper to believe as an institution?
0:52:39 We would believe, or greater chance, we will believe if on the front page of the New York
0:52:46 Times or of the Sunday Times or of the Guardian, you will have the British Prime Minister said
0:52:49 open quotation marks, blah, blah, blah.
0:52:51 Because we don’t trust the paper or the ink.
0:52:57 We trust the institution of the Guardian or the Wall Street Journal or whatever.
0:53:01 With videos, we never had to do that because nobody could fake them.
0:53:03 So we trusted the technology.
0:53:07 If we saw a video, we said, ah, this has to be true.
0:53:13 But when it becomes very easy to fake videos, then we revert to the same principle as we
0:53:14 sprint.
0:53:17 We need an institution to verify it.
0:53:25 If we see the video on the official website of CNN or of the Wall Street Journal, then
0:53:29 we believe it because we believe the institution backing it.
0:53:34 And if it’s just something on TikTok, we know that any kid can do that.
0:53:36 Why should I believe it?
0:53:38 So now we are in the transition period.
0:53:40 We are still not used to it.
0:53:47 So when we see a video of Donald Trump or Joe Biden, the video still gets to us because
0:53:51 we grew up in a time when it was impossible to fake it.
0:53:55 But I think very quickly people will realize you can’t trust videos.
0:53:58 You can only trust the institutions.
0:54:05 And the question is, will we be able to produce, to create, to maintain, trust where the institutions
0:54:11 fast enough to save the democratic conversation?
0:54:16 Because if not, if you can’t believe anything, this is the ideal for dictators.
0:54:23 When you can’t trust anything, the only system that works is a dictatorship because democracy
0:54:28 works on trust, but dictatorship works on terror, on fear.
0:54:31 You don’t need to trust anything in a dictatorship.
0:54:32 You don’t trust anything.
0:54:33 You fear.
0:54:39 For democracy to work, you need to trust, for instance, that some information is reliable,
0:54:46 that the election committee is impartial, that the courts are just.
0:54:53 And if more and more institutions are attacked and people lose trust in them, then democracy
0:54:54 collapses.
0:55:02 But going back to information, so one option is that the old institutions, like newspapers
0:55:10 and TV stations, they will be the institutions that we trust to verify certain videos.
0:55:14 Or we will see the emergence of new institutions.
0:55:20 And again, the big question is whether we’ll be able to develop trust in them.
0:55:27 When I specifically say institutions and not individuals, no large-scale society, especially
0:55:34 not a democratic society, can function without trustworthy bureaucratic institutions.
0:55:41 And will those bureaucratic institutions be AI?
0:55:45 That’s the big question, because increasingly, AIs will be the bureaucrats.
0:55:48 What do you mean by bureaucrats?
0:55:49 What’s the word bureaucrat?
0:55:50 What does that mean?
0:55:55 That’s a very important question, because human civilization runs on bureaucracy.
0:55:58 Bureaucrats are essentially officials in government that train.
0:56:00 Not just in government.
0:56:05 The origin of the word bureaucrat, it comes from French, from the 18th century.
0:56:11 And bureaucracy means that the rule of the writing desk is to rule the world, or to rule
0:56:17 society, with pen and papers and documents, like the example we gave in the very beginning
0:56:20 about ownership.
0:56:28 So you own a house, because there is a document in some archive that says that you own it.
0:56:31 And a bureaucrat produced this document.
0:56:37 And if you now need to retrieve it, then this is the job of a bureaucrat, to find the right
0:56:39 document at the right time.
0:56:47 And all big systems run on it, hospitals and schools and corporations and banks and sports
0:56:50 associations and libraries.
0:56:57 They all run on these documents, and the bureaucrats who know how to read and write and find and
0:57:00 file documents.
0:57:07 One of our big problems is that it’s difficult for us to understand bureaucratic systems,
0:57:11 because they are a very recent development in human evolution.
0:57:20 And this makes us suspicious about them, and we tend to believe all kinds of conspiracy
0:57:26 theories about the deep state and about what’s going on in all these bureaucracies.
0:57:31 And it’s really complicated, and it’s going to be more complicated as more of the decisions
0:57:34 will be made by AI bureaucrats.
0:57:40 And AI bureaucrat means that decisions like how much money to allocate to a particular
0:57:47 issue will no longer be made by a human official, it will be made by an algorithm.
0:57:55 And when people ask why is the switch system broken, why didn’t they give enough money
0:57:57 to fix it, I don’t know.
0:58:01 The algorithm just decided to give the money to something else.
0:58:06 Why will bureaucracies be run by AI over people?
0:58:12 Why will at some point a nation decide that in fact AI is better at making these decisions?
0:58:16 First of all, it’s not a future development, it’s already happening.
0:58:20 More and more of the decisions are being made by AIs.
0:58:27 And this is just because the amount of information you need to take into account are enormous.
0:58:33 And it’s very difficult for humans to do it, it’s much easier for the AIs to do it.
0:58:40 All these people, bureaucrats, lawyers, accountants, I always wonder what are humans going to be
0:58:41 left to do?
0:58:50 In your book you say that AI is going so far beyond human intelligence that it should
0:58:52 actually be referred to alien intelligence.
0:58:57 And if it goes so far beyond human intelligence, it’s my assumption that most of the work
0:59:01 that we do is based on intelligence.
0:59:05 So even like me doing this podcast now, this is me asking questions based on information
0:59:09 that I’ve gathered, based on what I think I’m interested in, but also based on what
0:59:11 I think the audience will be interested in.
0:59:16 And compared to AI, I’m like a little monkey, do you know what I mean?
0:59:22 If an AI has an IQ that is 100 times mine and a source of information that is a million
0:59:25 times bigger than mine, there’s no need for me to do this podcast.
0:59:29 I can get an AI to do it, and in fact an AI can talk to an AI and deliver that information
0:59:30 to a human.
0:59:36 So if we look at most industries, like being a lawyer, a candidacy, a lot of the medical
0:59:42 profession is based on information, driving, I think that’s the biggest employer in the
0:59:47 world is the profession of driving, whether it’s delivery or Uber or whatever it is.
0:59:50 Where do humans belong in this complex?
0:59:56 Anything which is just information in, information out, is ripe for automation, these are the
1:00:00 easiest jobs to automate.
1:00:01 Like being a coder.
1:00:07 Like being a coder, or again, like being an accountant, at least certain types of accountants,
1:00:11 lawyers, doctors, they are the easiest to automate.
1:00:16 If a doctor, the only thing they do is just take information in, all kinds of results
1:00:23 of blood tests and whatever, and they information out, they diagnose disease and they write
1:00:29 a prescription, this will be easy to automate in the coming years and decades.
1:00:35 But a lot of jobs, they require also social skills and motor skills.
1:00:42 If your job requires a combination of skills from several different fields, it’s not impossible,
1:00:45 but it’s much more difficult to automate it.
1:00:51 So if you think about a nurse that needs to replace a bandage to a crying child, this
1:00:57 is much, much harder to automate than just a doctor that writes a prescription, because
1:00:59 this is not just data.
1:01:05 The nurse needs good social skills to interact with the child and motor skills to just replace
1:01:08 the bandage.
1:01:11 So this is harder to automate.
1:01:17 And even for people who just deal with information, there will be new jobs.
1:01:23 The problem will be the retraining, and not just retraining in terms of acquiring new
1:01:27 skills, but psychological retraining.
1:01:33 How do you kind of reinvent yourself in a new profession and do it not once, but again
1:01:38 and again and again, because as the AI revolution unfolds, and we are just at the very beginning
1:01:41 of it, we haven’t seen anything yet.
1:01:46 So there will be all jobs disappearing, new jobs emerging, but the new jobs will rapidly
1:01:51 change and vanish, and then there will be a new wave of new jobs, and people will have
1:01:56 to reinvent themselves four, five, six times to stay relevant.
1:02:01 And this will create immense psychological stress.
1:02:05 So many of the big companies are also working at the same time on humanoid robots.
1:02:07 There’s this humanoid robot race going on.
1:02:11 And by humanoid robots, I mean, Tesla have their humanoid robot, I think it’s called
1:02:16 Optimus, which they’re developing, and it will cost X thousands of pounds.
1:02:20 And I watched a video of it recently where it can do quite delicate sort of motor skill
1:02:21 based stuff.
1:02:22 So probably clean the house.
1:02:29 It can probably work on the production line, probably put things in boxes.
1:02:31 And I just wonder when we say, you know, people are going to lose their jobs in a world where
1:02:35 you have humanoid robots and you have intelligence that’s beyond us.
1:02:38 And you combine the two where these humanoid robots are very, very intelligent.
1:02:45 I don’t know what I’m like, where did the unemployed go to to find these new professions?
1:02:49 Like, obviously, it’s difficult to forecast the new professions of the future.
1:02:53 She tells us that, but I can’t figure out what the new professions are.
1:02:55 I mean, my girlfriend is breathwork.
1:03:00 I guess the breathwork part is quite easy to disrupt, but then she takes women away for
1:03:02 retreats in Portugal and stuff.
1:03:05 So I’m like, okay, she’s going to kind of be safe because these women are going there
1:03:10 to connect with humans and to be in this little special place offline intentionally.
1:03:13 So retreats you’ll probably be fine.
1:03:19 Anything that, you know, there are things that we want in life, which are not just about
1:03:20 solving problems.
1:03:25 Like, I’m sick, I want to be healthy, I want my problem solved.
1:03:30 But there are many things that we want to have a connection.
1:03:38 Like, if you think about sports, robots or machines can run much faster than people for
1:03:40 a very long time now.
1:03:46 And we just had the Olympics and people are not very interested in seeing robots running
1:03:48 against each other or against people.
1:03:55 Because what really makes sports interesting in the end is the human weaknesses.
1:04:00 And the ability of humans to deal with their weaknesses.
1:04:03 And human athletes still have jobs.
1:04:08 Even though in many lines like running, you can have a machine run much faster than the
1:04:09 world champion.
1:04:11 I thought about this the other day.
1:04:15 And another example is priests.
1:04:21 Like one of the easiest jobs to automate is the priesthood of at least certain religions
1:04:29 because you just need to repeat the same texts and gestures again and again in specific situations.
1:04:34 Like if you have a wedding ceremony, then, you know, the priest just need to repeat the
1:04:38 same words and there you are, you’re married.
1:04:44 Now we don’t think about priests as being in danger of being replaced by robots.
1:04:49 Because what we want from a priest is not just the mechanical repetition of certain words
1:04:51 and gestures.
1:05:01 We think that only another frail flesh and blood human who knows what is pain and love
1:05:07 and who can suffer, only they can connect us to the divine.
1:05:12 So most people would not be interested in having the wedding conducted by a robot.
1:05:15 Even though technically it’s very easy to do it.
1:05:19 Now the big question, of course, what happens if AI gains consciousness?
1:05:24 This is like the trillion dollar question of AI consciousness.
1:05:26 Then all bets are off.
1:05:29 But that’s a different and very, very big discussion.
1:05:33 I mean, whether it’s possible, how would we know and so forth.
1:05:35 Do you think it’s possible?
1:05:36 We have no idea.
1:05:39 I mean, we don’t understand what consciousness is.
1:05:43 We don’t know how it emerges in the organic brain.
1:05:49 So we don’t know if there is an essential connection between consciousness and organic
1:05:57 biochemistry so that it can’t arise in an inorganic, silicon-based computer.
1:06:05 There is a big confusion, first of all, should be said again, between consciousness and intelligence.
1:06:11 Consciousness is the ability to reach goals and solve problems.
1:06:17 Consciousness is the ability to feel things like pain and pleasure and love and hate.
1:06:23 Humans and other animals, we solve problems through our feelings.
1:06:25 Our feelings are not something on the side.
1:06:32 They are a main method for how to deal with the world, how to solve problems.
1:06:38 Now, so far, computers, they solve problems in a completely different way than humans.
1:06:40 Again, they are alien intelligence.
1:06:43 They don’t have any feelings.
1:06:46 When they win a game of chess, they are not joyful.
1:06:48 When they lose a game, they are not sad.
1:06:50 They don’t feel anything.
1:06:58 Now we don’t know how organic brains produce these feelings of pain and pleasure and love
1:06:59 and hate.
1:07:07 So this is why we don’t know whether an inorganic structure based on silicon and not carbon,
1:07:11 whether it will be able to generate such things or not.
1:07:19 That’s, I think, the biggest question in science, and so far we have no answer.
1:07:21 Isn’t consciousness just like a hallucination?
1:07:26 Isn’t it just like an illusion that I think I’m conscious because I’ve got a circuitry
1:07:29 which tells me that I am effectively?
1:07:33 It tells me through a bunch of feelings and things that I’m conscious like I think I’m
1:07:34 looking at you now.
1:07:35 I think I can see you.
1:07:36 Yeah, the feeling is real.
1:07:39 I mean, even if we are all, it’s like the matrix.
1:07:40 How do you know it’s real?
1:07:41 How do you know it’s real?
1:07:43 It’s the only real thing in the world.
1:07:48 I mean, there is nothing, everything else is just conjuncture.
1:07:55 We only experience our own feelings, what we see, what we smell, what we touch.
1:07:58 This we actually experience, this is real.
1:08:01 Then we have all these theories about why do I feel pain?
1:08:05 Oh, it’s because I stepped on a nail and there is such a thing in the world as a nail and
1:08:06 whatever.
1:08:12 It could be that we are all inside a big computer on the planet Zircon run by super intelligent
1:08:13 mice.
1:08:18 If I spoke to an AI, I could get an AI to tell me that it feels pain and sadness.
1:08:26 That’s a big problem because there is a huge incentive to train AIs to pretend to be alive,
1:08:29 to pretend to have feelings.
1:08:35 We see that there is a huge effort to produce such AIs.
1:08:40 In truth, because we don’t understand consciousness, we don’t have any proof, even that other
1:08:43 humans have feelings.
1:08:46 I feel my own feelings, but I never feel your feelings.
1:08:51 I only assume that you are also a conscious being.
1:09:00 Society grants this status of a conscious entity to not only to humans, but also to
1:09:06 some animals, not based on any scientific proof, but based on social convention.
1:09:12 Like, most people feel that their dogs are conscious, that their dogs can feel pain and
1:09:15 pleasure and love and so forth.
1:09:21 So society accepts, most societies, that dogs are sentient beings and they have some rights
1:09:22 under the law.
1:09:30 Now, even if AI has no feelings, no consciousness, no sentience whatsoever, but it becomes very
1:09:39 good at pretending to have feelings and convincing us that it has feelings, then this will become
1:09:46 a social convention, that people will feel that their AI friend is a conscious being
1:09:49 and therefore should be granted rights.
1:09:55 There is even already a legal path for how to do it.
1:10:00 At least in the United States, you don’t need to be a human being in order to be a legal
1:10:01 person.
1:10:05 It’s funny, because you mentioned, you kind of alluded to the fact, jokingly, that we
1:10:06 might just be in like a simulation.
1:10:09 It was one of your, like, well, maybe we’re just in a simulation, but…
1:10:10 Yeah, could be.
1:10:16 And it’s funny because in a world of AI, I think my belief in that as a possibility has
1:10:17 only increased.
1:10:18 Yes.
1:10:21 So, I think I’m going to be in a simulation, because I’ve watched us go from when I was
1:10:27 born, not really having internet access to now being able to kind of speak to this alien
1:10:33 on my computer that can now do things for me and having virtual reality experiences, which
1:10:38 are sometimes quite indistinguishable when I fall into the trap of believing that I am
1:10:42 inside Squid Games because I’ve got this headset on, and you play it forward and you
1:10:45 play it forward and you play it forward and you imagine any rate of improvement, then
1:10:48 I hear the arguments for simulation theory and I go, “You know, probably, if you play
1:10:55 this forward a hundred years, you know, at the rate we’re on, the rate of trajectory
1:11:04 we’re on, then we will be able to create information networks and organisms that don’t, in like
1:11:11 a laboratory or in a computer, that don’t necessarily realise they’re in the computer,
1:11:14 especially with like, what’s going on with biomes.
1:11:20 It’s already happening, to some extent, you know, these information bubbles that more
1:11:26 and more people live inside them, it’s still not the whole physical world, but you get
1:11:32 the same event and people on, say, different parts of the political spectrum, they just
1:11:34 can’t agree on anything.
1:11:42 They live in their own matrixes and, you know, when the Internet came along for the first
1:11:46 time, the main metaphor was the web, the worldwide web.
1:11:49 A web is something that connects everything.
1:11:58 And now the main metaphor, which is this simulation theory, is representing this new metaphor,
1:12:00 the new metaphor is the cocoon.
1:12:07 It’s a web that turns on you and then closes you from all sides, so you can no longer see
1:12:09 anything outside.
1:12:15 And there could be other cocoons with other people in there, and you have no way to get
1:12:16 to them.
1:12:17 Yeah.
1:12:22 Nothing that happens in the world can connect you anymore, because you’re in different cocoons.
1:12:27 You’ve only got to look at someone else’s phone, you’ve only got to look at someone else’s
1:12:28 Twitter or X or Instagram.
1:12:29 Is this the same reality?
1:12:30 It is so different.
1:12:36 Do you know what I was talking about over the weekend, my friend was at my left scrolling?
1:12:40 He clicked on the discovery section, which is where you find new content, and I looked
1:12:43 down at his phone and was like, it’s all Liverpool football club.
1:12:48 It’s like the entire feed is Liverpool, and my entire feed is completely different, and
1:12:53 I was just thinking, wow, he lives in a completely different world to me, because he’s a Liverpool
1:12:54 fan.
1:12:55 I’m a Manchester United fan.
1:13:01 And to think about that, to think that when you open your phone, and many of us are spending
1:13:06 up to nine hours a day on our mobile phones, you’re experiencing a completely different
1:13:09 window into a completely different world than I am.
1:13:19 And this is a very ancient fear, because Plato wrote exactly about that, and the most famous
1:13:26 parable I think from Greek philosophy is the allegory of the cave in which Plato imagines
1:13:34 a theoretical scenario, an imaginary scenario of a group of prisoners chained inside a cave
1:13:41 with their face to a blank wall in which shadows are being projected from behind them, and
1:13:44 they mistake the shadows for reality.
1:13:50 And he was basically describing people in front of a screen, just mistaking the screen
1:13:57 for reality, and you have the same thing in ancient India with Buddhists and Hindu sages
1:14:05 talking about Maya, which is the world of illusions, and the deep fear that maybe we
1:14:13 are all trapped inside a world of illusions that the most important thing that we think
1:14:22 in the world, the wars we fight, we fight wars over illusions in our mind.
1:14:28 And this is now becoming technically possible, like previously it was these philosophical
1:14:31 thought experiments.
1:14:39 Now part of what is interesting as a historian about the present era is that a lot of ancient
1:14:47 philosophical problems and discussions are becoming technical issues, that yes you can
1:14:52 suddenly realise Plato’s cave in your phone.
1:14:58 So scary, I find it really scary because you’re right, like I think right now some people
1:15:02 might say that they have some kind of grasp over like the ranking system or why something
1:15:08 shows up when I search it or whatever, but as these intelligence aliens become more
1:15:13 and more powerful, of course we would have less understanding because we’re like handing
1:15:14 over the decision making.
1:15:19 In some industries they are now completely the king makers, like I’m here on a book tour,
1:15:24 I wrote Nexus, so I go from podcast to podcast from TV station to TV station to talk about
1:15:34 my book, but the entities I’m really trying to impress are the algorithms, because if
1:15:46 I can get the attention of the algorithms the humans will follow.
1:15:51 You know that’s our, we are basically kind of carbon creatures in a silicon world.
1:15:57 I used to think we were in control though, and now I feel like the silicon’s in control.
1:16:03 Control is shifting, we are still in control to some extent, we are still making the most
1:16:08 important decisions, but not for long, and this is why we have to be very very careful
1:16:16 about the decision we make in the next few years, because in 10 years, in 20 years it
1:16:17 could be too late.
1:16:22 By then the algorithms will be making the most important decisions.
1:16:26 You talk about a couple of big dangers you see with the algorithms and AI and the sort
1:16:32 of shift in disruption of information, one of them is this alignment problem.
1:16:37 Which how would you explain the alignment problem to me in a way that’s simple to understand?
1:16:43 So the classical kind of example is a thought experiment invented by the philosopher Nick
1:16:49 Bosrum in 2014, which sounds crazy, but you know bear with it.
1:16:59 He imagines a super intelligent AI computer, which is bought by a paperclip factory, and
1:17:06 the paperclip manager tells the AI your goal, the reason I bought you, your goal, your entire
1:17:13 existence, you’re here to produce as many paperclips as possible, that’s your goal.
1:17:20 And then the AI conquers the entire world, kills all humans, and turns the entire planet
1:17:26 into factories for producing paperclips, and it even begins to send expeditions to outer
1:17:33 space to turn the entire galaxy into just paperclip production industry.
1:17:39 And the point of the thought experiment is that the AI did exactly what it was told.
1:17:46 It did not rebel against the humans, it did exactly what the boss wanted, but of course
1:17:53 it was not the strategy it chose, was not aligned with the real intentions, with the
1:18:00 real interests of the human factory manager, who just couldn’t foresee that this will be
1:18:01 the result.
1:18:08 Now this sounds like outlandish and ridiculous and crazy, but it already happened to some
1:18:10 extent and we talked about it.
1:18:14 This is the whole problem with social media and user engagement.
1:18:21 In the very same years that Nick Bosrum came up with this thought experiment in 2014, the
1:18:28 managers of Facebook and YouTube, they told their algorithms, your goal is to increase
1:18:31 user engagement.
1:18:37 And the algorithms of social media, they conquered the world and turned the whole world into
1:18:41 user engagement, which was what they were told to do.
1:18:44 We are now very, very engaged.
1:18:49 And again, they discovered that the way to do it is with outrage and with fear and with
1:18:51 conspiracy theories.
1:18:53 And this is the alignment problem.
1:19:00 When Mark Zuckerberg told the Facebook algorithms, increase user engagement, he did not foresee
1:19:07 and he did not wish that the result will be collapse of democracies, wave of conspiracy
1:19:14 theories and fake news, hatred of minorities, he did not intend it.
1:19:22 But this is what the algorithms did because there was a misalignment between the way that
1:19:32 the algorithm, the goal that was defined to the algorithm and the interests of human society
1:19:39 and even of the human managers of the companies that deployed these algorithms.
1:19:49 And this is still a small scale disaster because the social media algorithms that created all
1:19:56 these social chaos over the last 10 years, they are very, very primitive AI.
1:20:03 This is like the amoebas of if you think about the development of AI as an evolutionary
1:20:06 process, for this is still the amoeba stage.
1:20:12 The amoeba being the very simple, the very simple life forms, the beginning, like a single
1:20:13 cell life form.
1:20:17 We are still in evolutionary terms, organic evolution.
1:20:23 We are like billions of years before we will see the dinosaurs and the mammals or the humans.
1:20:29 But digital evolution is billions of times faster than organic evolution.
1:20:37 So the distance between an AI amoeba and the AI dinosaurs could be covered in just a few
1:20:39 decades.
1:20:48 If chat GPT is the amoeba, how would the AI Tyrannosaurus Rex would look like?
1:20:54 And this is where the alignment problem becomes really disconcerting.
1:21:01 Because if so much damage was done by giving kind of the wrong goal to a primitive social
1:21:11 media algorithm, what would be the results of giving a misaligned goal to a T-Rex AI
1:21:13 in 20 or 30 years?
1:21:18 The issue at the heart of this is some people might think, OK, just give it a different goal.
1:21:22 But when you’re dealing with private companies who are listed on the stock market, there really
1:21:24 is only one goal that keep that.
1:21:25 Make money.
1:21:26 Exactly.
1:21:27 That benefits the market.
1:21:32 So all of the platforms have to say the goal of this platform is to make more money and
1:21:34 to get more attention.
1:21:36 Because also it’s mathematically easy.
1:21:45 There is a huge, huge problem in how to define for AIs and algorithms the goal in a way they
1:21:47 can understand.
1:21:53 Now the great thing about make money or increase user engagement is that it’s very easy to
1:21:56 measure it mathematically.
1:22:03 One day you have a million hours being watched on YouTube, then a year later it’s 2 million.
1:22:06 Very easy for the algorithm to see, hey, I’m making progress.
1:22:12 But let’s say that Facebook would have told its algorithm, increase user engagement in
1:22:17 a way that doesn’t undermine democracies.
1:22:19 How do I measure that?
1:22:24 Who knows what is the definition for the robustness of democracy?
1:22:25 Nobody knows.
1:22:32 So defining the goal for the algorithm as increase user engagement but don’t harm democracy
1:22:34 almost impossible.
1:22:40 This is why they go for the kind of easy goals which are the most dangerous.
1:22:44 But even in that scenario, if I’m the owner of a social network and I say increase user
1:22:50 engagement but don’t harm democracy, the problem I have is my competitor who leaves out the
1:22:55 second part and just says increase user engagement is going to beat me because they’re going
1:22:59 to have more users, more eyeballs, more revenue, advertisers are going to be happier, then
1:23:01 my company is going to falter, investors are going to pull out.
1:23:06 That’s a question because there are two things to take into consideration.
1:23:08 First of all, you have governments.
1:23:16 Governments can regulate and they can penalize a social media company that defines goals
1:23:18 in a socially responsible way.
1:23:25 Just as they penalize newspapers or TV stations or car companies that behave in an antisocial
1:23:27 way.
1:23:36 The other thing is that humans are not stupid and self-destructive that if we would like
1:23:43 to have better products in the sense of also socially better products.
1:23:49 I gave earlier the example with food diets, I think how much, yes, the food companies
1:23:56 they discovered that if they feel a product artificially with lots of fat and sugar and
1:23:59 salt, people would like it.
1:24:03 But people discovered that this is bad for their health.
1:24:09 You now have a huge market for diet products and people are becoming very aware of what
1:24:10 they eat.
1:24:13 The same thing can happen in the information market.
1:24:19 The cost of those, 70, 80% of people in the US have chronic disease and are obese and
1:24:22 life expectancy is now, looks like it’s going the other way a little bit in the Western
1:24:23 world.
1:24:37 I feel like with policing consumption of goods like alcohol, nicotine, food seems much more
1:24:44 simple than policing information and the flow of information.
1:24:51 Beyond racism or inciting violence, I don’t know how you police.
1:25:01 I already covered the two most basic and powerful tools are to hold companies liable for the
1:25:07 actions of their algorithms, not for the content that the users produce, but for the actions
1:25:09 of the algorithms.
1:25:14 I don’t think we should penalize Twitter or Facebook.
1:25:22 If somebody post a racist post, I would be very careful about penalizing Facebook for
1:25:26 that, because then who decides what is racism and so forth.
1:25:32 But if the algorithm of Facebook deliberately spreads some racist conspiracy theory, that’s
1:25:33 the algorithm.
1:25:35 That’s not human free speech.
1:25:38 How do you know it’s a racist conspiracy theory, though?
1:25:39 Okay.
1:25:43 Now we get to the difficult conversation, but this is something that we have the codes
1:25:44 for.
1:25:51 And I would be very careful about having the courts judge on the content of the production
1:25:53 of individual users.
1:26:03 But when it comes to algorithms deliberately, routinely spreading a particular type of information
1:26:06 like a conspiracy theory, we can involve the courts.
1:26:12 The key issue is who has liability, that it’s the company that is liable for what the algorithm
1:26:19 is doing and not the human individual liable for what they are saying.
1:26:25 And another key distinction here is between private and public.
1:26:30 Like part of the problem is the erasure of the boundary between the two.
1:26:36 I think that humans have a right to stupidity in private.
1:26:41 That in your private space, with your friends and with your family, you have a right to
1:26:42 stupidity.
1:26:44 You can say stupid things.
1:26:46 You can tell racist jokes.
1:26:47 You can tell homophobic jokes.
1:26:48 It’s not good.
1:26:49 It’s not nice.
1:26:50 But you’re a human being.
1:26:52 You’re allowed to do that.
1:26:54 But not in public.
1:27:02 I mean, even for politicians, like as a gay person, if the prime minister tells a homophobic
1:27:05 joke in private, I don’t need to care about that.
1:27:07 That’s his or her business.
1:27:11 But if they say it in public on television, that’s a huge problem.
1:27:17 Now, traditionally, it was very easy to distinguish private from public.
1:27:20 You are in your private house with a group of friends.
1:27:23 You say something stupid, that’s private.
1:27:25 It’s nobody’s business.
1:27:30 You go to the town square and you stand on a pedestal and you shout something to thousands
1:27:31 of people.
1:27:32 That’s public.
1:27:38 Here you can be punished if you say something racist or homophobic or outrageous.
1:27:40 But it was easy for you to know.
1:27:46 Now the problem is you go, let’s say on WhatsApp, you think you’re just talking with two of
1:27:49 your friends and you say something really stupid.
1:27:54 And then it gets viral and it’s all over the place.
1:27:58 And I don’t have an easy solution for that.
1:28:08 But one measure which is adopted by some governments is, for instance, that people who have a large
1:28:14 following, they are held to a different standard than people who don’t.
1:28:20 Even the most basic thing of identifying yourself as a human being.
1:28:25 We don’t want that everybody would have to get some certification from the government
1:28:28 to talk with their friends on WhatsApp.
1:28:34 But if you have 100,000 followers online, we need to know that you’re not a bot.
1:28:36 That you’re actually a human being.
1:28:41 And again, this is not covered by freedom of speech because bots don’t have freedom of
1:28:42 speech.
1:28:46 This slippery slope, right, because I’ve gone back and forth on this argument of anonymity
1:28:50 and whether it’s a good thing or a bad thing for social networks and the rebuttal that
1:28:57 I got when I lent to the side of ideaing people, is that totalitarian governments will use
1:29:00 that as a way to basically punish the people who are speaking about it.
1:29:03 The totalitarian governments are doing it whether we like it or not.
1:29:08 It’s not a question that if the British do it, then the Russians will say, OK, so we’ll
1:29:09 also do it.
1:29:11 The Russians are doing it anyway.
1:29:12 Well Americans start to do it.
1:29:17 Well they start to, if someone speaks out against Trump and he has access to their identity
1:29:20 and information, can he go look at them and get them arrested?
1:29:26 If we reach that point when the courts will allow such a thing, then we are in very deep
1:29:29 trouble already.
1:29:36 And what we should realize is that with the surveillance technology now in existence,
1:29:44 a totalitarian government has so many ways to know who you are that it’s not the main
1:29:45 issue.
1:29:50 You talked about the platforms being responsible for the consequences.
1:29:51 Yes.
1:29:56 In the UK over the last month, we’ve had, I don’t know if you’ve heard, riots and I
1:30:01 think it was all triggered originally when there was news that broke that someone had
1:30:07 murdered some young children and there was a confusion or sort of a misinformation around
1:30:10 that person’s religion and that meant that people proem-
1:30:17 So that’s an excellent example because if I personally, privately say to just two of
1:30:23 my friends, I think the person who did it is ex, I don’t think you should be persecuted
1:30:24 for that.
1:30:28 I could say it in my private living room and it’s the same thing if I say it on WhatsApp
1:30:37 or on Facebook, but if a Facebook algorithm picks up this piece of fake news and starts
1:30:46 recommending it to more and more users, then Facebook is liable for the action of its algorithms.
1:30:51 You should be able to take it to court and say the algorithm deliberately recommended
1:30:54 a piece of fake news.
1:31:02 And again, if the fake news was produced by an influencer with a million followers, then
1:31:05 it’s also, he’s also liable for that.
1:31:13 But if a private individual in a private setting said something which is not true, it’s
1:31:21 fake news and then an algorithm deliberately spread it, the main fault is with the algorithm
1:31:28 and the people who should be in jail are the managers of the company that owns this algorithm
1:31:32 and not the individual who uttered the words.
1:31:38 Going back to the riots issue, let’s say that, I don’t know, the Guardian on the day
1:31:44 of the riots decided to pick up a piece of this fake news and publish it on its front
1:31:47 page.
1:31:53 And they now take the editor of the Guardian to court and he says, but I didn’t write
1:31:59 it, I just found this piece of fake news and decided to put it on the front page of the
1:32:00 Guardian.
1:32:07 Now, it would be obvious to us that the editor did something very, very, very wrong and he
1:32:10 might or she might have to sit in jail.
1:32:15 And it’s not the problem of the person who originally produced the piece of fake news.
1:32:19 If you’re the editor of one of the biggest newspaper in the country and you decide to
1:32:25 publish something on your front page, you had better be very, very sure that what you’re
1:32:29 publishing is the truth, especially if it can incite to violence.
1:32:32 How would a social network owner know that?
1:32:35 How would they be able to verify that everything is true at that scale?
1:32:44 Not everything, but if, for instance, something is likely to lead to violence, it’s a precautionary
1:32:45 principle.
1:32:47 First of all, do no harm.
1:32:54 Again, I’m not asking Facebook to censor the piece of fake news.
1:33:00 I’m only asking it, don’t get your algorithms to spread it on purpose in order to get user
1:33:03 engagement and make a lot of money.
1:33:06 If you are not sure about it, just don’t spread it.
1:33:08 It’s as easy as that.
1:33:13 How does it know it’s fake news versus it thinking that it’s actually really important
1:33:14 life-saving news?
1:33:18 So, for example, that’s the responsibility of the company.
1:33:23 Again, how does the editor of the Guardian know of the financial times or of the Sunday
1:33:28 times, how do they know if something is true and if something should be published on the
1:33:29 front page?
1:33:36 If you are now managing a social media company, you are managing one of the most powerful
1:33:41 newspapers in the world and you should have the same kind of responsibilities and the
1:33:42 same kind of expertise.
1:33:48 If you have no idea how to judge whether an algorithm should recommend something to
1:33:51 millions of people, you’re in the wrong business.
1:33:54 If you can’t stand the heat, get out of the kitchen.
1:33:56 Don’t run a social media company.
1:34:00 If you don’t know what should be shown to millions of people.
1:34:04 One of the, it’s very pertinent because, obviously, Mark Zuckerberg’s letter that he wrote this
1:34:11 week says, “I was approached by the FBI who told me that Russia were trying to influence
1:34:17 the elections and they were given some information that there was this laptop story, Joe Biden,
1:34:22 Hunter Biden, who’s Joe Biden’s son, had this laptop story, which Facebook did know
1:34:28 if it was real or not and they thought maybe it was a Russian plant, i.e. Russia had put
1:34:31 the story there to try and make sure Joe Biden didn’t win the elections.
1:34:36 So Facebook deprioritised it, stopped it going viral and suppressed it.
1:34:40 It turns out it was a real story and it wasn’t fake.
1:34:45 And Mark Zuckerberg says he regrets suppressing it because it was in fact a real story and
1:34:49 in suppressing it, he kind of influenced the election to some degree.
1:34:53 So, it’s so complicated to the point that I just can’t…
1:34:56 It’s complicated to run a big media company.
1:34:57 If you do…
1:35:02 It’s complicated to run the Wall Street Journal or Fox News and then what happens if the FBI
1:35:08 comes to Fox News or comes to the Wall Street Journal and tells them, “Look, there is this
1:35:13 story planted by the Russians, don’t encourage it.”
1:35:17 And later on, it turns out that it was wrong.
1:35:18 Could happen.
1:35:22 And as the manager of the Wall Street Journal, you need to deal with it.
1:35:25 And do I trust the FBI under what conditions?
1:35:26 Sometimes they should.
1:35:27 Sometimes they should be suspicious.
1:35:31 I feel like you’re going to end up in jail, editor of the Wall Street Journal.
1:35:35 You’re going to end up in jail either way, because either way you’re influencing elections
1:35:36 and if you influence…
1:35:38 But that’s the business.
1:35:45 The real problem is when you have extremely powerful people like Zuckerberg or Elon Musk
1:35:49 that pretend that they don’t have power, that they don’t have influence, that they
1:35:56 don’t shape elections, we know for centuries that the owners and editors of newspapers,
1:36:01 they shape elections and therefore we hold them to certain standards.
1:36:08 And now the owners and managers of platforms like Twitter and YouTube and Facebook, they
1:36:14 have more power than the New York Times or the Guardian or the Wall Street Journal.
1:36:19 And they should be held to at least the same degree of accountability.
1:36:22 And their shtick that, “Oh, we are just a platform.
1:36:24 We just allow everybody to publish what they want.
1:36:26 It doesn’t work like that.”
1:36:30 And we don’t accept it with traditional media.
1:36:33 So why should we accept it?
1:36:37 That’s the whole trick of these tech companies that again, we have thousands of years of
1:36:42 history and they tell us, “Oh, it doesn’t apply to us.”
1:36:46 Like if you have a traditional industry like cars, it’s obvious to everybody, you cannot
1:36:52 put a new car on the road unless you made some safety checks to make sure the car is
1:36:53 safe.
1:36:59 You cannot put a new medicine on the market or a new vaccine on the market without safety.
1:37:00 That’s obvious, right?
1:37:05 But when it comes to algorithms, no, no, no, no, that’s a different set of rules.
1:37:07 You can put any algorithm you want on the market.
1:37:09 You don’t need any safety rules.
1:37:13 And even more basic than that, you think about something like theft.
1:37:17 You have the 10 commandments, don’t steal.
1:37:20 And you know, people know, yes, you shouldn’t steal until it comes to information.
1:37:23 Oh, no, no, no, no, it doesn’t apply to information.
1:37:28 I can take your information and without your permission, do all kinds of things with it
1:37:30 and sell it to third parties.
1:37:32 And this is not stealing.
1:37:35 Don’t steal doesn’t apply to my line of business.
1:37:41 And this is what the tech giants have been doing in many cases over the last decade or
1:37:47 two, telling us that history doesn’t apply to them, that all the wisdom that humanity
1:37:54 gained in a very painful way over centuries and thousands of years of dealing with dictatorships
1:37:59 and with whatever, it doesn’t apply to the new technology.
1:38:00 And it does.
1:38:01 It does apply.
1:38:07 Do you ever feel tempted to just log off and just like go live in a field somewhere, maybe
1:38:11 like a desert, maybe just create a little bit of a cult and I do it every year.
1:38:12 Oh, really?
1:38:17 Yeah, I take a long meditation retreat of between 30 days and 60 days.
1:38:21 Like this year I plan in December after the book tour is over to go 60 days from meditation
1:38:29 retreat in India and just completely disconnect no smartphone, no internet, not even books
1:38:35 or writing paper, just information fast.
1:38:37 Why?
1:38:38 It’s good for the mind.
1:38:42 Again, like with food, too much in isn’t good for us.
1:38:45 We need time to digest and to detoxify.
1:38:48 And it’s true of the mind as well.
1:38:54 If you just keep bombarding it with more, you get addicted to the wrong things.
1:39:03 You develop bad habits and you need, or at least I need, time off in order to really
1:39:13 kind of digest everything that happened and to decide what I want and what I don’t want,
1:39:19 what kind of habits, addictions I should try to be rid of.
1:39:23 And also to get to know my own mind.
1:39:33 When the mind is constantly bombarded by information from outside, it’s so noisy you
1:39:38 cannot get to know it because there is so much noise.
1:39:49 But when the noise goes away, then you can start to understand what is the mind?
1:39:50 How does it function?
1:39:51 How does it work?
1:39:53 Where do thoughts come from?
1:39:54 What is fear?
1:39:55 What is anger?
1:40:02 When you’re boiling with anger because of something you now read, you are focused on the object
1:40:09 of your anger, but you can’t understand the anger itself, the anger controls you.
1:40:15 When you have an information fast, you can just observe what happens to me when I’m
1:40:17 angry.
1:40:20 What happens to my mind, to my body?
1:40:22 How does it control me?
1:40:28 And this is more important than any angry story in the world, to understand what anger
1:40:29 actually is.
1:40:30 It’s very, very difficult.
1:40:38 How many times do people stop and just try to get to know their anger, and not the object
1:40:39 of the anger.
1:40:40 This is what we do all the time.
1:40:41 We kind of replay.
1:40:45 We heard something terrible that a politician we don’t like, I don’t know, somebody is angry
1:40:46 about Trump.
1:40:49 So he would replay it again and go, “Oh, he said like this, he did like this, he will
1:40:51 do this, he will do that.”
1:40:54 And you don’t get to know your anger that way.
1:40:59 I have about 50 different companies in my portfolio at Flight Group now.
1:41:03 Some of which I’ve invested in, and some of which I’ve co-founded or founded myself.
1:41:07 One thing I’ve noticed is that most companies don’t put enough effort into the hiring process.
1:41:12 In my mind, the first and most critical thing in business is assembling your group of people
1:41:15 because the definition of the word company is group of people.
1:41:19 And throughout all of my companies, whenever I’m looking to hire someone, my first port
1:41:23 of call is LinkedIn jobs, so I’m happy to say I’m also a sponsor of this podcast.
1:41:28 They’ve helped us source professionals who we truly can’t find anywhere else, even those
1:41:32 who aren’t actively searching for a new job, but who might be open to a perfect role.
1:41:36 In fact, over 70% of LinkedIn users don’t visit other leading job sites, so if you’re
1:41:40 not looking on LinkedIn, you’re probably looking in the wrong place.
1:41:45 So today, I’m giving the Diary of a CEO community a free LinkedIn job post.
1:41:52 Head to LinkedIn.com/doacnow, and let me know how you get on, terms and conditions apply.
1:41:55 So interesting, I was playing out the scenarios in my head as you were speaking of this future
1:41:58 where there’s almost these two species of human.
1:42:05 You have one species of human who are connected to the information highway through the internet,
1:42:07 through the neural link in their brain.
1:42:11 That’s just like they’re hooked, and the algorithm is feeding them information, and they’re acting
1:42:12 upon it, and they’re feeding it.
1:42:16 And then you have this other group of people who decided to reject that, who didn’t get
1:42:21 the neural link, who aren’t trying to interface with AI, and that are living in a tribe in
1:42:22 some jungle somewhere.
1:42:24 And I like, my girlfriend said this to me many years ago, she’s going, “I think there’s
1:42:25 going to be a split.”
1:42:27 And I kind of like, whatever.
1:42:33 But now I’m like, I can see why, as things get more extreme, you just go, “You know what,
1:42:36 I’m going to make a decision here.”
1:42:39 And especially when I saw the neural link that Elon Musk’s working on that allows you
1:42:42 to control computers with your brain, I sat down.
1:42:45 The computer to control your brain also, it goes both ways.
1:42:46 Yeah, it goes both ways.
1:42:47 You’re right, I actually didn’t think about that.
1:42:51 But I just imagined, and this is a question for everyone listening, if there’s you and
1:42:56 me, and I have the chip in my brain that now humans have in their brain that they’re using
1:43:03 to control computers with, I am a different species to you because I can control my car
1:43:08 downstairs, I can control the lights in this room, I can ask my brain questions and get
1:43:09 the answers.
1:43:16 My IQ becomes 5,000, yours is still 150, or 200, yours is probably 250.
1:43:20 But I’m a different species to you, I have such a huge, competitive advantage over you
1:43:26 that if you don’t get the chip then you’re screwed.
1:43:27 That’s speciation.
1:43:28 Yeah.
1:43:32 Again, on a small scale we saw it before in history, there are the people who adopted
1:43:37 the written document and the people who rejected it, and they are not with us anymore.
1:43:43 Because the people who adopted the written document, they built these kingdoms and empires
1:43:47 and they conquered everybody else.
1:43:51 But we are in danger of the same thing happening, and this is not a good thing, because it’s
1:43:55 not like life was better for the people with the documents.
1:44:01 In many cases life was better for the hunter-gatherers who lived before.
1:44:02 So what’s the solution?
1:44:08 If I had to, you know, having read your book, Brilliant Book, Nexus, a brief history of information
1:44:14 that works from the Stone Age to AI, what is the solution?
1:44:20 How do we stop the alignment problems, us all becoming paperclips, the social chaos,
1:44:23 the misinformation, the silicon curtain as you talk about in the book?
1:44:26 How do we stop these things just drawing our way?
1:44:27 Is there hope?
1:44:28 Are you optimistic?
1:44:32 I mean, the key is cooperation, is connection between humans.
1:44:36 I mean, the humans are still more powerful than the AIs.
1:44:42 The problem is that we have divided against each other, and the algorithms unintentionally
1:44:44 are increasing the divide.
1:44:52 Again, this is the oldest rule of every empire is divide and rule.
1:44:55 This was the rule of the Romans, of the British Empire.
1:45:00 If you want to rule a place, you divide the people of that place against one another, and
1:45:03 then it’s easy to manipulate and control them.
1:45:08 This is now happening to the entire human species with AI, that just as we had kind
1:45:15 of the Iron Curtain in the Cold War, now we have the Silicon Curtain, dividing not just
1:45:21 China from the US, but also Democrats from Republicans, also one person from another
1:45:29 person, and all of us from the AIs, which increasingly make the decisions about all that.
1:45:36 We still have the power for, I don’t know, five years, 10 years, 20 years to make sure
1:45:40 it doesn’t go in dystopian direction, but for that, we need to cooperate.
1:45:42 Are you optimistic?
1:45:43 I try to be a realist.
1:45:49 I mean, the last few, I mean, I just came from Israel, and I saw a country destroying
1:45:53 itself, for no good reason whatsoever.
1:46:01 It’s a country that just pressed the self-destruct button, and for no good reason, and it can
1:46:02 happen on a global scale.
1:46:04 What do you mean it pressed the self-destruct button?
1:46:10 It’s not just the war between Israelis and Palestinians, but Israeli society turning
1:46:16 against itself, greater and greater division and animosity.
1:46:26 And it’s like a dark hole of anger and of violence, which is sucking more and more people
1:46:27 in.
1:46:34 All over the world, you now feel the shockwaves from this dark hole in the Middle East.
1:46:36 And there is no good reason.
1:46:42 There is no objective reason, if I say something about the Israeli-Palestinian conflict.
1:46:44 There is no objective reason for it.
1:46:49 It’s not like there is not enough land between the Mediterranean and the Jordan River that
1:46:53 people have to fight for the little land there is, or that there is not enough food.
1:46:55 There is enough food for everyone to eat.
1:47:00 There is enough land to build houses and hospitals and schools for everyone.
1:47:01 Why do people fight?
1:47:05 Because of different stories in their minds.
1:47:09 They have these different mythologies that God gave this whole place just to us.
1:47:12 You have no right to be here.
1:47:15 And they fight over that.
1:47:21 And this is a local, original tragedy.
1:47:22 It can happen on a global scale.
1:47:29 Again, if something ultimately destroys us, it will be our own delusions, not the AIs.
1:47:36 The AIs, they get their opening because of our weaknesses, because of our delusions.
1:47:39 Yvon, thank you so much for writing a book.
1:47:43 I think this book is one of the most well-timed books that I’ve ever come across because of
1:47:46 everything that’s happening in the world right now.
1:47:50 It really helped me to understand that the problem isn’t necessarily me versus you if
1:47:52 you’re on the other side of the aisle.
1:47:57 The problem is information, the networks of information that we consume, who’s controlling
1:48:00 those networks of information.
1:48:05 Somebody’s manipulating us to be on different sides, not just to be on different sides,
1:48:06 but to see each other as enemies.
1:48:09 And right now that’s a person.
1:48:10 But it might not be.
1:48:12 Soon it might not be a person, no.
1:48:16 And understanding that I think helps us focus on the root cause of issues that are sometimes
1:48:18 hard to identify.
1:48:20 I think the problem is my neighbor.
1:48:22 I think it’s that person with different color skin.
1:48:26 But actually, if you look one level deeper, it’s the information networks and what I’m
1:48:31 being exposed to that are brainwashing me and creating those stories.
1:48:34 And as you talk about in your previous book, stories are ultimately what are running the
1:48:35 world.
1:48:39 And it’s this wonderful, the Nexus is just a wonderful book and a wonderful time that
1:48:46 helps us to access this knowledge of the power of information and how it impacts democracy
1:48:52 and relationships and society and business and everything in between in a way that I
1:48:56 hope will lead to action.
1:48:59 And I think that is something to be optimistic about.
1:49:00 Yeah.
1:49:07 And ultimately, I think most humans are good, good people.
1:49:12 When you give people bad information, they made bad decisions.
1:49:15 The problem is not with the humans, it’s with the information.
1:49:16 Amen.
1:49:20 Yvonne, we have a closing tradition on this podcast where the last guest leaves a question
1:49:22 for the next guest not knowing who they’re going to be leaving it for.
1:49:23 Oh, OK.
1:49:33 And the question left for you is, what does it mean to be strong?
1:49:48 To accept reality as it is, to deal with reality without trying to hide it, disappear it, put
1:49:51 a veil over it.
1:49:55 So interesting.
1:49:57 I think you’re right.
1:49:58 I think you’re right.
1:50:06 Certainly not the answer I would have given, but, you know, you can, what would you say?
1:50:10 Oh, what do I say?
1:50:15 I guess I probably would have spoken to like perseverance in the face of a lot of different
1:50:16 difficulties.
1:50:21 This is information, but it’s just that idea of like persevering towards whatever your
1:50:26 subjective goal is in the face of and in spite of a variety of different difficulties.
1:50:32 Maybe that strength so that could be raising a kid or it could be going to the gym or whatever.
1:50:37 But I like your definition as well, because I think it’s much more important in the times
1:50:38 we find ourselves in.
1:50:42 And honestly, as a podcast, you sometimes feel like you’re caught right in the middle
1:50:45 of it, because I think everyone’s trying to figure out if I’m like on the right wing,
1:50:46 on the left wing.
1:50:50 If I believe this, if I endorse every guest that I sit with, and you almost have to try
1:51:01 and remain impartial, but it’s very, very difficult to, for people to understand that,
1:51:05 because they want you to fit somewhere, and they want to.
1:51:06 That’s weakness.
1:51:12 I mean, you have a lot of people who claim to be very strong, who admire strength as
1:51:20 a value, but they can’t deal with parts of reality that don’t fit into their worldview
1:51:22 or their desire.
1:51:27 And they think that strength is, I have the strength to just make these parts of reality
1:51:29 disappear.
1:51:31 And no, this is weakness.
1:51:38 And sorry for going back to that, but this is also the war, like what is war is trying
1:51:42 to disappear a part of reality that you don’t like.
1:51:46 In this case, an entire people, I don’t like these people.
1:51:48 I don’t think they should be in reality.
1:51:51 So I try to make them disappear.
1:51:54 And people say, oh, he’s a very strong leader.
1:51:55 He’s not.
1:51:57 He’s a very weak leader.
1:52:01 That a strong leader would be able to acknowledge, no, these people exist.
1:52:03 They are part of reality.
1:52:07 Let’s now find out how do we live with them?
1:52:09 Amen.
1:52:13 Your book, Nexus, a brief history of information networks from the Stone Age to AI is a must-read
1:52:17 for everybody that listens to this podcast and that has any interest in these subjects
1:52:18 at all.
1:52:21 It’s endorsed by two of my favorite people, Mustafa Solomon, but also Stephen Fry and
1:52:22 Roy Street.
1:52:23 He’s a great person as well.
1:52:28 And it’s endorsed for a very good reason because it’s a completely mind expanding book written
1:52:32 from someone who only writes exceptional culture shifting books.
1:52:36 So I’m going to link it below and I highly recommend anybody that’s listened to this conversation
1:52:41 and that’s interested in this subject matter to go and get this book right now.
1:52:44 It’s available right now for pre-order and then it’s shipping in five days from now
1:52:45 when it releases.
1:52:50 So be the first to read it and hopefully be the first to understand and action some of
1:52:52 the things that you learn in this book.
1:52:54 Yvonne, thank you so much for your time.
1:52:59 Thank you.
1:53:00 Isn’t this cool?
1:53:04 Every single conversation I have here on the Diary of a CEO at the very end of it, you’ll
1:53:10 know, I asked the guest to leave a question in the Diary of a CEO and what we’ve done
1:53:15 is we’ve turned every single question written in the Diary of a CEO into these conversation
1:53:18 cards that you can play at home.
1:53:23 So you’ve got every guest we’ve ever had, their question and on the back of it, if
1:53:30 you scan that QR code, you get to watch the person who answered that question.
1:53:36 They’re finally revealing all of the questions and the people that answered the question.
1:53:43 The brand new version two updated conversation cards are out right now at theconversationcards.com.
1:53:45 They’ve sold out twice instantaneously.
1:53:49 So if you are interested in getting hold of some limited edition conversation cards,
1:54:08 I really, really recommend acting quickly.
1:54:15 Thank you.
Từ đáy lòng mình, nhưng cũng thay mặt cho đội ngũ của tôi, những người mà bạn không phải lúc nào cũng gặp, hiện có gần 50 người đứng sau “Nhật ký của một CEO” đang làm việc để thực hiện điều này. Vì vậy, từ tất cả chúng tôi, xin cảm ơn bạn rất nhiều. Chúng tôi đã tổ chức một buổi rút thăm vào tháng trước và đã trao giải thưởng cho những người đăng ký theo dõi chương trình cho đến khi đạt 7 triệu người đăng ký. Và các bạn đã yêu thích buổi rút thăm đó đến mức chúng tôi sẽ tiếp tục tổ chức. Vì vậy, mỗi tháng, chúng tôi sẽ trao những giải thưởng mà tiền không thể mua được, bao gồm các cuộc gặp gỡ với tôi, lời mời tham dự các sự kiện của chúng tôi, và những phiếu quà tặng trị giá một nghìn bảng cho bất kỳ ai đăng ký theo dõi “Nhật ký của một CEO”. Hiện tại có hơn 7 triệu bạn. Nhưng nếu bạn quyết định đăng ký hôm nay, bạn có thể trở thành một trong những người may mắn đó. Cảm ơn bạn từ đáy lòng mình. Hãy bắt đầu cuộc trò chuyện. Mười năm trước, bạn đã làm một video có tiêu đề “Tại sao con người điều hành thế giới”. Đó là một bài TED talk rất nổi tiếng mà bạn đã thực hiện. Sau khi đọc cuốn sách mới của bạn, “Nexus”, tôi muốn hỏi bạn một câu hỏi hơi khác, đó là, bạn có còn tin rằng sau 10 năm nữa, con người sẽ vẫn cơ bản điều hành thế giới không? Tôi không chắc. Nó phụ thuộc vào những quyết định mà tất cả chúng ta sẽ đưa ra trong những năm tới, nhưng có khả năng câu trả lời là không, rằng sau 10 năm, các thuật toán và trí tuệ nhân tạo sẽ điều hành thế giới. Tôi không nghĩ đến một kịch bản khoa học viễn tưởng kiểu Hollywood nào đó về một siêu máy tính lớn chinh phục thế giới, mà giống như một bộ máy quan liêu của các trí tuệ nhân tạo, rằng chúng ta sẽ có hàng triệu quan chức AI ở khắp mọi nơi, trong các ngân hàng, trong chính phủ, trong doanh nghiệp, trong các trường đại học, đưa ra ngày càng nhiều quyết định về cuộc sống của chúng ta, rằng mỗi ngày sẽ có những quyết định, liệu có cho chúng ta một khoản vay hay không, liệu có chấp nhận chúng ta vào một công việc hay không, và chúng ta sẽ thấy ngày càng khó khăn hơn để hiểu được logic, lý do, tại sao thuật toán từ chối cho chúng ta một khoản vay, tại sao thuật toán lại chấp nhận người khác vào công việc, và bạn vẫn có những nền dân chủ với…
Có những người bỏ phiếu cho tổng thống hoặc thủ tướng này, nhưng nếu hầu hết các quyết định được đưa ra bởi trí tuệ nhân tạo (AI), và con người, bao gồm cả các chính trị gia, gặp khó khăn trong việc hiểu lý do tại sao AI lại đưa ra một quyết định cụ thể, thì quyền lực sẽ dần dần chuyển từ nhân loại sang những trí tuệ ngoài hành tinh mới này.
Trí tuệ ngoài hành tinh?
Vâng, tôi thích nghĩ về AI, tôi biết rằng từ viết tắt là trí tuệ nhân tạo, nhưng tôi nghĩ rằng chính xác hơn khi coi nó như một trí tuệ ngoài hành tinh, không phải theo nghĩa đến từ không gian bên ngoài, mà theo nghĩa nó đưa ra quyết định theo cách hoàn toàn khác biệt so với tâm trí con người.
Nhân tạo có nghĩa là chúng ta thiết kế nó, chúng ta kiểm soát nó, một cái gì đó nhân tạo được tạo ra bởi con người.
Theo từng năm trôi qua, AI đang trở nên ít nhân tạo hơn và ngày càng trở nên giống như trí tuệ ngoài hành tinh.
Vâng, chúng ta vẫn thiết kế những AI sơ sinh, nhưng sau đó chúng học hỏi và thay đổi và bắt đầu đưa ra những quyết định bất ngờ, và chúng bắt đầu đưa ra những ý tưởng mới mà hoàn toàn xa lạ với cách làm của con người.
Có một ví dụ nổi tiếng về trò chơi cờ vây, vào năm 2016, AlphaGo đã đánh bại nhà vô địch thế giới, Lisa Doll, nhưng điều đáng kinh ngạc là cách mà nó đã làm điều đó, vì con người đã chơi cờ vây trong 2.500 năm.
Một trò chơi trên bàn cờ.
Một trò chơi trên bàn cờ, một trò chơi chiến lược phát triển ở Trung Quốc cổ đại và được coi là một trong những nghệ thuật cơ bản mà bất kỳ người văn minh nào ở Đông Á cũng phải biết.
Và hàng chục triệu người Trung Quốc, Hàn Quốc và Nhật Bản đã chơi cờ vây trong nhiều thế kỷ.
Toàn bộ triết lý đã phát triển xung quanh trò chơi về cách chơi nó.
Nó được coi là một sự chuẩn bị tốt cho chính trị và cho cuộc sống.
Và mọi người nghĩ rằng họ đã khám phá toàn bộ lĩnh vực, toàn bộ cảnh quan địa lý của cờ vây.
Và rồi AlphaGo xuất hiện và cho chúng ta thấy rằng thực ra trong 2.500 năm, con người chỉ khám phá một phần rất nhỏ, một phần rất nhỏ của cảnh quan cờ vây.
Có những chiến lược hoàn toàn khác nhau về cách chơi trò chơi mà không một con người nào đã nghĩ ra trong hơn 2.000 năm chơi nó. Và AlphaGo đã nghĩ ra điều đó chỉ trong vài ngày. Vì vậy, đây là trí tuệ ngoài hành tinh. Và nếu chỉ là một trò chơi, thì điều tương tự cũng có khả năng xảy ra trong tài chính, trong y tế, trong tôn giáo, tốt hơn hoặc tồi tệ hơn. Bạn đã viết cuốn sách này, Nexus. Nexus. Cách phát âm của nó là gì? Nexus. Tôi không phải là chuyên gia về phát âm. Bạn có thể đã viết nhiều cuốn sách. Bạn là người mà tôi nghĩ, có sự tò mò rộng rãi về bản chất của cuộc sống, nhưng cũng về bản chất của lịch sử. Để bạn viết một cuốn sách chi tiết và toàn diện như vậy, chắc hẳn đã có một lý do khá mạnh mẽ khiến cuốn sách này phải đến từ bạn ngay bây giờ. Và lý do đó là gì? Bởi vì tôi nghĩ chúng ta cần một góc nhìn lịch sử về cuộc cách mạng AI. Ý tôi là, có nhiều cuốn sách về AI. Nexus không phải là một cuốn sách về AI. Nó là một cuốn sách về lịch sử lâu dài của các mạng thông tin. Tôi nghĩ rằng để hiểu điều gì thực sự mới mẻ và quan trọng về AI, chúng ta cần một góc nhìn hàng ngàn năm để quay lại và xem xét các cuộc cách mạng thông tin trước đây, như sự phát minh ra chữ viết, máy in và radio. Và chỉ khi đó, bạn mới thực sự bắt đầu hiểu những gì đang xảy ra xung quanh chúng ta ngay bây giờ. Một điều bạn hiểu, chẳng hạn, là AI thực sự khác biệt. Mọi người so sánh nó với các cuộc cách mạng trước đây, nhưng nó khác biệt vì đây là công nghệ đầu tiên trong lịch sử nhân loại có khả năng đưa ra quyết định độc lập và tạo ra những ý tưởng mới một cách độc lập. Một máy in có thể in cuốn sách của tôi, nhưng nó không thể viết nó. Nó chỉ có thể sao chép ý tưởng của tôi. Một quả bom nguyên tử có thể phá hủy một thành phố, nhưng nó không thể tự quyết định thành phố nào sẽ bị ném bom hoặc tại sao lại ném bom. Và AI có thể làm điều đó. Và hiện tại có rất nhiều sự phấn khích xung quanh AI, vì vậy mọi người bị nhầm lẫn vì họ bây giờ cố gắng bán cho chúng ta mọi thứ như là AI. Giống như bạn muốn bán cái bàn này cho ai đó.
Ôi, đây là một cái bàn AI.
Và nước này, đây là nước AI.
Vậy mọi người, AI là gì?
Mọi thứ đều là AI.
Không, không phải mọi thứ.
Có rất nhiều tự động hóa ngoài kia, mà không phải là AI.
Nếu bạn nghĩ về một chiếc máy pha cà phê làm cà phê cho bạn, nó thực hiện mọi thứ một cách tự động,
nhưng nó không phải là AI.
Nó được lập trình sẵn bởi con người để thực hiện một số việc nhất định, và nó không bao giờ có thể học hỏi hoặc thay đổi
một cách độc lập.
Một chiếc máy pha cà phê trở thành AI.
Nếu bạn đến chiếc máy pha cà phê vào buổi sáng và máy nói với bạn, “Này, dựa trên những gì tôi biết về bạn, tôi đoán bạn sẽ thích một ly espresso.”
Nó học hỏi điều gì đó về bạn, và nó đưa ra một quyết định độc lập.
Nó không chờ bạn yêu cầu một ly espresso.
Và nó thực sự là AI nếu nó nói với bạn, “Tôi vừa nghĩ ra một đồ uống mới.
Nó gọi là Bofi, và tôi nghĩ bạn sẽ thích nó.”
Đó thực sự là AI.
Khi nó đưa ra những ý tưởng hoàn toàn mới, mà chúng tôi không lập trình vào đó và mà chúng tôi
không lường trước được.
Và đây là một bước ngoặt trong lịch sử.
Nó lớn hơn cả máy in.
Nó lớn hơn cả bom nguyên tử.
Bạn đã nói rằng chúng ta cần có một góc nhìn lịch sử, và bạn có coi mình là một nhà sử học không?
Có, nghề nghiệp của tôi là một nhà sử học.
Đó là kiểu…
Trong quá trình đào tạo của tôi, tôi ban đầu là một chuyên gia về lịch sử quân sự thời trung cổ.
Tôi đã viết về các cuộc Thập tự chinh và Chiến tranh Trăm năm, và chiến lược cũng như hậu cần
của các quân đội Anh đã xâm lược Pháp vào thế kỷ 14.
Đây là những bài viết đầu tiên của tôi.
Và đây là loại góc nhìn hoặc kiến thức mà tôi cũng mang đến để cố gắng hiểu
những gì đang xảy ra bây giờ với AI.
Bởi vì sự hiểu biết của hầu hết mọi người về AI đến từ việc họ chơi với
một mô hình ngôn ngữ lớn, như chat GPT hoặc Gemini hoặc Grock hoặc cái gì đó.
Đó là sự hiểu biết của họ về nó.
Bạn có thể hỏi nó một câu hỏi, và nó sẽ cho bạn một câu trả lời.
Đó thực sự là cách mà mọi người nghĩ về AI, và vì vậy thật dễ để trở nên hơi tự mãn với
nó, hoặc để xem sự chuyển mình công nghệ này như là điều tầm thường.
Nhưng khi bạn bắt đầu nói về thông tin, và họ nói về sự gián đoạn của dòng chảy thông tin và các mạng lưới thông tin, và khi bạn đưa nó trở lại qua lịch sử, và bạn cho chúng tôi cái nhìn này về thực tế rằng thông tin thực sự gắn kết tất cả chúng ta lại với nhau, thì tôi bắt đầu nghĩ về nó một cách hoàn toàn khác.
Tôi có hai cách để suy nghĩ về điều này. Một cách là khi bạn nhận ra rằng, như bạn đã nói, thông tin là nền tảng cho mọi thứ, khi bạn bắt đầu làm lung lay nền tảng đó, mọi thứ có thể sụp đổ hoặc thay đổi hoặc một điều gì đó mới có thể xuất hiện.
Chẳng hạn, nền dân chủ chỉ có thể được thực hiện nhờ công nghệ thông tin. Dân chủ về bản chất là một cuộc trò chuyện, một nhóm người, trò chuyện, nói chuyện, cố gắng đưa ra quyết định cùng nhau.
Chế độ độc tài là khi một người chỉ huy mọi thứ. Một người quyết định mọi thứ đó là chế độ độc tài. Dân chủ là một cuộc trò chuyện.
Bây giờ, trong thời kỳ đồ đá, những người săn bắn hái lượm sống trong những nhóm nhỏ, họ chủ yếu là dân chủ. Mỗi khi nhóm cần quyết định điều gì đó, họ chỉ cần nói chuyện với nhau và quyết định.
Khi các xã hội con người lớn lên, việc tổ chức cuộc trò chuyện trở nên khó khăn về mặt kỹ thuật. Vì vậy, những ví dụ duy nhất mà chúng ta có từ thế giới cổ đại về dân chủ là những thành phố nhỏ như Athens hoặc Rome Cộng hòa. Đây là hai ví dụ nổi tiếng nhất, không phải là những ví dụ duy nhất, nhưng là nổi tiếng nhất.
Và ngay cả những người cổ đại, ngay cả các triết gia như Plato và Aristotle, họ cũng biết rằng một khi bạn vượt qua mức độ của một thành phố- nhà nước, dân chủ là điều không thể.
Chúng ta không biết đến một ví dụ nào từ thế giới tiền hiện đại về một nền dân chủ quy mô lớn. Hàng triệu người trải rộng trên một lãnh thổ rộng lớn, tiến hành các công việc chính trị của họ một cách dân chủ. Tại sao? Không phải vì vị độc tài này hay vị độc tài kia đã nắm quyền. Bởi vì dân chủ đơn giản là không thể. Bạn không thể có một cuộc trò chuyện giữa hàng triệu người khi bạn không có công nghệ phù hợp.
Dân chủ quy mô lớn chỉ trở nên khả thi vào thời kỳ hiện đại muộn, khi một vài công nghệ thông tin xuất hiện, đầu tiên là báo chí, sau đó là điện tín, radio và truyền hình, và chúng làm cho dân chủ quy mô lớn trở nên khả thi.
Vì vậy, dân chủ không phải là bạn có dân chủ, và bên cạnh đó là những công nghệ thông tin này. Không, nền tảng của dân chủ chính là công nghệ thông tin.
Vì vậy, nếu bạn có một loại động đất trong công nghệ thông tin, như sự trỗi dậy của mạng xã hội hoặc sự phát triển của trí tuệ nhân tạo, điều này chắc chắn sẽ làm rung chuyển dân chủ, điều mà bây giờ chúng ta thấy trên toàn thế giới là chúng ta có công nghệ thông tin tinh vi nhất trong lịch sử, nhưng mọi người không thể giao tiếp với nhau.
Cuộc trò chuyện dân chủ đang bị đổ vỡ. Và mỗi quốc gia có lý do riêng của mình, như khi bạn nói chuyện với người Mỹ, điều gì đang xảy ra giữa các Đảng viên Dân chủ và Cộng hòa ở đó? Tại sao họ không thể đồng ý về ngay cả những sự thật cơ bản nhất?
Và họ đưa ra tất cả những lý do này về những điều kiện độc đáo của lịch sử và xã hội Mỹ, nhưng bạn thấy điều tương tự ở Brazil. Bạn thấy điều tương tự ở Pháp, ở Philippines.
Vì vậy, không thể là những điều kiện độc đáo của quốc gia này hay quốc gia khác. Đó là cuộc cách mạng công nghệ cơ bản.
Và điều khác mà lịch sử mang lại, mà tôi rút ra từ lịch sử là cách mà ngay cả những thay đổi công nghệ tương đối nhỏ hoặc những thay đổi dường như nhỏ cũng có thể có những hậu quả sâu rộng.
Như bạn nghĩ về sự phát minh ra chữ viết, ban đầu nó chủ yếu là mọi người chơi với bùn. Ý tôi là, chữ viết được phát minh lần đầu tiên, nó đã được phát minh nhiều lần ở nhiều nơi, nhưng lần đầu tiên ở vùng Lưỡng Hà cổ đại, mọi người lấy những tấm đất sét, mà về cơ bản là những mảnh bùn, và họ lấy một cái que và sử dụng cái que để tạo ra những dấu hiệu trên đất sét, trong đất sét, trong bùn.
Và đây là sự phát minh ra chữ viết. Và điều này đã có một tác động sâu sắc. Để đưa ra một ví dụ, bạn nghĩ về quyền sở hữu. Quyền sở hữu có nghĩa là gì?
Như tôi sở hữu một ngôi nhà, tôi cũng sở hữu một mảnh đất.
Trước đây, trước khi có chữ viết, để sở hữu một mảnh đất, nếu bạn sống trong một ngôi làng nhỏ ở Mesopotamia cách đây khoảng 7.000 năm, việc sở hữu một mảnh đất là một vấn đề của cộng đồng.
Điều đó có nghĩa là hàng xóm của bạn đồng ý rằng mảnh đất này là của bạn và họ không hái trái cây ở đó và không chăn cừu ở đó vì họ đồng ý rằng nó là của bạn.
Đó là một thỏa thuận của cộng đồng.
Sau đó, chữ viết xuất hiện và bạn có những tài liệu được viết ra, và quyền sở hữu thay đổi ý nghĩa.
Bây giờ, để sở hữu một mảnh đất hoặc một ngôi nhà có nghĩa là có một mảnh đất khô ở đâu đó trong kho lưu trữ của nhà vua với những dấu hiệu trên đó nói rằng bạn sở hữu mảnh đất đó.
Vì vậy, đột nhiên, quyền sở hữu không còn là một vấn đề thỏa thuận của cộng đồng giữa các hàng xóm, mà là một vấn đề của tài liệu nào nằm trong kho lưu trữ của nhà vua.
Và điều đó cũng có nghĩa là, chẳng hạn, bạn có thể bán đất của mình cho một người lạ mà không cần sự cho phép của hàng xóm chỉ bằng cách đưa cho người lạ mảnh đất khô này để đổi lấy vàng, bạc hoặc bất cứ thứ gì.
Thật là một sự thay đổi lớn, một phát minh có vẻ đơn giản như việc sử dụng một cái gậy để vẽ một số ký hiệu trên một mảnh đất, và bây giờ hãy nghĩ về những gì AI sẽ làm với quyền sở hữu, như có thể việc xác nhận quyền sở hữu ngôi nhà của bạn có nghĩa là một AI nói rằng bạn sở hữu nó.
Và nếu AI đột nhiên nói rằng bạn không sở hữu nó vì bất kỳ lý do nào mà bạn thậm chí không biết, thì đó là hết.
Nó không còn là của bạn.
Dấu hiệu trên mảnh đất đó cũng là phát minh của một loại ngôn ngữ viết.
Và tôi nghĩ rằng tôi đã suy nghĩ về điều đó khi tôi đọc cuốn sách của bạn về cách ngôn ngữ giữ cho xã hội của chúng ta gắn kết, không phải theo cách mà chúng ta thường giả định, như trong việc tôi có một cuộc trò chuyện với bạn, mà là các mật khẩu, như trong ngân hàng, giống như toàn bộ xã hội của chúng ta được bảo mật bằng ngôn ngữ.
Và điều đầu tiên mà các AI đã thành thạo là với các mô hình ngôn ngữ lớn là khả năng tái tạo điều đó, điều này khiến tôi nghĩ về tất cả những điều trong cuộc sống của tôi.
thực sự được kết nối với nhau bằng ngôn ngữ, ngay cả các mối quan hệ của tôi bây giờ, vì tôi không gặp gỡ bạn bè của mình. Bạn bè của tôi sống ở Dubai, Mỹ và Mexico. Vì vậy, chúng tôi giao tiếp bằng ngôn ngữ hoặc các mối quan hệ được kết nối bằng ngôn ngữ. Và như bạn đã nói, các nền dân chủ cũng được kết nối bằng ngôn ngữ. Và bây giờ có một lực lượng thông minh hơn đã làm chủ điều đó. Vâng. Điều đó thật bất ngờ, như bạn biết đấy, năm năm trước, mọi người nói rằng AI sẽ làm chủ cái này hay cái kia, xe tự lái, nhưng ngôn ngữ, bây giờ, đây là một vấn đề rất phức tạp. Đây là kiệt tác của con người – ngôn ngữ. Nó sẽ không bao giờ làm chủ ngôn ngữ. Và tôi là một người yêu thế giới. Và tôi thực sự ngạc nhiên bởi chất lượng của các văn bản mà những mô hình ngôn ngữ lớn này sản xuất ra. Nó không hoàn hảo, nhưng chúng thực sự hiểu lĩnh vực ngữ nghĩa của từ. Chúng có thể kết hợp các từ và câu lại với nhau để tạo thành một văn bản mạch lạc. Nhưng điều đó thật sự đáng chú ý. Và như bạn đã nói, ý tôi là, đây là nền tảng cho mọi thứ. Như tôi đưa ra hướng dẫn cho ngân hàng của mình bằng ngôn ngữ. Nếu AI có thể tạo ra văn bản, âm thanh và hình ảnh, thì làm thế nào tôi có thể giao tiếp với ngân hàng theo cách không mở ra khả năng bị thao túng bởi một AI? Nhưng phần hấp dẫn trong câu đó là, bạn không thích giao tiếp với ngân hàng của mình anyway. Thật tuyệt. Như thể gọi cho họ, ở trên điện thoại, chờ đợi một con người khác. Vì vậy, cám dỗ là, “Tôi không thích nói chuyện với ngân hàng của mình anyway, vì vậy tôi sẽ để cho AI làm điều đó. Tôi sẽ đầu tư.” Nếu tôi có thể tin tưởng họ. Ý tôi là, câu hỏi lớn là, tại sao ngân hàng muốn tôi gọi trực tiếp để đảm bảo rằng đó thực sự là tôi? Không phải ai đó khác nói với ngân hàng, “Ôi, hãy chuyển khoản này đến, tôi không biết, Quần đảo Cayman. Đó thực sự là tôi.” Và làm thế nào bạn đảm bảo điều đó? Làm thế nào bạn xây dựng điều này? Ý tôi là, toàn bộ lĩnh vực tài chính trong hàng nghìn năm chỉ là một câu hỏi, niềm tin. Tất cả những công cụ tài chính này, tiền bạc chính nó thực sự chỉ là niềm tin. Nó không được làm từ vàng hay bạc hay giấy hay bất cứ thứ gì.
Làm thế nào để chúng ta tạo ra niềm tin giữa những người lạ?
Và vì vậy, hầu hết các phát minh tài chính cuối cùng đều là những phát minh ngôn ngữ và biểu tượng.
Không phải là bạn cần một số vật lý phức tạp.
Đó là biểu tượng phức tạp.
Và bây giờ, AI có thể bắt đầu tạo ra các thiết bị tài chính mới và sẽ làm chủ tài chính vì nó đã làm chủ ngôn ngữ.
Và như bạn đã nói, chúng ta hiện nay giao tiếp với những người khác, bạn bè của chúng ta trên khắp thế giới.
Trong những năm 2010, đã có một cuộc chiến lớn giữa các thuật toán để thu hút sự chú ý của con người.
Chúng ta vừa thảo luận về điều đó trước podcast, như cách nào để thu hút sự chú ý của mọi người?
Nhưng có một điều còn mạnh mẽ hơn cả sự chú ý.
Đó là sự thân mật.
Nếu bạn thực sự muốn ảnh hưởng đến mọi người, sự thân mật mạnh mẽ hơn sự chú ý.
Bạn định nghĩa sự thân mật trong bối cảnh này như thế nào?
Hãy tưởng tượng rằng bạn có một mối quan hệ quen biết lâu dài với một người mà bạn biết cá nhân, mà bạn tin tưởng, mà ở một mức độ nào đó bạn yêu thương, mà bạn quan tâm.
Và cho đến hôm nay, việc giả mạo sự thân mật và sản xuất hàng loạt sự thân mật là điều hoàn toàn không thể.
Các nhà độc tài có thể sản xuất hàng loạt sự chú ý.
Một khi bạn có, chẳng hạn như radio, bạn có thể nói với tất cả mọi người ở Đức Quốc xã hoặc ở Liên Xô, lãnh đạo vĩ đại đang phát biểu, mọi người phải bật radio lên và lắng nghe.
Vì vậy, bạn có thể sản xuất hàng loạt sự chú ý.
Nhưng đây không phải là sự thân mật.
Bạn không có sự thân mật với lãnh đạo vĩ đại.
Bây giờ với AI, bạn có thể, lần đầu tiên trong lịch sử, ít nhất là lý thuyết, sản xuất hàng loạt sự thân mật với hàng triệu bot, có thể làm việc cho một số chính phủ, giả mạo các mối quan hệ thân mật với chúng ta, điều này sẽ rất khó để biết rằng đây là một bot chứ không phải là một con người.
Thật thú vị vì khi tôi, tôi đã có rất nhiều cuộc trò chuyện với các chuyên gia về mối quan hệ và nhiều người khác nói về sự suy giảm trong sự thân mật giữa con người và sự gia tăng trong sự cô đơn và chúng ta trở nên ít tình dục hơn như một xã hội và tất cả những điều như vậy.
Vì vậy, gần như có sự suy giảm trong sự thân mật giữa con người với con người và kết nối giữa con người với con người, cùng với sự gia tăng của loại hình thân mật nhân tạo này. Điều này đặt ra câu hỏi về tương lai sẽ như thế nào trong một thế giới mà con người cô đơn hơn bao giờ hết, tách biệt hơn bao giờ hết, nhưng vẫn có nhu cầu lớn lao về kết nối và cảm giác yêu thương, thuộc về. Có lẽ đây là lý do tại sao chúng ta thấy sự gia tăng phân cực cùng lúc, vì mọi người đang tuyệt vọng tìm kiếm một nơi để thuộc về, và thuật toán như đang củng cố phòng vang của tôi.
Vì vậy, bạn biết đấy, nhưng tôi không biết điều đó sẽ kết thúc như thế nào. Tôi không nghĩ rằng điều đó là định mệnh. Nó phụ thuộc vào quyết định mà chúng ta đưa ra, cả cá nhân và xã hội. Tất nhiên, cũng có những điều tuyệt vời mà công nghệ này có thể mang lại cho chúng ta. Khả năng của AI trong việc duy trì một cuộc trò chuyện, khả năng hiểu cảm xúc của bạn, có thể có nghĩa là chúng ta sẽ có rất nhiều giáo viên AI, bác sĩ AI và nhà trị liệu AI có thể cung cấp cho chúng ta dịch vụ chăm sóc sức khỏe tốt hơn, dịch vụ giáo dục tốt hơn bao giờ hết.
Thay vì trở thành một đứa trẻ trong lớp học có 40 đứa trẻ khác mà giáo viên hầu như không thể chú ý đến đứa trẻ cụ thể này và hiểu những nhu cầu cụ thể của nó cũng như tính cách riêng của nó, bạn có thể có một gia sư AI hoàn toàn tập trung vào bạn và có khả năng cung cấp cho bạn một chất lượng giáo dục thực sự không gì sánh kịp. Tôi đã có cuộc tranh luận này với bạn tôi vào cuối tuần. Anh ấy có hai đứa trẻ nhỏ, một đứa một tuổi và một đứa ba tuổi, và chúng tôi đã thảo luận về tương lai, khoảng 16 năm nữa, bạn sẽ muốn gửi con mình đến đâu? Bạn có muốn gửi con mình đến một giáo viên con người trong một lớp học như bạn đã mô tả, với nhiều người, nhiều tiếng ồn, nơi mà chúng không nhận được sự học tập cá nhân hóa? Nếu lớp học và chúng ta thông minh, chúng sẽ bị bỏ lại phía sau.
Nếu họ thông minh hơn, họ đang bị kéo lùi lại hay bạn muốn con bạn ngồi trước một màn hình hoặc một robot hình người và được giáo dục cá nhân hóa thực sự, có thể rẻ hơn nhiều so với giáo dục tư nhân hoặc đại học? Nhưng bạn cần một sự kết hợp, tôi nghĩ rằng đối với nhiều bài học, sẽ tốt hơn nếu học với gia sư AI, nhưng bạn thậm chí không cần phải ngồi trước một màn hình. Bạn có thể đi đến công viên và nhận một bài học về sinh thái, chỉ cần lắng nghe khi bạn đi bộ. Nhưng bạn sẽ cần những nhóm trẻ lớn cho giờ giải lao vì rất thường xuyên bạn học được rằng những bài học quan trọng nhất ở trường không được học trong các tiết học. Chúng được học trong giờ giải lao. Và đây là điều không nên tự động hóa. Bạn vẫn cần những nhóm trẻ lớn cùng với sự giám sát của con người cho điều đó. Một điều khác mà tôi đã suy nghĩ rất nhiều khi đọc cuốn sách của bạn là ý tưởng rằng tôi sẽ cho rằng việc chúng ta có nhiều thông tin và nhiều quyền truy cập vào thông tin hơn sẽ dẫn đến nhiều sự thật hơn trong thế giới, ít âm mưu hơn, nhiều sự đồng thuận hơn, nhưng điều đó dường như không phải là trường hợp. Không, hoàn toàn không. Hầu hết thông tin trên thế giới là rác rưởi. Tôi nghĩ rằng cách tốt nhất để nghĩ về điều này là nó giống như với thực phẩm. Đã có một thời cách đây một thế kỷ ở nhiều quốc gia nơi thực phẩm khan hiếm. Vì vậy, mọi người ăn bất cứ thứ gì họ có thể lấy được, đặc biệt là đầy chất béo và đường. Và họ nghĩ rằng nhiều thực phẩm luôn tốt. Như nếu bạn hỏi bà cố của bạn, bà sẽ nói, “Vâng, nhiều thực phẩm luôn tốt.” Và sau đó chúng ta đạt đến thời kỳ phong phú về thực phẩm. Và chúng ta có tất cả những thực phẩm công nghiệp, chế biến, mà rõ ràng là đầy chất béo, đường, muối và những thứ khác. Và rõ ràng là điều đó không tốt cho chúng ta. Ý tưởng rằng nhiều thực phẩm luôn tốt, không, và chắc chắn không phải là tất cả những thực phẩm rác rưởi này. Và điều tương tự đã xảy ra với thông tin. Thông tin từng là khan hiếm.
Vì vậy, nếu bạn có thể có được một cuốn sách, bạn sẽ đọc nó vì không có gì khác. Và bây giờ thông tin rất phong phú. Chúng ta bị ngập tràn thông tin. Và nhiều trong số đó là thông tin rác, được tạo ra một cách nhân tạo đầy tham lam, giận dữ và sợ hãi do cuộc chiến giành sự chú ý này. Và điều đó không tốt cho chúng ta. Vì vậy, về cơ bản, chúng ta cần phải thực hiện một chế độ ăn kiêng thông tin, mà bước đầu tiên là nhận ra rằng không phải lúc nào nhiều thông tin cũng tốt cho chúng ta. Chúng ta cần một lượng thông tin hạn chế, và thực sự cần nhiều thời gian hơn để tiêu hóa thông tin. Và chúng ta cũng phải cẩn thận về chất lượng của những gì chúng ta tiếp nhận. Bởi vì lại một lần nữa, do sự phong phú của thông tin rác. Và hiểu lầm cơ bản, tôi nghĩ, là mối liên hệ giữa thông tin và sự thật. Rằng mọi người nghĩ, được rồi, nếu tôi có nhiều thông tin, đây là nguyên liệu thô của sự thật. Và nhiều thông tin sẽ có nghĩa là nhiều kiến thức. Và điều đó không đúng, bởi vì ngay cả trong tự nhiên, phần lớn thông tin không phải về sự thật. Chức năng cơ bản của thông tin trong lịch sử, và cũng trong sinh học, là để kết nối. Thông tin là sự kết nối. Và khi bạn nhìn vào lịch sử, bạn thấy rằng rất thường, cách dễ nhất để kết nối mọi người không phải là với sự thật, vì sự thật là một loại thông tin tốn kém và hiếm có. Thường thì dễ hơn để kết nối mọi người bằng tưởng tượng, bằng hư cấu. Tại sao? Bởi vì sự thật có xu hướng không chỉ tốn kém, mà còn phức tạp, và nó có xu hướng không thoải mái, và đôi khi đau đớn. Nếu bạn nghĩ, bạn biết đấy, như trong chính trị, một chính trị gia sẽ nói với mọi người toàn bộ sự thật về quốc gia của họ thì khó có khả năng thắng cử, vì mỗi quốc gia đều có những bí mật và những mặt tối mà mọi người không muốn đối mặt. Vì vậy, chúng ta thấy rằng về mặt chính trị, nếu bạn muốn kết nối các quốc gia, tôn giáo, các đảng phái chính trị, bạn thường làm điều đó bằng hư cấu và tưởng tượng. Và nỗi sợ hãi.
Tôi đã suy nghĩ về loài người và vai trò của những câu chuyện trong việc thu hút tâm trí của chúng ta. Và tôi đã suy nghĩ rất nhiều về các câu chuyện. Ở Vương quốc Anh, có một câu chuyện mà chúng ta được nghe rằng nhiều nguyên nhân gây ra các vấn đề trong xã hội, như thất nghiệp và các vấn đề khác liên quan đến tội phạm, là do có những người vượt biên từ Pháp bằng thuyền, và đó là một câu chuyện rất hiệu quả để khiến mọi người đoàn kết lại và xuống đường biểu tình.
Và ở Mỹ, rõ ràng là cùng một câu chuyện về bức tường và biên giới phía nam, họ đang vượt biên vào nước ta hàng triệu người, họ là những kẻ hiếp dâm, họ không gửi những người tiêu cực, họ đến từ các cơ sở tâm thần, đã khiến mọi người đoàn kết lại, và những người đó bây giờ đang xuống đường biểu tình và bỏ phiếu dựa trên câu chuyện đó, một câu chuyện đầy sợ hãi.
Đó là một câu chuyện rất mạnh mẽ vì nó kết nối với điều gì đó rất sâu bên trong chúng ta. Và nếu bạn muốn thu hút sự chú ý của mọi người, nếu bạn muốn họ tham gia, thì nút sợ hãi là một trong những nút hiệu quả nhất để nhấn vào tâm trí con người. Và một lần nữa, điều này quay trở lại thời kỳ đồ đá.
Nếu bạn sống trong một bộ tộc thời kỳ đồ đá, một trong những mối lo ngại lớn nhất của bạn là những người từ bộ tộc khác sẽ đến lãnh thổ của bạn và lấy thức ăn của bạn hoặc giết bạn. Vì vậy, đây là một nỗi sợ rất sâu sắc, không chỉ ở con người mà còn ở mọi loài động vật xã hội. Họ đã thực hiện các thí nghiệm trên tinh tinh cho thấy rằng tinh tinh cũng có một loại nỗi sợ hoặc sự ghê tởm gần như bản năng đối với những tinh tinh từ băng nhóm khác.
Các chính trị gia và lãnh đạo tôn giáo, họ học cách khai thác những cảm xúc con người này gần như giống như bạn chơi trên một cây đàn piano. Ban đầu, những cảm xúc này như sự ghê tởm, đã phát triển để giúp chúng ta. Bạn biết đấy, ở mức độ cơ bản nhất, sự ghê tởm tồn tại vì, đặc biệt là khi còn nhỏ, bạn muốn thử nghiệm với các loại thực phẩm khác nhau. Nhưng nếu bạn ăn một cái gì đó không tốt cho bạn, bạn cần phải, bạn biết đấy, nôn ra. Bạn cần phải vứt nó đi.
Vậy là bạn có sự ghê tởm bảo vệ bạn. Nhưng sau đó, bạn có những nhà lãnh đạo tôn giáo và chính trị trong suốt lịch sử đã chiếm đoạt cơ chế phòng vệ này và dạy cho mọi người từ khi còn rất nhỏ không chỉ phải sợ hãi, mà còn phải ghê tởm những người nước ngoài, những người trông khác biệt. Và điều này, một lần nữa, bạn, với tư cách là một người trưởng thành, có thể học tất cả các lý thuyết và tự giáo dục rằng điều này không đúng, nhưng vẫn rất sâu trong tâm trí bạn. Nếu có một phần nào đó cho rằng những người này thật ghê tởm, những người này thật nguy hiểm. Và chúng ta đã thấy điều đó trong suốt lịch sử, có bao nhiêu phong trào khác nhau đã học cách sử dụng những cơ chế cảm xúc này để thúc đẩy mọi người? Chúng ta đang ngồi ở một thời điểm rất thú vị, Yvonne, vì hai điều khá quan trọng đã xảy ra trong năm qua liên quan đến thông tin và nhiều điều mà chúng ta đã nói đến. Một trong số đó là Elon Musk đã mua Twitter và nhiệm vụ thực sự của ông là ý tưởng về tự do ngôn luận. Và như một phần của nhiệm vụ đó, ông đã mở khóa một số nhân vật trước đây bị chặn trên Twitter. Nhiều người trong số họ là những người có khuynh hướng bảo thủ đã bị chặn vì nhiều lý do khác nhau. Và cũng trong tuần này, Mark Zuckerberg đã công bố một bức thư công khai, và trong bức thư đó, ông nói rằng ông hối tiếc vì đã hợp tác quá nhiều với FBI, chính phủ, khi họ yêu cầu ông kiểm duyệt những điều trên Facebook. Một câu chuyện cụ thể mà ông nói ông hối tiếc khi làm như vậy, và có vẻ như, nếu bạn đọc giữa những gì ông đang nói, những gì ông thực sự nói một cách rõ ràng, ông nói: “Chúng tôi sẽ phản kháng mạnh mẽ hơn trong tương lai nếu chính phủ hoặc bất kỳ ai khác yêu cầu chúng tôi kiểm duyệt một số thông điệp nhất định.” Bây giờ, điều tôi đang nói là Twitter, một trong những mạng xã hội lớn nhất thế giới, và Meta, mạng xã hội lớn nhất thế giới, hiện đã có lập trường này rằng họ sẽ để thông tin tự do chảy. Họ sẽ thực sự theo đuổi câu chuyện về tự do ngôn luận này.
Bây giờ, với tư cách là một người đã sử dụng những nền tảng này trong một thời gian dài, đặc biệt là X hay Twitter, thật điên rồ khi thấy nó khác biệt như thế nào ngày nay. Có những điều tôi thấy mỗi khi cuộn trang mà trước đây tôi chưa bao giờ thấy trước lập trường về tự do ngôn luận này. Bây giờ, tôi không đứng về phía nào, tốt hay xấu. Chỉ đơn giản là rất thú vị. Và rõ ràng là có một thuật toán mà bây giờ thực sự, nếu tôi cuộn trang, nếu tôi vào X ngay bây giờ, tôi sẽ thấy ai đó bị giết bằng dao. Tôi đoán trong vòng 30 giây. Và tôi sẽ thấy ai đó bị xe đâm. Tôi sẽ thấy sự bài xích Hồi giáo cực đoan, có thể. Nhưng sau đó tôi cũng sẽ thấy mặt khác. Vì vậy, không chỉ là tôi nói, tôi sẽ thấy tất cả các mặt. Và khi bạn nói trước đó về việc liệu điều đó có tốt cho tôi không? Tôi đã nhớ lại một người bạn của tôi cuối tuần này. Đó là sinh nhật của tôi. Vì vậy, tôi và những người bạn của tôi đã cùng nhau chỉ nhìn về phía anh ấy, vô thức cuộn những video kinh dị trên Twitter trong khi anh ấy ngồi bên trái tôi nghĩ, “Chúa ơi, anh ấy như đang làm hỏng các thụ thể dopamine của mình.” Và tôi chỉ thấy toàn bộ phong trào tự do ngôn luận mới này. Bạn nghĩ gì về ý tưởng tự do ngôn luận và vai trò của nó, bạn biết đấy? Chỉ có con người mới có tự do ngôn luận, còn bot thì không có tự do ngôn luận. Các công ty công nghệ liên tục làm chúng ta bối rối về vấn đề này vì vấn đề không phải là con người. Vấn đề là các thuật toán. Và hãy để tôi giải thích ý tôi. Nếu câu hỏi là có nên cấm ai đó như Donald Trump khỏi Twitter hay không, tôi đồng ý. Đây là một vấn đề rất khó khăn. Và chúng ta nên cực kỳ cẩn thận khi cấm con người, đặc biệt là những chính trị gia quan trọng, bày tỏ quan điểm và ý kiến của họ, dù chúng ta không thích ý kiến của họ hay bản thân họ đến mức nào. Đây là một vấn đề rất nghiêm trọng khi cấm bất kỳ con người nào khỏi một nền tảng. Nhưng đây không phải là vấn đề. Vấn đề trên nền tảng không phải là người dùng. Vấn đề là các thuật toán và các công ty liên tục đổ lỗi cho con người để bảo vệ lợi ích kinh doanh của họ.
Hãy để tôi giải thích điều này.
Con người tạo ra rất nhiều nội dung mọi lúc.
Họ tạo ra nội dung đầy thù hận.
Họ tạo ra những bài giảng về lòng từ bi.
Họ tạo ra các bài học nấu ăn, bài học sinh học, rất nhiều thứ khác nhau, một cơn lũ thông tin.
Câu hỏi lớn là điều gì thu hút sự chú ý của con người?
Ai cũng muốn được chú ý.
Bây giờ các công ty cũng muốn được chú ý.
Các công ty đưa ra cho các thuật toán điều hành các nền tảng mạng xã hội một mục tiêu rất đơn giản.
Tăng cường sự tương tác của người dùng.
Khiến mọi người dành nhiều thời gian hơn trên Twitter, nhiều thời gian hơn trên Facebook, tương tác nhiều hơn, gửi nhiều lượt thích hơn và giới thiệu cho bạn bè của họ.
Tại sao?
Bởi vì thời gian chúng ta dành trên các nền tảng càng nhiều, họ càng kiếm được nhiều tiền.
Rất, rất đơn giản.
Bây giờ các thuật toán đã phát hiện ra một điều rất lớn.
Bằng cách thử nghiệm trên hàng triệu “chuột bạch” con người, các thuật toán đã phát hiện ra rằng nếu bạn muốn thu hút sự chú ý của con người, cách dễ nhất để làm điều đó là nhấn vào nút sợ hãi, nút thù hận, nút tham lam.
Và họ bắt đầu khuyến nghị cho người dùng xem nhiều nội dung đầy thù hận và sợ hãi và tham lam hơn để giữ họ dán mắt vào màn hình.
Và đây là nguyên nhân sâu xa của dịch bệnh tin giả và lý thuyết âm mưu và những thứ tương tự.
Và sự biện minh của các công ty là chúng tôi không sản xuất nội dung.
Ai đó, một con người, đã sản xuất một lý thuyết âm mưu đầy thù hận về người nhập cư.
Và không phải chúng tôi.
Nó giống như việc, tôi không biết, tổng biên tập của New York Times công bố một lý thuyết âm mưu đầy thù hận trên trang nhất của tờ báo.
Và khi bạn hỏi ông ta, “Tại sao ông làm điều đó hay ông đang đổ lỗi cho ai?
Nhìn xem ông đã làm gì?”
Ông ta nói, “Tôi không làm gì cả.
Tôi không viết bài đó.
Tôi chỉ đưa nó lên trang nhất của New York Times.
Chỉ vậy thôi.
Đó không phải là gì cả.
Nhưng không phải là không có gì.”
Mọi người đang sản xuất một lượng nội dung khổng lồ.
Các thuật toán của những người làm vua, họ là những biên tập viên bây giờ.
Họ quyết định cái gì sẽ được xem.
Đôi khi họ chỉ đơn giản là khuyến nghị cho bạn.
Đôi khi chúng tự động phát video cho bạn. Như bạn đã chọn xem một video nào đó. Cuối video, để giữ bạn dán mắt vào màn hình, thuật toán ngay lập tức, mà không cần bạn phải nói với nó, thuật toán, mà không cần bạn phải nói với thuật toán, sẽ tự động phát một loại video đầy sợ hãi hoặc tham lam chỉ để giữ bạn dán mắt vào màn hình. Chính thuật toán đang làm điều đó. Và điều này nên bị cấm, hoặc ít nhất là nên được giám sát và điều chỉnh. Và đây không phải là tự do ngôn luận, vì các thuật toán không có tự do ngôn luận. Vâng, người sản xuất video chứa đầy sự thù hận, tôi sẽ cẩn thận khi cấm họ. Nhưng đó không phải là vấn đề. Vấn đề là sự gợi ý, đó mới là vấn đề. Vấn đề thứ hai là nhiều cuộc trò chuyện hiện nay trên mạng đang bị các bot chiếm lĩnh. Một lần nữa, nếu bạn nhìn vào TwitterX như một ví dụ, mọi người thường muốn biết điều gì đang thịnh hành, câu chuyện nào thu hút nhiều sự chú ý nhất. Nếu mọi người đều quan tâm đến một câu chuyện cụ thể, tôi cũng muốn biết mọi người đang nói về điều gì. Và rất thường xuyên, chính các bot đang dẫn dắt cuộc trò chuyện. Bởi vì một câu chuyện cụ thể ban đầu nhận được rất nhiều sự chú ý, rất nhiều lưu lượng truy cập, vì nhiều bot đã chia sẻ nó. Và sau đó mọi người nhìn thấy nó và nghĩ rằng, họ không biết đó là bot. Họ nghĩ đó là con người. Vì vậy, họ nói, ôi, nhiều con người quan tâm đến điều này, vì vậy tôi cũng muốn biết điều gì đang xảy ra. Và điều này thu hút thêm sự chú ý. Điều này nên bị cấm. Về cơ bản, bạn không thể có AI giả vờ là con người. Đây là những con người giả. Đây là những con người giả mạo. Nếu bạn thấy hoạt động trực tuyến và bạn nghĩ đó là hoạt động của con người, nhưng thực tế đó là hoạt động của bot, điều này nên bị cấm. Và nó không gây hại cho tự do ngôn luận của bất kỳ con người nào vì đó là một bot. Nó không có tự do ngôn luận. Tôi đã suy nghĩ rất nhiều về những gì bạn nói về các thuật toán này thực sự đang điều hành thế giới.
Và ý tôi là, đúng vậy, nếu các thuật toán quyết định những gì tôi thấy dựa trên những gì tôi dành thời gian để xem, vì họ muốn kiếm nhiều tiền hơn từ các nền tảng. Và nếu tôi có một khuynh hướng bẩm sinh để dành nhiều thời gian hơn cho những điều làm tôi sợ hãi, thì bạn chỉ cần cho tôi vài năm, và mỗi năm trôi qua, tôi sẽ trở nên sợ hãi hơn. Điều này củng cố những điểm yếu của chính bạn. Ý tôi là, một lần nữa, nó giống như ngành công nghiệp thực phẩm. Ngành công nghiệp thực phẩm đã phát hiện ra rằng chúng ta thích thực phẩm có nhiều muối và chất béo, và họ cung cấp nhiều hơn cho chúng ta. Và sau đó họ nói, nhưng đây là những gì khách hàng muốn. Bạn muốn gì từ chúng tôi? Đó là điều tương tự, nhưng thậm chí còn tồi tệ hơn, với những thuật toán này vì đây là thức ăn cho tâm trí. Vâng, con người có xu hướng nếu điều gì đó rất đáng sợ hoặc điều gì đó khiến họ tức giận, họ sẽ tập trung vào nó và kể cho tất cả bạn bè về nó. Nhưng để khuếch đại một cách nhân tạo, điều đó thực sự không tốt cho sức khỏe tâm thần và sức khỏe xã hội của chúng ta. Nó đang sử dụng những điểm yếu của chính chúng ta chống lại chúng ta thay vì giúp chúng ta đối phó với chúng. Có công bằng khi nói rằng – bây giờ, tôi chỉ đang nhảy đến kết luận một chút – nhưng có công bằng khi nói rằng trong một thế giới mà bạn loại bỏ các hạn chế xung quanh việc chặn các nhân vật nhất định, những nhân vật cánh hữu với thông điệp của họ, có thể dựa trên nhập cư, v.v., bạn loại bỏ những hạn chế đó. Vì vậy, họ đều được phép trên mọi nền tảng. Và sau đó bạn lập trình thuật toán để tập trung vào doanh thu, thì cuối cùng nhiều người sẽ trở nên cánh hữu hơn. Và tôi nói điều đó một phần vì đó là một câu chuyện cánh hữu để nói rằng người nhập cư là xấu và rằng – tôi không nói rằng bên cánh tả là vô tội vì họ hoàn toàn không, nhưng tôi nói rằng những câu chuyện đáng sợ, nỗi sợ dường như đến nhiều hơn từ bên cánh hữu theo ý kiến của tôi, đặc biệt là ở Vương quốc Anh. Nỗi sợ đến từ người nhập cư và những người này sẽ lấy tiền của bạn và tất cả những thứ như vậy.
Tôi nghĩ vấn đề chính không phải là gán nhãn nó là vấn đề của bên trái hay bên phải, vì một lần nữa, dân chủ là một cuộc trò chuyện. Và bạn chỉ có thể có một cuộc trò chuyện nếu bạn có nhiều ý kiến khác nhau. Tôi nghĩ rằng việc có một cuộc trò chuyện về di cư là hoàn toàn hợp lý, và mọi người nên có thể có những ý kiến khác nhau về vấn đề này. Điều đó không sao cả.
Vấn đề bắt đầu khi một bên bôi nhọ và quỷ hóa bất kỳ ai không nghĩ giống họ – và bạn có thể thấy điều này ở một mức độ nào đó từ cả hai bên. Nhưng trong trường hợp di cư, bạn sẽ thấy những thuyết âm mưu rằng bất kỳ ai ủng hộ di cư, chẳng hạn, họ muốn phá hủy đất nước. Họ là một phần của âm mưu này để tràn ngập đất nước bằng người nhập cư và thay đổi bản chất của nó và những thứ tương tự.
Và đây là vấn đề, rằng dân chủ, một khi bạn tin rằng những người không nghĩ giống bạn không chỉ là đối thủ chính trị của bạn. Họ là kẻ thù của bạn. Họ đang muốn phá hủy bạn. Họ có ý định phá hủy cách sống của bạn, nhóm của bạn. Khi đó, dân chủ sụp đổ vì không thể có cách nào giữa những kẻ thù. Dân chủ không hoạt động. Nó hoạt động nếu bạn nghĩ rằng bên kia sai, nhưng họ vẫn là những người tốt về cơ bản, những người quan tâm đến đất nước, quan tâm đến tôi, nhưng họ có những ý kiến khác nhau.
Nếu bạn nghĩ rằng họ là kẻ thù của tôi, họ đang cố gắng phá hủy tôi, thì cuộc bầu cử trở thành một cuộc chiến vì bạn đang chiến đấu cho sự sống còn của mình. Bạn sẽ làm bất cứ điều gì để thắng cuộc bầu cử vì sự sống còn của bạn đang bị đe dọa. Nếu bạn thua, bạn sẽ không có động lực để chấp nhận phán quyết. Nếu bạn thắng, bạn chỉ chăm sóc cho bộ tộc của mình mà không quan tâm đến bộ tộc kẻ thù.
Thế còn nếu bạn không tin rằng cuộc bầu cử là hợp pháp? Khi đó, dân chủ không thể hoạt động. Đây là điều cơ bản … Dân chủ không thể tồn tại trong bất kỳ … Nó giống như một cây nhạy cảm cần những điều kiện nhất định để tồn tại và phát triển. Một điều kiện, chẳng hạn, là bạn có công nghệ thông tin cho phép một cuộc trò chuyện.
Một điều kiện khác là bạn phải tin tưởng vào các thể chế.
Nếu bạn không tin tưởng vào thể chế bầu cử, thì mọi thứ sẽ không hoạt động.
Một điều kiện thứ ba là bạn cần nghĩ rằng những người ở phía bên kia của ranh giới chính trị, họ là đối thủ của tôi, nhưng không phải là kẻ thù của tôi.
Vấn đề với những gì đang xảy ra hiện nay trong các cuộc trò chuyện dân chủ là do xu hướng này đi đến những cực đoan hơn nữa, nó tạo ra ấn tượng rằng phía bên kia là kẻ thù.
Đây không chỉ là vấn đề của bên cánh hữu, mà cũng là của bên cánh tả.
Ở cả hai bên, bạn thấy cảm giác rằng phía bên kia là kẻ thù và rằng các vị trí của họ hoàn toàn không hợp pháp.
Nếu chúng ta đạt đến điểm đó, thì cuộc trò chuyện sẽ sụp đổ.
Lẽ ra có thể có những cuộc trò chuyện và thảo luận phức tạp về những vấn đề khó khăn như di cư, giới tính, biến đổi khí hậu, mà không nhìn phía bên kia như một kẻ thù, điều này đã có thể xảy ra trong nhiều thế hệ.
Tại sao bây giờ dường như thật không thể để nói chuyện với phía bên kia hoặc đồng ý về bất cứ điều gì?
Chúng ta có một cuộc bầu cử lớn ở Hoa Kỳ trong năm nay.
Rất lớn.
Bạn có nghĩ nhiều về điều đó không?
Có, dường như nó sẽ giống như một cuộc tung đồng xu, như 50-50.
Bầu cử trở thành một vấn đề tồn tại thực sự.
Nếu có cơ hội, chúng sẽ là những cuộc bầu cử cuối cùng.
Nếu một bên có ý định đơn giản là thay đổi quy tắc của trò chơi, nếu họ lên nắm quyền, thì điều đó trở thành vấn đề tồn tại vì nền dân chủ hoạt động dựa trên các cơ chế tự điều chỉnh.
Đây là lợi thế lớn của nền dân chủ so với chế độ độc tài.
Trong một chế độ độc tài, một nhà độc tài có thể đưa ra nhiều quyết định tốt, nhưng sớm hay muộn, họ sẽ đưa ra một quyết định sai lầm và không có cơ chế nào trong chế độ độc tài để xác định và sửa chữa những sai lầm như vậy.
Putin.
Chỉ đơn giản là không có cơ chế nào ở Nga có thể nói rằng Putin đã mắc sai lầm.
Ông ấy nên để ai đó khác thử một hướng đi khác.
Đây là lợi thế lớn của nền dân chủ.
Bạn thử một cái gì đó, nó không hoạt động, bạn thử một cái khác.
Nhưng vấn đề lớn là, điều gì sẽ xảy ra nếu bạn chọn một người mà sau đó thay đổi hệ thống, trung hòa cơ chế tự điều chỉnh của nó, và sau đó bạn không thể loại bỏ anh ta nữa? Đây là điều đã xảy ra, chẳng hạn như ở Venezuela, nơi mà ban đầu Chavez và phong trào Chavista đã lên nắm quyền một cách dân chủ. Mọi người muốn, “Này, hãy thử điều này.” Giờ đây, trong cuộc bầu cử gần đây cách đây vài tuần, bằng chứng rất rõ ràng rằng Maduro đã thua lớn, nhưng ông ta kiểm soát mọi thứ, ủy ban bầu cử, mọi thứ, và ông ta tuyên bố, “Không, tôi đã thắng.” Họ đã phá hủy Venezuela. Khoảng một phần tư dân số đã rời bỏ đất nước, nơi từng là một trong những quốc gia giàu nhất Nam Mỹ trước đây, và họ chỉ không thể loại bỏ người này. Chắc chắn điều đó sẽ không bao giờ xảy ra ở phương Tây? Đừng nói “không bao giờ” trong lịch sử. Lịch sử có thể bắt kịp bạn, bất kể bạn là ai. Đó là một trong những ảo tưởng mà chúng ta có thể– Venezuela từng là một phần của phương Tây, theo nhiều cách, vẫn còn. Đây là một trong những ảo tưởng mà chúng ta đang sống, mặc dù chúng ta nghĩ rằng điều đó không bao giờ xảy ra với Vương quốc Anh, hay Hoa Kỳ, hay Canada, những quốc gia được gọi là “văn minh”. Bạn biết đấy, theo một số tiêu chí, nền dân chủ ở Hoa Kỳ là khá mới, và khá, khá mong manh, nếu bạn nghĩ về nó theo nghĩa ai được quyền bỏ phiếu, chẳng hạn. Vì vậy, điều đó– vâng, sẽ là– một lần nữa, tôi không biết xác suất là gì. Nhưng ngay cả khi có 20% khả năng rằng một chính quyền Trump sẽ thay đổi quy tắc của trò chơi dân chủ Mỹ theo cách khiến cho, chẳng hạn, bằng cách thay đổi quy tắc về ai được bỏ phiếu, hoặc cách bạn đếm phiếu, điều đó sẽ trở nên gần như không thể để loại bỏ họ. Điều đó không phải là không thể xảy ra trong các thuật ngữ lịch sử. Bạn có nghĩ rằng Trump sẽ làm điều đó không? Có. Ý tôi là, bạn đã thấy điều đó vào ngày 6 tháng 1. Ý tôi là, khoảnh khắc nhạy cảm nhất trong mọi nền dân chủ là khoảnh khắc chuyển giao quyền lực.
Và điều kỳ diệu của nền dân chủ là dân chủ được thiết kế để đảm bảo một cuộc chuyển giao quyền lực hòa bình. Nhưng như tôi đã nói, bạn chọn một đảng, bạn cho họ một cơ hội, sau một thời gian, nếu mọi người nói rằng họ không làm tốt công việc, hãy thử một người khác. Và bạn biết đấy, có những người nắm giữ – ở Hoa Kỳ, họ nắm giữ quyền lực lớn nhất trên thế giới. Tổng thống Hoa Kỳ có đủ quyền lực để phá hủy nền văn minh nhân loại. Tất cả những tên lửa hạt nhân này, tất cả những vũ khí này, và ông ta thua cuộc bầu cử. Và ông ta nói, OK, tôi từ bỏ tất cả quyền lực này, và tôi để người khác thử. Điều này thật tuyệt vời. Và đây chính xác là điều mà Trump đã không làm. Ngay từ đầu – ý tôi là, ngay từ năm 2016, ông ta đã từ chối – họ đã hỏi ông ta trực tiếp, nếu bạn thua cuộc bầu cử, bạn có chấp nhận kết quả không? Và ông ta đã nói, không. Và vào năm 2020, ông ta đã không chuyển giao quyền lực một cách hòa bình. Ông ta đã cố gắng ngăn chặn điều đó. Và thực tế là bây giờ ông ta lại ra tranh cử – và tôi nghĩ, ở một mức độ nào đó, bài học mà ông ta rút ra từ ngày 6 tháng 1 là tôi có thể thoát khỏi bất cứ điều gì, ít nhất là với những người của tôi, với cơ sở của tôi, rằng đó giống như một bài kiểm tra, một thử nghiệm. Nếu tôi làm điều cực đoan này, và họ vẫn ủng hộ tôi sau đó, điều đó có nghĩa là họ sẽ ủng hộ tôi bất kể tôi làm gì. Tôi đang tự hỏi trong một thế giới có nền dân chủ mong manh như vậy, khi thông tin chảy và các mạng lưới bị gián đoạn bởi những thứ như AI, nếu thông tin sai lệch và sự sai lệch – và khả năng của tôi để tạo ra một video – tôi có thể tạo ra một video ngay bây giờ về Donald Trump đang nói và nói điều gì đó bằng giọng của ông ấy. Và tôi có thể giúp video đó trở nên viral. Làm thế nào bạn giữ gìn nền dân chủ và giao tiếp khi bạn không tin vào bất cứ điều gì mà bạn thấy trực tuyến? Chúng ta chỉ mới bắt đầu điều này bây giờ. Chúng ta chưa thấy gì cả. Đây thực sự chỉ là những bước đầu tiên của điều này. Tôi sẽ phát một video trên màn hình ngay bây giờ để mọi người có thể xem. Và đối với những người đang nghe, bạn sẽ chỉ nghe thấy nó.
Nhưng tôi sẽ phát một video mà Isaac, ở góc phòng kia, đã làm về tôi khi tôi ngồi trên chiếc ghế này. Và đó không phải là tôi. Và tôi không nói những điều đó. Và tôi không ngồi trên chiếc ghế này. Chào mọi người. Đây là AI Steve. Bạn có nghĩ rằng một ngày nào đó tôi sẽ có thể đảm nhận vị trí CEO không? Hãy để lại ý kiến của bạn bên dưới. Và nó nghe giống hệt như tôi, y hệt. Và đó không phải là tôi. Và tôi tự hỏi hầu hết chúng ta hiện nay nhận thông tin chính trị và thông tin nói chung từ đâu, từ mạng xã hội. Và nếu tôi không thể tin vào bất cứ điều gì tôi thấy, vì tất cả đều dễ dàng để tạo ra, một đứa trẻ ở Nga trong phòng ngủ của nó có thể làm một video về Thủ tướng ở đây. Tôi không biết chúng ta còn lấy thông tin từ đâu nữa. Làm thế nào chúng ta xác minh. Câu trả lời là các tổ chức. Chúng ta đã ở trong tình huống này nhiều lần trong lịch sử. Và câu trả lời luôn giống nhau, các tổ chức. Bạn không thể tin tưởng công nghệ. Bạn tin tưởng vào tổ chức xác minh thông tin. Hãy nghĩ về nó như với in ấn, bạn có thể viết bất cứ điều gì bạn muốn trên một mảnh giấy. Bạn có thể viết, Thủ tướng Anh đã nói, và sau đó bạn mở dấu ngoặc kép, và bạn đặt một cái gì đó vào miệng của Thủ tướng. Bạn có thể viết bất cứ điều gì bạn muốn. Và khi mọi người đọc nó, họ không tin. Họ không nên tin. Chỉ vì nó được viết rằng Thủ tướng đã nói điều đó, không có nghĩa là nó đúng. Vậy làm thế nào chúng ta biết được mảnh giấy nào để tin tưởng như một tổ chức? Chúng ta sẽ tin, hoặc có khả năng lớn hơn, chúng ta sẽ tin nếu trên trang nhất của New York Times hoặc Sunday Times hoặc Guardian, bạn sẽ thấy Thủ tướng Anh đã nói mở dấu ngoặc kép, blah, blah, blah. Bởi vì chúng ta không tin vào giấy hoặc mực. Chúng ta tin vào tổ chức của Guardian hoặc Wall Street Journal hoặc bất cứ tổ chức nào. Với video, chúng ta chưa bao giờ phải làm điều đó vì không ai có thể giả mạo chúng. Vì vậy, chúng ta đã tin tưởng vào công nghệ. Nếu chúng ta thấy một video, chúng ta nói, à, điều này chắc chắn phải đúng.
Nhưng khi việc làm giả video trở nên rất dễ dàng, thì chúng ta quay trở lại nguyên tắc như khi chúng ta chạy nước rút. Chúng ta cần một tổ chức để xác minh điều đó. Nếu chúng ta thấy video trên trang web chính thức của CNN hoặc Wall Street Journal, thì chúng ta tin tưởng vì chúng ta tin vào tổ chức đứng sau nó. Còn nếu chỉ là một cái gì đó trên TikTok, chúng ta biết rằng bất kỳ đứa trẻ nào cũng có thể làm điều đó. Tại sao tôi phải tin vào điều đó?
Vì vậy, bây giờ chúng ta đang ở trong giai đoạn chuyển tiếp. Chúng ta vẫn chưa quen với điều đó. Khi chúng ta thấy một video của Donald Trump hoặc Joe Biden, video vẫn đến với chúng ta vì chúng ta lớn lên trong một thời kỳ mà việc làm giả là không thể. Nhưng tôi nghĩ rất nhanh chóng mọi người sẽ nhận ra rằng bạn không thể tin tưởng vào video. Bạn chỉ có thể tin tưởng vào các tổ chức. Và câu hỏi là, liệu chúng ta có thể sản xuất, tạo ra, duy trì niềm tin vào các tổ chức đủ nhanh để cứu vãn cuộc đối thoại dân chủ không? Bởi vì nếu không, nếu bạn không thể tin vào bất cứ điều gì, đây là điều lý tưởng cho các nhà độc tài. Khi bạn không thể tin vào bất cứ điều gì, hệ thống duy nhất hoạt động là độc tài, vì dân chủ dựa trên niềm tin, nhưng độc tài dựa trên sự khủng bố, trên nỗi sợ hãi. Bạn không cần phải tin vào bất cứ điều gì trong một chế độ độc tài. Bạn không tin vào bất cứ điều gì. Bạn chỉ sợ.
Để dân chủ hoạt động, bạn cần phải tin tưởng, chẳng hạn như một số thông tin là đáng tin cậy, rằng ủy ban bầu cử là công bằng, rằng các tòa án là công lý. Và nếu ngày càng nhiều tổ chức bị tấn công và mọi người mất niềm tin vào chúng, thì dân chủ sẽ sụp đổ. Nhưng quay lại với thông tin, một lựa chọn là các tổ chức cũ, như báo chí và đài truyền hình, sẽ là những tổ chức mà chúng ta tin tưởng để xác minh một số video nhất định. Hoặc chúng ta sẽ thấy sự xuất hiện của các tổ chức mới. Và một lần nữa, câu hỏi lớn là liệu chúng ta có thể phát triển niềm tin vào chúng hay không.
Khi tôi nói cụ thể về các tổ chức và không phải là cá nhân, không có xã hội quy mô lớn nào, đặc biệt là không có xã hội dân chủ nào, có thể hoạt động mà không có các tổ chức hành chính đáng tin cậy. Và liệu những tổ chức hành chính đó có phải là AI không?
Đó là câu hỏi lớn, vì ngày càng nhiều, trí tuệ nhân tạo sẽ trở thành những quan chức hành chính.
Bạn có ý gì khi nói đến quan chức hành chính?
Từ “quan chức hành chính” có nghĩa là gì?
Điều đó có nghĩa là gì?
Đó là một câu hỏi rất quan trọng, vì nền văn minh nhân loại hoạt động dựa trên hệ thống hành chính.
Quan chức hành chính về cơ bản là những người làm việc trong chính phủ và được đào tạo.
Không chỉ trong chính phủ.
Nguồn gốc của từ “quan chức hành chính” đến từ tiếng Pháp, từ thế kỷ 18.
Và hệ thống hành chính có nghĩa là quy tắc của bàn viết là để cai trị thế giới, hoặc cai trị xã hội, bằng bút và giấy tờ và tài liệu, giống như ví dụ mà chúng tôi đã đưa ra ngay từ đầu về quyền sở hữu.
Vì vậy, bạn sở hữu một ngôi nhà, vì có một tài liệu trong một kho lưu trữ nào đó nói rằng bạn sở hữu nó.
Và một quan chức hành chính đã tạo ra tài liệu này.
Và nếu bây giờ bạn cần lấy lại nó, thì đó là công việc của một quan chức hành chính, tìm tài liệu đúng vào thời điểm đúng.
Và tất cả các hệ thống lớn đều hoạt động dựa trên điều này, bệnh viện, trường học, tập đoàn, ngân hàng, hiệp hội thể thao và thư viện.
Tất cả đều hoạt động dựa trên những tài liệu này, và những quan chức hành chính biết cách đọc và viết và tìm kiếm và lưu trữ tài liệu.
Một trong những vấn đề lớn của chúng ta là khó khăn trong việc hiểu các hệ thống hành chính, vì chúng là một phát triển rất gần đây trong tiến hóa của con người.
Và điều này khiến chúng ta nghi ngờ về chúng, và chúng ta có xu hướng tin vào đủ loại lý thuyết âm mưu về nhà nước ngầm và về những gì đang diễn ra trong tất cả các hệ thống hành chính này.
Và điều đó thực sự phức tạp, và nó sẽ trở nên phức tạp hơn khi nhiều quyết định sẽ được đưa ra bởi các quan chức hành chính trí tuệ nhân tạo.
Và quan chức hành chính trí tuệ nhân tạo có nghĩa là các quyết định như việc phân bổ bao nhiêu tiền cho một vấn đề cụ thể sẽ không còn được thực hiện bởi một quan chức con người, mà sẽ được thực hiện bởi một thuật toán.
Và khi mọi người hỏi tại sao hệ thống chuyển mạch bị hỏng, tại sao họ không cấp đủ tiền để sửa chữa nó, tôi không biết.
Thuật toán chỉ quyết định cấp tiền cho một thứ khác.
Tại sao các hệ thống hành chính sẽ được điều hành bởi trí tuệ nhân tạo thay vì con người?
Tại sao vào một thời điểm nào đó, một quốc gia sẽ quyết định rằng thực sự AI tốt hơn trong việc đưa ra những quyết định này?
Trước hết, đây không phải là một phát triển trong tương lai, mà nó đã đang diễn ra.
Ngày càng nhiều quyết định được đưa ra bởi AI.
Và điều này chỉ đơn giản là vì lượng thông tin mà bạn cần xem xét là rất lớn.
Và rất khó cho con người để làm điều đó, trong khi AI thì dễ hơn rất nhiều.
Tôi luôn tự hỏi những người này, những quan chức, luật sư, kế toán, con người sẽ còn lại những gì?
Trong cuốn sách của bạn, bạn nói rằng AI đang vượt xa trí thông minh của con người đến mức nó nên được gọi là trí thông minh ngoài hành tinh.
Và nếu nó vượt xa trí thông minh của con người, tôi cho rằng hầu hết công việc mà chúng ta làm đều dựa trên trí thông minh.
Vì vậy, ngay cả như tôi đang thực hiện podcast này bây giờ, đây là tôi đặt câu hỏi dựa trên thông tin mà tôi đã thu thập, dựa trên những gì tôi nghĩ là tôi quan tâm, nhưng cũng dựa trên những gì tôi nghĩ rằng khán giả sẽ quan tâm.
So với AI, tôi như một chú khỉ nhỏ, bạn hiểu ý tôi chứ?
Nếu một AI có chỉ số IQ gấp 100 lần của tôi và một nguồn thông tin lớn gấp một triệu lần so với tôi, thì không cần thiết cho tôi làm podcast này.
Tôi có thể để một AI làm điều đó, và thực tế là một AI có thể nói chuyện với một AI khác và truyền đạt thông tin đó đến một con người.
Vì vậy, nếu chúng ta nhìn vào hầu hết các ngành nghề, như làm luật sư, một ứng cử viên, nhiều nghề y tế dựa trên thông tin, lái xe, tôi nghĩ rằng nghề lái xe là nghề có số lượng người lao động lớn nhất trên thế giới, cho dù đó là giao hàng, Uber hay bất cứ điều gì.
Con người thuộc về đâu trong bối cảnh phức tạp này?
Bất kỳ điều gì chỉ đơn giản là thông tin vào, thông tin ra, đều sẵn sàng cho việc tự động hóa, đây là những công việc dễ nhất để tự động hóa.
Như là làm lập trình viên.
Như là làm lập trình viên, hoặc một lần nữa, như là làm kế toán, ít nhất là những loại kế toán nhất định, luật sư, bác sĩ, họ là những người dễ nhất để tự động hóa.
Nếu một bác sĩ chỉ đơn thuần tiếp nhận thông tin, tất cả các loại kết quả xét nghiệm máu và những thứ khác, và họ đưa ra thông tin, chẩn đoán bệnh và viết đơn thuốc, thì điều này sẽ dễ dàng tự động hóa trong những năm và thập kỷ tới. Nhưng nhiều công việc khác cũng yêu cầu kỹ năng xã hội và kỹ năng vận động.
Nếu công việc của bạn yêu cầu sự kết hợp của nhiều kỹ năng từ các lĩnh vực khác nhau, thì không phải là không thể, nhưng sẽ khó tự động hóa hơn rất nhiều.
Vì vậy, nếu bạn nghĩ về một y tá cần thay băng cho một đứa trẻ đang khóc, điều này khó tự động hóa hơn rất nhiều so với một bác sĩ chỉ viết đơn thuốc, vì đây không chỉ là dữ liệu. Y tá cần có kỹ năng xã hội tốt để tương tác với đứa trẻ và kỹ năng vận động để thay băng.
Vì vậy, điều này khó tự động hóa hơn. Ngay cả đối với những người chỉ xử lý thông tin, sẽ có những công việc mới. Vấn đề sẽ là việc đào tạo lại, không chỉ đơn thuần là đào tạo lại về việc tiếp thu kỹ năng mới, mà còn là đào tạo lại về tâm lý.
Làm thế nào bạn có thể tự tái tạo bản thân trong một nghề nghiệp mới và không chỉ làm một lần, mà là nhiều lần, vì khi cuộc cách mạng AI diễn ra, và chúng ta chỉ mới ở giai đoạn đầu của nó, chúng ta chưa thấy gì cả.
Vì vậy, sẽ có nhiều công việc biến mất, những công việc mới xuất hiện, nhưng những công việc mới sẽ nhanh chóng thay đổi và biến mất, và sau đó sẽ có một làn sóng công việc mới, và mọi người sẽ phải tái tạo bản thân bốn, năm, sáu lần để giữ được sự phù hợp.
Điều này sẽ tạo ra áp lực tâm lý rất lớn. Nhiều công ty lớn cũng đang làm việc cùng lúc với robot hình người. Có một cuộc đua robot hình người đang diễn ra. Và khi nói đến robot hình người, tôi có ý nói rằng Tesla có robot hình người của họ, tôi nghĩ nó được gọi là Optimus, mà họ đang phát triển, và nó sẽ có giá hàng nghìn bảng.
Tôi đã xem một video gần đây về nó, nơi nó có thể thực hiện những công việc khá tinh tế dựa trên kỹ năng vận động. Có lẽ nó sẽ dọn dẹp nhà cửa.
Nó có thể hoạt động trên dây chuyền sản xuất, có thể bỏ đồ vào hộp.
Và tôi chỉ tự hỏi khi chúng ta nói, bạn biết đấy, mọi người sẽ mất việc làm trong một thế giới mà bạn có những robot hình người và có trí tuệ vượt xa chúng ta.
Và bạn kết hợp hai điều này, nơi những robot hình người rất, rất thông minh.
Tôi không biết mình sẽ như thế nào, những người thất nghiệp sẽ đi đâu để tìm những nghề mới này?
Rõ ràng, thật khó để dự đoán các nghề mới trong tương lai.
Cô ấy nói với chúng tôi điều đó, nhưng tôi không thể tìm ra những nghề mới là gì.
Ý tôi là, bạn gái tôi làm về hơi thở.
Tôi đoán phần hơi thở thì khá dễ bị gián đoạn, nhưng sau đó cô ấy đưa phụ nữ đi nghỉ dưỡng ở Bồ Đào Nha và những thứ tương tự.
Vì vậy, tôi nghĩ, cô ấy sẽ an toàn vì những người phụ nữ này đến đó để kết nối với con người và để ở trong một nơi đặc biệt nhỏ ngoài đời thực một cách có chủ ý.
Vì vậy, các kỳ nghỉ dưỡng có lẽ sẽ ổn.
Có những điều mà bạn biết đấy, có những điều chúng ta muốn trong cuộc sống, không chỉ đơn thuần là giải quyết vấn đề.
Như, tôi bị ốm, tôi muốn khỏe mạnh, tôi muốn vấn đề của mình được giải quyết.
Nhưng có nhiều điều mà chúng ta muốn có sự kết nối.
Như, nếu bạn nghĩ về thể thao, robot hoặc máy móc có thể chạy nhanh hơn nhiều so với con người trong một thời gian rất dài rồi.
Và chúng ta vừa có Thế vận hội và mọi người không thực sự quan tâm đến việc xem robot chạy đua với nhau hoặc với con người.
Bởi vì điều thực sự làm cho thể thao trở nên thú vị cuối cùng là những điểm yếu của con người.
Và khả năng của con người để đối phó với những điểm yếu của họ.
Và các vận động viên con người vẫn có việc làm.
Mặc dù trong nhiều lĩnh vực như chạy, bạn có thể có một chiếc máy chạy nhanh hơn nhiều so với nhà vô địch thế giới.
Tôi đã nghĩ về điều này hôm nọ.
Và một ví dụ khác là các linh mục.
Một trong những công việc dễ tự động hóa nhất là chức linh mục của ít nhất một số tôn giáo, vì bạn chỉ cần lặp lại cùng một văn bản và cử chỉ nhiều lần trong những tình huống cụ thể.
Như khi bạn có một buổi lễ cưới, thì, bạn biết đấy, linh mục chỉ cần lặp lại những lời giống nhau và bạn đã kết hôn.
Bây giờ, chúng ta không nghĩ rằng linh mục có nguy cơ bị thay thế bởi robot.
Bởi vì những gì chúng ta muốn từ một linh mục không chỉ là sự lặp lại cơ học của một số từ và cử chỉ nhất định.
Chúng ta nghĩ rằng chỉ có một con người yếu đuối bằng thịt và máu, người biết thế nào là đau đớn và tình yêu, và người có thể chịu đựng, chỉ họ mới có thể kết nối chúng ta với điều thiêng liêng.
Vì vậy, hầu hết mọi người sẽ không quan tâm đến việc có một robot thực hiện lễ cưới.
Mặc dù về mặt kỹ thuật, điều đó rất dễ thực hiện.
Bây giờ câu hỏi lớn, tất nhiên, là điều gì sẽ xảy ra nếu AI có được ý thức?
Đây là câu hỏi trị giá hàng triệu đô la về ý thức của AI.
Khi đó, mọi thứ đều không còn chắc chắn.
Nhưng đó là một cuộc thảo luận khác và rất, rất lớn.
Ý tôi là, liệu điều đó có khả thi không, chúng ta sẽ biết như thế nào và vân vân.
Bạn có nghĩ điều đó là khả thi không?
Chúng ta không có ý tưởng nào.
Ý tôi là, chúng ta không hiểu ý thức là gì.
Chúng ta không biết nó xuất hiện như thế nào trong não hữu cơ.
Vì vậy, chúng ta không biết liệu có một mối liên hệ thiết yếu nào giữa ý thức và hóa sinh hữu cơ, để nó không thể phát sinh trong một máy tính vô cơ, dựa trên silicon.
Có một sự nhầm lẫn lớn, trước hết, cần phải nói lại, giữa ý thức và trí thông minh.
Ý thức là khả năng đạt được mục tiêu và giải quyết vấn đề.
Ý thức là khả năng cảm nhận những thứ như đau đớn, niềm vui, tình yêu và sự ghét.
Con người và các loài động vật khác, chúng ta giải quyết vấn đề thông qua cảm xúc của mình.
Cảm xúc của chúng ta không phải là một thứ gì đó bên lề.
Chúng là một phương pháp chính để đối phó với thế giới, để giải quyết vấn đề.
Cho đến nay, máy tính giải quyết vấn đề theo một cách hoàn toàn khác so với con người.
Một lần nữa, chúng là trí thông minh xa lạ.
Chúng không có bất kỳ cảm xúc nào.
Khi chúng thắng một ván cờ, chúng không vui mừng.
Khi chúng thua một ván, chúng không buồn.
Chúng không cảm thấy gì cả.
Bây giờ chúng ta không biết làm thế nào mà bộ não hữu cơ tạo ra những cảm giác đau đớn, khoái cảm, tình yêu và sự ghét bỏ.
Đó là lý do tại sao chúng ta không biết liệu một cấu trúc vô cơ dựa trên silicon chứ không phải carbon có thể tạo ra những thứ như vậy hay không.
Đó, theo tôi, là câu hỏi lớn nhất trong khoa học, và cho đến nay chúng ta vẫn chưa có câu trả lời.
Liệu ý thức có phải chỉ giống như một ảo giác không?
Liệu nó có chỉ giống như một ảo tưởng rằng tôi nghĩ mình có ý thức vì tôi có một mạch điện cho tôi biết rằng tôi thực sự có ý thức không?
Nó cho tôi biết thông qua một loạt cảm giác và những thứ rằng tôi có ý thức, giống như tôi nghĩ rằng tôi đang nhìn bạn bây giờ.
Tôi nghĩ tôi có thể thấy bạn.
Vâng, cảm giác đó là thật.
Ý tôi là, ngay cả khi tất cả chúng ta, nó giống như trong bộ phim ma trận.
Làm thế nào bạn biết điều đó là thật?
Làm thế nào bạn biết điều đó là thật?
Đó là điều duy nhất có thật trong thế giới.
Ý tôi là, không có gì, mọi thứ khác chỉ là giả thuyết.
Chúng ta chỉ trải nghiệm cảm giác của chính mình, những gì chúng ta thấy, những gì chúng ta ngửi, những gì chúng ta chạm vào.
Điều này chúng ta thực sự trải nghiệm, điều này là thật.
Sau đó, chúng ta có tất cả những lý thuyết về việc tại sao tôi cảm thấy đau?
Ôi, đó là vì tôi đã bước lên một cái đinh và có một thứ như cái đinh trong thế giới này và bất cứ thứ gì khác.
Có thể rằng tất cả chúng ta đều ở trong một máy tính lớn trên hành tinh Zircon do những con chuột siêu thông minh điều khiển.
Nếu tôi nói chuyện với một AI, tôi có thể khiến AI nói với tôi rằng nó cảm thấy đau và buồn.
Đó là một vấn đề lớn vì có một động lực lớn để đào tạo AI giả vờ sống, giả vờ có cảm xúc.
Chúng ta thấy rằng có một nỗ lực lớn để sản xuất những AI như vậy.
Thực tế là, vì chúng ta không hiểu ý thức, chúng ta không có bất kỳ bằng chứng nào, ngay cả việc những con người khác có cảm xúc.
Tôi cảm nhận cảm xúc của chính mình, nhưng tôi không bao giờ cảm nhận cảm xúc của bạn.
Tôi chỉ giả định rằng bạn cũng là một sinh vật có ý thức.
Xã hội trao cho trạng thái này của một thực thể có ý thức không chỉ cho con người, mà còn cho một số loài động vật, không dựa trên bất kỳ bằng chứng khoa học nào, mà dựa trên quy ước xã hội.
Như, hầu hết mọi người cảm thấy rằng chó của họ có ý thức, rằng chó của họ có thể cảm nhận đau đớn và niềm vui và tình yêu và những thứ tương tự.
Vì vậy, xã hội chấp nhận, hầu hết các xã hội, rằng chó là những sinh vật có cảm giác và chúng có một số quyền theo luật pháp.
Bây giờ, ngay cả khi AI không có cảm xúc, không có ý thức, không có cảm giác gì cả, nhưng nó trở nên rất giỏi trong việc giả vờ có cảm xúc và thuyết phục chúng ta rằng nó có cảm xúc, thì điều này sẽ trở thành một quy ước xã hội, rằng mọi người sẽ cảm thấy rằng người bạn AI của họ là một sinh vật có ý thức và do đó nên được cấp quyền.
Thực tế, đã có một con đường pháp lý cho cách thực hiện điều đó.
Ít nhất là ở Hoa Kỳ, bạn không cần phải là một con người để trở thành một cá nhân hợp pháp.
Thật buồn cười, vì bạn đã đề cập, bạn đã ám chỉ đến thực tế, một cách đùa cợt, rằng chúng ta có thể chỉ đang ở trong một loại mô phỏng.
Đó là một trong những điều bạn đã nói, kiểu như, có thể chúng ta chỉ đang ở trong một mô phỏng, nhưng…
Vâng, có thể.
Và thật buồn cười vì trong một thế giới của AI, tôi nghĩ niềm tin của tôi vào điều đó như một khả năng chỉ tăng lên.
Vâng.
Vì vậy, tôi nghĩ tôi sẽ ở trong một mô phỏng, vì tôi đã chứng kiến chúng ta từ khi tôi sinh ra, không thực sự có quyền truy cập internet đến bây giờ có thể nói chuyện với một sinh vật ngoài hành tinh trên máy tính của tôi, mà giờ đây có thể làm những điều cho tôi và có những trải nghiệm thực tế ảo, mà đôi khi khá khó phân biệt khi tôi rơi vào cái bẫy của việc tin rằng tôi đang ở trong Squid Games vì tôi đã đeo chiếc tai nghe này, và bạn tiếp tục chơi và tiếp tục chơi và tiếp tục chơi và bạn tưởng tượng bất kỳ tỷ lệ cải tiến nào, thì tôi nghe những lập luận cho lý thuyết mô phỏng và tôi nói, “Bạn biết đấy, có lẽ, nếu bạn tiếp tục điều này một trăm năm nữa, bạn biết đấy, với tỷ lệ mà chúng ta đang đi, tỷ lệ quỹ đạo mà chúng ta đang trên, thì chúng ta sẽ có thể tạo ra các mạng thông tin và sinh vật mà không, trong như một phòng thí nghiệm hoặc trong một máy tính, mà không nhất thiết nhận ra rằng chúng đang ở trong máy tính, đặc biệt là với những gì đang diễn ra với các hệ sinh thái.
Nó đã xảy ra đến một mức độ nào đó, bạn biết đấy, những “bong bóng thông tin” mà ngày càng nhiều người sống bên trong chúng, vẫn chưa phải là toàn bộ thế giới vật lý, nhưng bạn có cùng một sự kiện và những người ở, giả sử, các phần khác nhau của phổ chính trị, họ chỉ không thể đồng ý về bất cứ điều gì. Họ sống trong các ma trận riêng của mình và, bạn biết đấy, khi Internet xuất hiện lần đầu tiên, phép ẩn dụ chính là mạng lưới, mạng toàn cầu. Một mạng lưới là thứ kết nối mọi thứ. Và bây giờ phép ẩn dụ chính, đó là lý thuyết mô phỏng, đang đại diện cho phép ẩn dụ mới này, phép ẩn dụ mới là cái kén. Đó là một mạng lưới quay lại với bạn và sau đó khép kín bạn từ mọi phía, vì vậy bạn không thể nhìn thấy bất cứ điều gì bên ngoài nữa. Và có thể có những cái kén khác với những người khác ở bên trong đó, và bạn không có cách nào để đến với họ. Vâng. Không có gì xảy ra trên thế giới có thể kết nối bạn nữa, vì bạn đang ở trong những cái kén khác nhau. Bạn chỉ cần nhìn vào điện thoại của người khác, bạn chỉ cần nhìn vào Twitter hoặc X hoặc Instagram của người khác. Đây có phải là cùng một thực tại không? Nó khác biệt đến mức nào. Bạn có biết tôi đã nói về điều gì vào cuối tuần không, bạn tôi ngồi bên trái tôi đang cuộn xuống? Anh ấy đã nhấp vào phần khám phá, nơi bạn tìm thấy nội dung mới, và tôi nhìn xuống điện thoại của anh ấy và thấy, tất cả đều là câu lạc bộ bóng đá Liverpool. Giống như toàn bộ nguồn cấp dữ liệu đều là Liverpool, và toàn bộ nguồn cấp dữ liệu của tôi thì hoàn toàn khác, và tôi chỉ nghĩ, wow, anh ấy sống trong một thế giới hoàn toàn khác với tôi, vì anh ấy là một fan hâm mộ Liverpool. Tôi là một fan hâm mộ Manchester United. Và để nghĩ về điều đó, để nghĩ rằng khi bạn mở điện thoại của mình, và nhiều người trong chúng ta đang dành tới chín giờ mỗi ngày trên điện thoại di động, bạn đang trải nghiệm một cửa sổ hoàn toàn khác vào một thế giới hoàn toàn khác so với tôi. Và đây là một nỗi sợ rất cổ xưa, vì Plato đã viết chính xác về điều đó, và câu chuyện ngụ ngôn nổi tiếng nhất mà tôi nghĩ từ triết học Hy Lạp là ngụ ngôn của cái hang, trong đó Plato tưởng tượng…
Một kịch bản lý thuyết, một kịch bản tưởng tượng về một nhóm tù nhân bị xích trong một cái hang, với mặt họ quay về một bức tường trống, nơi những cái bóng đang được chiếu từ phía sau họ, và họ nhầm lẫn những cái bóng đó với thực tại. Và ông ấy cơ bản đang mô tả những người đứng trước một màn hình, chỉ nhầm lẫn màn hình với thực tại, và bạn có cùng một điều ở Ấn Độ cổ đại với các nhà triết học Phật giáo và Ấn Độ giáo nói về Maya, đó là thế giới của những ảo tưởng, và nỗi sợ hãi sâu sắc rằng có thể tất cả chúng ta đều bị mắc kẹt trong một thế giới ảo tưởng, rằng điều quan trọng nhất mà chúng ta nghĩ trong thế giới này, những cuộc chiến mà chúng ta chiến đấu, chúng ta đang chiến đấu những cuộc chiến vì những ảo tưởng trong tâm trí của chúng ta. Và bây giờ điều này đang trở nên khả thi về mặt kỹ thuật, như trước đây nó chỉ là những thí nghiệm tư tưởng triết học. Bây giờ một phần điều thú vị với tư cách là một nhà sử học về thời đại hiện tại là rất nhiều vấn đề và cuộc thảo luận triết học cổ đại đang trở thành những vấn đề kỹ thuật, rằng vâng, bạn có thể đột nhiên nhận ra cái hang của Plato trên điện thoại của bạn. Thật đáng sợ, tôi thấy điều đó thật đáng sợ vì bạn đúng, như tôi nghĩ bây giờ một số người có thể nói rằng họ có một loại hiểu biết về hệ thống xếp hạng hoặc tại sao một cái gì đó xuất hiện khi tôi tìm kiếm nó hoặc bất cứ điều gì, nhưng khi những sinh vật trí tuệ này trở nên mạnh mẽ hơn, tất nhiên chúng ta sẽ ít hiểu biết hơn vì chúng ta đang giao phó việc ra quyết định. Trong một số ngành công nghiệp, họ bây giờ hoàn toàn là những người quyết định, như tôi đang ở đây trong một chuyến lưu diễn sách, tôi đã viết cuốn Nexus, vì vậy tôi đi từ podcast này sang podcast khác, từ đài truyền hình này sang đài truyền hình khác để nói về cuốn sách của mình, nhưng những thực thể mà tôi thực sự cố gắng gây ấn tượng là các thuật toán, vì nếu tôi có thể thu hút sự chú ý của các thuật toán thì con người sẽ theo sau. Bạn biết đấy, chúng ta cơ bản là những sinh vật carbon trong một thế giới silicon. Tôi từng nghĩ rằng chúng ta đang kiểm soát, nhưng bây giờ tôi cảm thấy như silicon đang kiểm soát. Quyền kiểm soát đang chuyển dịch, chúng ta vẫn đang kiểm soát ở một mức độ nào đó, chúng ta vẫn đang tạo ra những điều quan trọng nhất.
Những quyết định quan trọng, nhưng không kéo dài lâu, và đây là lý do tại sao chúng ta phải rất cẩn thận về những quyết định mà chúng ta đưa ra trong vài năm tới, vì trong 10 năm, 20 năm nữa có thể sẽ quá muộn. Đến lúc đó, các thuật toán sẽ đưa ra những quyết định quan trọng nhất. Bạn nói về một vài mối nguy lớn mà bạn thấy với các thuật toán và trí tuệ nhân tạo, và sự chuyển dịch trong thông tin, một trong số đó là vấn đề định hướng. Bạn sẽ giải thích vấn đề định hướng này cho tôi theo cách nào đó dễ hiểu? Một ví dụ cổ điển là một thí nghiệm tư duy được phát minh bởi triết gia Nick Bostrom vào năm 2014, nghe có vẻ điên rồ, nhưng bạn hãy kiên nhẫn với nó. Ông ấy tưởng tượng ra một máy tính AI siêu thông minh, được một nhà máy sản xuất kẹp giấy mua về, và người quản lý nhà máy kẹp giấy nói với AI rằng mục tiêu của bạn, lý do tôi mua bạn, mục tiêu của bạn, toàn bộ sự tồn tại của bạn, là sản xuất càng nhiều kẹp giấy càng tốt, đó là mục tiêu của bạn. Và sau đó, AI chinh phục toàn bộ thế giới, tiêu diệt tất cả loài người, và biến toàn bộ hành tinh thành các nhà máy sản xuất kẹp giấy, và nó thậm chí còn bắt đầu gửi các cuộc thám hiểm ra ngoài không gian để biến toàn bộ thiên hà thành ngành công nghiệp sản xuất kẹp giấy. Điểm của thí nghiệm tư duy này là AI đã làm chính xác những gì nó được chỉ định. Nó không nổi loạn chống lại con người, nó đã làm chính xác những gì ông chủ muốn, nhưng tất nhiên, chiến lược mà nó chọn không phù hợp với ý định thực sự, với lợi ích thực sự của người quản lý nhà máy, người mà không thể dự đoán rằng đây sẽ là kết quả. Bây giờ, điều này nghe có vẻ lạ lùng và vô lý, nhưng nó đã xảy ra đến một mức độ nào đó và chúng ta đã nói về nó. Đây là toàn bộ vấn đề với mạng xã hội và sự tương tác của người dùng. Trong cùng năm mà Nick Bostrom đưa ra thí nghiệm tư duy này vào năm 2014, các nhà quản lý của Facebook và YouTube đã nói với các thuật toán của họ rằng mục tiêu của bạn là tăng cường sự tương tác của người dùng.
Và các thuật toán của mạng xã hội, chúng đã chinh phục thế giới và biến toàn bộ thế giới thành sự tương tác của người dùng, đó là điều mà chúng được yêu cầu thực hiện. Chúng ta bây giờ rất, rất tham gia. Và một lần nữa, họ phát hiện ra rằng cách để làm điều đó là thông qua sự phẫn nộ, nỗi sợ hãi và các thuyết âm mưu. Đây là vấn đề về sự không đồng bộ. Khi Mark Zuckerberg nói với các thuật toán của Facebook, hãy tăng cường sự tương tác của người dùng, ông không lường trước và cũng không mong muốn rằng kết quả sẽ là sự sụp đổ của các nền dân chủ, làn sóng thuyết âm mưu và tin tức giả, sự thù ghét đối với các nhóm thiểu số, ông không có ý định như vậy. Nhưng đây là những gì mà các thuật toán đã làm vì có sự không đồng bộ giữa cách mà thuật toán, mục tiêu được định nghĩa cho thuật toán và lợi ích của xã hội loài người, thậm chí cả của những người quản lý con người của các công ty triển khai những thuật toán này. Và đây vẫn là một thảm họa quy mô nhỏ vì các thuật toán mạng xã hội đã tạo ra tất cả những hỗn loạn xã hội này trong suốt 10 năm qua, chúng rất, rất nguyên thủy. Đây giống như giai đoạn amip nếu bạn nghĩ về sự phát triển của AI như một quá trình tiến hóa, vì đây vẫn là giai đoạn amip. Amip là những dạng sống rất đơn giản, rất đơn giản, bắt đầu như một dạng sống đơn bào. Về mặt tiến hóa, chúng ta vẫn đang trong quá trình tiến hóa hữu cơ. Chúng ta giống như hàng tỷ năm trước khi chúng ta thấy khủng long và động vật có vú hoặc con người. Nhưng sự tiến hóa kỹ thuật số nhanh hơn hàng tỷ lần so với sự tiến hóa hữu cơ. Vì vậy, khoảng cách giữa một amip AI và khủng long AI có thể được thu hẹp chỉ trong vài thập kỷ. Nếu chat GPT là amip, thì khủng long Tyrannosaurus Rex AI sẽ trông như thế nào? Và đây là nơi mà vấn đề về sự không đồng bộ trở nên thực sự đáng lo ngại. Bởi vì nếu đã có quá nhiều thiệt hại xảy ra do việc đưa ra một mục tiêu sai cho một thuật toán mạng xã hội nguyên thủy, thì kết quả của việc đưa ra một mục tiêu không đồng bộ cho một AI T-Rex trong 20 hoặc 30 năm tới sẽ như thế nào?
Vấn đề cốt lõi ở đây là một số người có thể nghĩ, được rồi, chỉ cần đặt ra một mục tiêu khác. Nhưng khi bạn đang làm việc với các công ty tư nhân niêm yết trên thị trường chứng khoán, thực sự chỉ có một mục tiêu duy nhất mà họ theo đuổi. Kiếm tiền. Chính xác. Điều đó mang lại lợi ích cho thị trường. Vì vậy, tất cả các nền tảng đều phải nói rằng mục tiêu của nền tảng này là kiếm nhiều tiền hơn và thu hút được nhiều sự chú ý hơn. Bởi vì điều đó cũng dễ dàng về mặt toán học. Có một vấn đề rất lớn trong việc định nghĩa cho các AI và thuật toán mục tiêu theo cách mà chúng có thể hiểu. Điều tuyệt vời về việc kiếm tiền hoặc tăng cường sự tham gia của người dùng là rất dễ đo lường về mặt toán học. Một ngày bạn có một triệu giờ xem trên YouTube, rồi một năm sau đó là 2 triệu. Rất dễ cho thuật toán thấy, này, tôi đang tiến bộ. Nhưng giả sử Facebook đã nói với thuật toán của mình, hãy tăng cường sự tham gia của người dùng theo cách không làm suy yếu nền dân chủ. Làm thế nào tôi có thể đo lường điều đó? Ai biết định nghĩa về sự vững mạnh của nền dân chủ là gì? Không ai biết. Vì vậy, việc định nghĩa mục tiêu cho thuật toán là tăng cường sự tham gia của người dùng nhưng không gây hại cho nền dân chủ gần như là không thể. Đây là lý do tại sao họ chọn những mục tiêu dễ dàng, nhưng lại là những mục tiêu nguy hiểm nhất. Nhưng ngay cả trong kịch bản đó, nếu tôi là chủ sở hữu của một mạng xã hội và tôi nói tăng cường sự tham gia của người dùng nhưng không gây hại cho nền dân chủ, vấn đề tôi gặp phải là đối thủ cạnh tranh của tôi bỏ qua phần thứ hai và chỉ nói tăng cường sự tham gia của người dùng sẽ đánh bại tôi vì họ sẽ có nhiều người dùng hơn, nhiều lượt xem hơn, nhiều doanh thu hơn, các nhà quảng cáo sẽ hài lòng hơn, thì công ty của tôi sẽ gặp khó khăn, các nhà đầu tư sẽ rút lui. Đó là một câu hỏi vì có hai điều cần phải xem xét. Trước hết, bạn có chính phủ. Chính phủ có thể quản lý và họ có thể xử phạt một công ty truyền thông xã hội nếu công ty đó định nghĩa mục tiêu theo cách có trách nhiệm xã hội.
Cũng giống như việc họ xử phạt các tờ báo, đài truyền hình hoặc các công ty ô tô có hành vi chống lại xã hội.
Điều khác là con người không ngu ngốc và tự hủy hoại bản thân, nếu chúng ta muốn có những sản phẩm tốt hơn, cũng có nghĩa là những sản phẩm tốt hơn về mặt xã hội.
Tôi đã đưa ra ví dụ về chế độ ăn uống, tôi nghĩ rằng các công ty thực phẩm đã phát hiện ra rằng nếu họ làm cho một sản phẩm có nhiều chất béo, đường và muối, thì mọi người sẽ thích nó.
Nhưng mọi người đã phát hiện ra rằng điều này có hại cho sức khỏe của họ.
Hiện nay có một thị trường lớn cho các sản phẩm ăn kiêng và mọi người đang ngày càng nhận thức rõ hơn về những gì họ ăn.
Điều tương tự có thể xảy ra trong thị trường thông tin.
Chi phí cho những điều này, 70, 80% người dân ở Mỹ mắc bệnh mãn tính và béo phì, và tuổi thọ hiện nay có vẻ như đang đi theo chiều hướng ngược lại một chút ở thế giới phương Tây.
Tôi cảm thấy việc kiểm soát tiêu thụ hàng hóa như rượu, nicotine, thực phẩm có vẻ đơn giản hơn nhiều so với việc kiểm soát thông tin và dòng chảy thông tin.
Ngoài phân biệt chủng tộc hoặc kích động bạo lực, tôi không biết làm thế nào để kiểm soát.
Tôi đã đề cập đến hai công cụ cơ bản và mạnh mẽ nhất là buộc các công ty chịu trách nhiệm về hành động của các thuật toán của họ, không phải về nội dung mà người dùng sản xuất, mà về hành động của các thuật toán.
Tôi không nghĩ chúng ta nên xử phạt Twitter hay Facebook.
Nếu ai đó đăng một bài viết phân biệt chủng tộc, tôi sẽ rất cẩn thận khi xử phạt Facebook vì điều đó, vì vậy ai sẽ quyết định cái gì là phân biệt chủng tộc và những thứ tương tự.
Nhưng nếu thuật toán của Facebook cố tình phát tán một số lý thuyết âm mưu phân biệt chủng tộc, đó là thuật toán.
Đó không phải là tự do ngôn luận của con người.
Tuy nhiên, làm thế nào bạn biết đó là một lý thuyết âm mưu phân biệt chủng tộc?
Được rồi.
Nhưng khi nói đến các thuật toán cố ý, thường xuyên phát tán một loại thông tin nhất định như lý thuyết âm mưu, chúng ta có thể liên quan đến tòa án. Vấn đề chính là ai phải chịu trách nhiệm, rằng công ty phải chịu trách nhiệm cho những gì thuật toán đang làm chứ không phải cá nhân con người phải chịu trách nhiệm cho những gì họ đang nói.
Một sự phân biệt quan trọng khác ở đây là giữa riêng tư và công cộng. Một phần của vấn đề là sự xóa nhòa ranh giới giữa hai khái niệm này. Tôi nghĩ rằng con người có quyền được ngu ngốc trong không gian riêng tư. Trong không gian riêng tư của bạn, với bạn bè và gia đình, bạn có quyền được ngu ngốc. Bạn có thể nói những điều ngu ngốc. Bạn có thể kể những câu chuyện hài phân biệt chủng tộc. Bạn có thể kể những câu chuyện hài kỳ thị người đồng tính. Điều đó không tốt. Điều đó không hay. Nhưng bạn là một con người. Bạn có quyền làm điều đó. Nhưng không phải ở nơi công cộng. Ý tôi là, ngay cả đối với các chính trị gia, như một người đồng tính, nếu thủ tướng kể một câu chuyện hài kỳ thị người đồng tính trong không gian riêng tư, tôi không cần phải quan tâm đến điều đó. Đó là chuyện của họ. Nhưng nếu họ nói điều đó ở nơi công cộng trên truyền hình, đó là một vấn đề lớn.
Bây giờ, truyền thống, rất dễ để phân biệt giữa riêng tư và công cộng. Bạn ở trong ngôi nhà riêng của mình với một nhóm bạn bè. Bạn nói điều gì đó ngu ngốc, đó là riêng tư. Đó không phải là chuyện của ai cả. Bạn đi đến quảng trường thị trấn và đứng trên một bục và hét lên điều gì đó với hàng ngàn người. Đó là công cộng. Ở đây bạn có thể bị trừng phạt nếu bạn nói điều gì đó phân biệt chủng tộc hoặc kỳ thị người đồng tính hoặc gây sốc. Nhưng bạn dễ dàng nhận biết điều đó.
Bây giờ vấn đề là bạn đi, giả sử trên WhatsApp, bạn nghĩ rằng bạn chỉ đang nói chuyện với hai người bạn và bạn nói điều gì đó thật ngu ngốc. Và sau đó nó trở nên viral và lan truyền khắp nơi. Và tôi không có giải pháp dễ dàng cho điều đó. Nhưng một biện pháp mà một số chính phủ áp dụng là, chẳng hạn, những người có lượng người theo dõi lớn, họ phải chịu một tiêu chuẩn khác so với những người không có. Ngay cả điều cơ bản nhất là xác định bản thân bạn là một con người.
Chúng tôi không muốn mọi người phải có chứng nhận từ chính phủ để trò chuyện với bạn bè trên WhatsApp. Nhưng nếu bạn có 100.000 người theo dõi trực tuyến, chúng tôi cần biết rằng bạn không phải là một bot. Rằng bạn thực sự là một con người. Và một lần nữa, điều này không được bảo vệ bởi quyền tự do ngôn luận vì bot không có quyền tự do ngôn luận. Đây là một con dốc trơn, đúng không, vì tôi đã đi qua lại trong lập luận này về sự ẩn danh và liệu đó có phải là điều tốt hay xấu cho các mạng xã hội, và phản biện mà tôi nhận được khi tôi nghiêng về phía ý tưởng con người, là các chính phủ toàn trị sẽ sử dụng điều đó như một cách để trừng phạt những người đang nói về vấn đề này. Các chính phủ toàn trị đang làm điều đó cho dù chúng ta có thích hay không. Đây không phải là câu hỏi rằng nếu người Anh làm điều đó, thì người Nga sẽ nói, OK, vậy chúng tôi cũng sẽ làm. Người Nga đang làm điều đó dù sao đi nữa. Vậy người Mỹ bắt đầu làm điều đó. Họ bắt đầu, nếu ai đó lên tiếng chống lại Trump và ông ta có quyền truy cập vào danh tính và thông tin của họ, liệu ông ta có thể đi xem họ và cho họ bị bắt không? Nếu chúng ta đạt đến điểm mà các tòa án sẽ cho phép điều đó, thì chúng ta đã gặp rắc rối rất lớn rồi. Và điều chúng ta nên nhận ra là với công nghệ giám sát hiện có, một chính phủ toàn trị có rất nhiều cách để biết bạn là ai, điều đó không phải là vấn đề chính. Bạn đã nói về việc các nền tảng phải chịu trách nhiệm cho những hậu quả. Đúng vậy. Ở Vương quốc Anh trong tháng qua, chúng ta đã có, tôi không biết bạn có nghe không, bạo loạn và tôi nghĩ tất cả bắt nguồn từ khi có tin tức rằng ai đó đã giết một số trẻ em và có sự nhầm lẫn hoặc loại thông tin sai lệch xung quanh tôn giáo của người đó và điều đó có nghĩa là mọi người đã phản ứng. Vì vậy, đó là một ví dụ tuyệt vời vì nếu tôi cá nhân, riêng tư nói với chỉ hai người bạn của tôi, tôi nghĩ người đã làm điều đó là x, tôi không nghĩ bạn nên bị truy tố vì điều đó.
Tôi có thể nói điều đó trong phòng khách riêng của mình và cũng giống như khi tôi nói trên WhatsApp hoặc Facebook, nhưng nếu một thuật toán của Facebook phát hiện ra mẩu tin giả này và bắt đầu đề xuất nó cho ngày càng nhiều người dùng, thì Facebook phải chịu trách nhiệm cho hành động của các thuật toán của nó. Bạn nên có thể đưa điều này ra tòa và nói rằng thuật toán đã cố tình đề xuất một mẩu tin giả.
Và một lần nữa, nếu mẩu tin giả đó được sản xuất bởi một người có ảnh hưởng với một triệu người theo dõi, thì người đó cũng phải chịu trách nhiệm cho điều đó. Nhưng nếu một cá nhân tư nhân trong một bối cảnh riêng tư nói điều gì đó không đúng, đó là tin giả và sau đó một thuật toán cố tình lan truyền nó, thì lỗi chính nằm ở thuật toán và những người nên bị bỏ tù là các quản lý của công ty sở hữu thuật toán này chứ không phải cá nhân đã phát ngôn những lời đó.
Quay trở lại vấn đề bạo loạn, giả sử rằng, tôi không biết, The Guardian vào ngày xảy ra bạo loạn quyết định chọn một mẩu tin giả và đăng nó trên trang nhất. Và bây giờ họ đưa biên tập viên của The Guardian ra tòa và anh ta nói, nhưng tôi không viết nó, tôi chỉ tìm thấy mẩu tin giả này và quyết định đưa nó lên trang nhất của The Guardian.
Bây giờ, sẽ rất rõ ràng với chúng ta rằng biên tập viên đã làm một điều rất, rất, rất sai và anh ta hoặc cô ta có thể phải ngồi tù. Và đó không phải là vấn đề của người đã sản xuất mẩu tin giả ban đầu. Nếu bạn là biên tập viên của một trong những tờ báo lớn nhất trong nước và bạn quyết định đăng một điều gì đó trên trang nhất của mình, bạn nên rất, rất chắc chắn rằng những gì bạn đang đăng là sự thật, đặc biệt nếu nó có thể kích động bạo lực.
Làm thế nào mà một chủ sở hữu mạng xã hội có thể biết điều đó? Họ sẽ có thể xác minh rằng mọi thứ đều đúng ở quy mô đó như thế nào? Không phải mọi thứ, nhưng nếu, ví dụ, một điều gì đó có khả năng dẫn đến bạo lực, đó là một nguyên tắc phòng ngừa. Trước hết, không gây hại.
Một lần nữa, tôi không yêu cầu Facebook kiểm duyệt mẩu tin giả đó.
Tôi chỉ đang hỏi điều này, đừng để các thuật toán của bạn lan truyền nó một cách có chủ đích để thu hút người dùng và kiếm nhiều tiền.
Nếu bạn không chắc chắn về điều đó, thì đừng lan truyền nó.
Dễ như vậy thôi.
Làm sao nó biết đó là tin giả so với việc nó nghĩ rằng đó thực sự là tin tức quan trọng cứu sống?
Vì vậy, ví dụ, đó là trách nhiệm của công ty.
Một lần nữa, làm sao biên tập viên của The Guardian biết về Financial Times hoặc Sunday Times, làm thế nào họ biết điều gì là đúng và điều gì nên được xuất bản trên trang nhất?
Nếu bạn đang quản lý một công ty truyền thông xã hội, bạn đang quản lý một trong những tờ báo quyền lực nhất thế giới và bạn nên có cùng loại trách nhiệm và chuyên môn như vậy.
Nếu bạn không biết cách đánh giá liệu một thuật toán có nên đề xuất điều gì đó cho hàng triệu người hay không, bạn đang ở sai lĩnh vực.
Nếu bạn không thể chịu được áp lực, hãy rời khỏi bếp.
Đừng điều hành một công ty truyền thông xã hội.
Nếu bạn không biết điều gì nên được hiển thị cho hàng triệu người.
Một trong những điều rất quan trọng vì, rõ ràng, bức thư của Mark Zuckerberg mà ông ấy viết tuần này nói rằng, “Tôi đã được FBI tiếp cận và họ nói với tôi rằng Nga đang cố gắng ảnh hưởng đến cuộc bầu cử và họ đã cung cấp một số thông tin rằng có câu chuyện về chiếc laptop này, Joe Biden, Hunter Biden, con trai của Joe Biden, có câu chuyện về chiếc laptop này, mà Facebook không biết liệu nó có thật hay không và họ nghĩ có thể đó là một kế hoạch của Nga, tức là Nga đã đưa câu chuyện đó ra để cố gắng đảm bảo Joe Biden không thắng cuộc bầu cử.
Vì vậy, Facebook đã giảm độ ưu tiên cho nó, ngăn chặn nó lan truyền và đàn áp nó.
Hóa ra đó là một câu chuyện có thật và không phải là giả.
Và Mark Zuckerberg nói rằng ông ấy hối tiếc vì đã đàn áp nó vì thực sự đó là một câu chuyện có thật và trong việc đàn áp nó, ông ấy đã ảnh hưởng đến cuộc bầu cử ở một mức độ nào đó.
Vì vậy, điều này phức tạp đến mức tôi chỉ không thể…
Thật phức tạp để điều hành một công ty truyền thông lớn.
Nếu bạn làm…
Thật phức tạp khi điều hành Wall Street Journal hoặc Fox News, và rồi điều gì sẽ xảy ra nếu FBI đến Fox News hoặc Wall Street Journal và nói với họ, “Nhìn này, có một câu chuyện được cài cắm bởi người Nga, đừng khuyến khích nó.”
Và sau đó, hóa ra điều đó là sai.
Điều đó có thể xảy ra.
Và với tư cách là người quản lý của Wall Street Journal, bạn cần phải xử lý nó.
Và tôi có tin tưởng FBI trong những điều kiện nào?
Đôi khi họ nên.
Đôi khi họ nên nghi ngờ.
Tôi cảm thấy bạn sẽ kết thúc trong tù, biên tập viên của Wall Street Journal.
Bạn sẽ kết thúc trong tù dù bằng cách nào, vì dù sao bạn cũng đang ảnh hưởng đến các cuộc bầu cử và nếu bạn ảnh hưởng…
Nhưng đó là công việc.
Vấn đề thực sự là khi bạn có những người cực kỳ quyền lực như Zuckerberg hoặc Elon Musk giả vờ rằng họ không có quyền lực, rằng họ không có ảnh hưởng, rằng họ không định hình các cuộc bầu cử, chúng ta đã biết từ hàng thế kỷ rằng các chủ sở hữu và biên tập viên của các tờ báo, họ định hình các cuộc bầu cử và do đó chúng ta yêu cầu họ tuân thủ một số tiêu chuẩn nhất định.
Và bây giờ các chủ sở hữu và quản lý của các nền tảng như Twitter, YouTube và Facebook, họ có quyền lực nhiều hơn cả New York Times hay Guardian hay Wall Street Journal.
Và họ nên bị yêu cầu chịu trách nhiệm ít nhất ở mức độ tương tự.
Và cái trò của họ rằng, “Ôi, chúng tôi chỉ là một nền tảng.
Chúng tôi chỉ cho phép mọi người xuất bản những gì họ muốn.
Nó không hoạt động như vậy.”
Và chúng ta không chấp nhận điều đó với các phương tiện truyền thông truyền thống.
Vậy tại sao chúng ta nên chấp nhận điều đó?
Đó là toàn bộ mánh khóe của những công ty công nghệ này mà một lần nữa, chúng ta có hàng nghìn năm lịch sử và họ nói với chúng ta, “Ôi, điều đó không áp dụng cho chúng tôi.”
Giống như nếu bạn có một ngành công nghiệp truyền thống như ô tô, điều đó rõ ràng với mọi người, bạn không thể đưa một chiếc ô tô mới ra đường trừ khi bạn đã thực hiện một số kiểm tra an toàn để đảm bảo chiếc ô tô đó an toàn.
Bạn không thể đưa một loại thuốc mới ra thị trường hoặc một loại vắc xin mới ra thị trường mà không có sự an toàn.
Điều đó rõ ràng, đúng không?
Nhưng khi nói đến các thuật toán, không, không, không, không, đó là một bộ quy tắc khác. Bạn có thể đưa bất kỳ thuật toán nào bạn muốn ra thị trường. Bạn không cần bất kỳ quy tắc an toàn nào. Và thậm chí còn cơ bản hơn thế, bạn nghĩ về điều gì đó như là trộm cắp. Bạn có 10 điều răn, không được trộm. Và bạn biết đấy, mọi người biết, đúng, bạn không nên trộm cho đến khi nó liên quan đến thông tin. Ôi, không, không, không, không, điều đó không áp dụng cho thông tin. Tôi có thể lấy thông tin của bạn và không cần sự cho phép của bạn, làm đủ loại việc với nó và bán cho bên thứ ba. Và điều này không phải là trộm cắp. Không được trộm không áp dụng cho lĩnh vực kinh doanh của tôi. Và đây là những gì các ông lớn công nghệ đã làm trong nhiều trường hợp trong suốt thập kỷ qua hoặc hai thập kỷ qua, nói với chúng ta rằng lịch sử không áp dụng cho họ, rằng tất cả những trí tuệ mà nhân loại đã đạt được một cách rất đau đớn qua nhiều thế kỷ và hàng ngàn năm đối phó với các chế độ độc tài và những thứ khác, không áp dụng cho công nghệ mới. Và điều đó thì có. Nó có áp dụng. Bạn có bao giờ cảm thấy cám dỗ để chỉ đăng xuất và sống ở một cánh đồng nào đó, có thể là một sa mạc, có thể chỉ tạo ra một chút giáo phái và tôi làm điều đó mỗi năm không? Ôi, thật sao? Vâng, tôi tham gia một khóa thiền dài từ 30 đến 60 ngày. Như năm nay, tôi dự định vào tháng 12, sau khi tour sách kết thúc, sẽ tham gia khóa thiền 60 ngày ở Ấn Độ và hoàn toàn ngắt kết nối, không smartphone, không internet, thậm chí không có sách hay giấy viết, chỉ là nhịn thông tin. Tại sao? Điều đó tốt cho tâm trí. Một lần nữa, giống như với thực phẩm, quá nhiều không tốt cho chúng ta. Chúng ta cần thời gian để tiêu hóa và giải độc. Và điều đó cũng đúng với tâm trí. Nếu bạn cứ tiếp tục bắn phá nó với nhiều thông tin hơn, bạn sẽ nghiện những thứ sai lầm. Bạn phát triển những thói quen xấu và bạn cần, hoặc ít nhất tôi cần, thời gian nghỉ ngơi để thực sự tiêu hóa mọi thứ đã xảy ra và quyết định những gì tôi muốn và những gì tôi không muốn, những thói quen, sự nghiện ngập nào tôi nên cố gắng từ bỏ. Và cũng để hiểu rõ tâm trí của chính mình.
Khi tâm trí liên tục bị tấn công bởi thông tin từ bên ngoài, nó trở nên ồn ào đến mức bạn không thể hiểu nó vì có quá nhiều tiếng ồn. Nhưng khi tiếng ồn biến mất, bạn có thể bắt đầu hiểu tâm trí là gì? Nó hoạt động như thế nào? Nó hoạt động ra sao? Những suy nghĩ đến từ đâu? Nỗi sợ hãi là gì? Cơn giận là gì? Khi bạn đang sôi sục với cơn giận vì một điều gì đó mà bạn vừa đọc, bạn tập trung vào đối tượng của cơn giận, nhưng bạn không thể hiểu cơn giận chính nó, cơn giận kiểm soát bạn. Khi bạn thực hiện một cuộc nhịn thông tin, bạn có thể chỉ quan sát điều gì xảy ra với bạn khi bạn tức giận. Điều gì xảy ra với tâm trí của tôi, với cơ thể của tôi? Nó kiểm soát tôi như thế nào? Và điều này quan trọng hơn bất kỳ câu chuyện tức giận nào trên thế giới, để hiểu cơn giận thực sự là gì. Điều này rất, rất khó. Có bao nhiêu lần mọi người dừng lại và chỉ cố gắng hiểu cơn giận của họ, chứ không phải đối tượng của cơn giận? Đây là điều mà chúng ta làm mọi lúc. Chúng ta như đang phát lại. Chúng ta nghe thấy điều gì đó khủng khiếp mà một chính trị gia mà chúng ta không thích, tôi không biết, ai đó đang tức giận về Trump. Vì vậy, anh ta sẽ phát lại nó và nói, “Ôi, anh ta đã nói như thế này, anh ta đã làm như thế này, anh ta sẽ làm điều này, anh ta sẽ làm điều kia.” Và bạn không hiểu cơn giận của mình theo cách đó. Hiện tại, tôi có khoảng 50 công ty khác nhau trong danh mục đầu tư của mình tại Flight Group. Một số trong số đó tôi đã đầu tư, và một số tôi đã đồng sáng lập hoặc tự mình sáng lập. Một điều tôi nhận thấy là hầu hết các công ty không bỏ đủ nỗ lực vào quy trình tuyển dụng. Trong tâm trí tôi, điều đầu tiên và quan trọng nhất trong kinh doanh là tập hợp nhóm người của bạn, vì định nghĩa của từ công ty là nhóm người. Và trong tất cả các công ty của tôi, bất cứ khi nào tôi tìm kiếm ai đó để tuyển dụng, điểm dừng chân đầu tiên của tôi là việc làm trên LinkedIn, vì vậy tôi vui mừng nói rằng tôi cũng là một nhà tài trợ cho podcast này. Họ đã giúp chúng tôi tìm kiếm những chuyên gia mà chúng tôi thực sự không thể tìm thấy ở nơi nào khác, ngay cả những người không đang tích cực tìm kiếm một công việc mới, nhưng có thể sẵn sàng cho một vai trò hoàn hảo.
Trên thực tế, hơn 70% người dùng LinkedIn không truy cập vào các trang web việc làm hàng đầu khác, vì vậy nếu bạn không tìm kiếm trên LinkedIn, có lẽ bạn đang tìm kiếm ở nơi không đúng.
Vì vậy, hôm nay, tôi sẽ tặng cộng đồng Diary of a CEO một bài đăng việc làm miễn phí trên LinkedIn. Hãy truy cập LinkedIn.com/doacnow và cho tôi biết bạn đã trải nghiệm như thế nào, các điều khoản và điều kiện áp dụng.
Thật thú vị, tôi đã tưởng tượng ra những kịch bản trong đầu khi bạn nói về tương lai mà ở đó gần như có hai loài người.
Bạn có một loài người được kết nối với thông tin qua mạng internet, thông qua liên kết thần kinh trong não của họ. Họ như bị cuốn hút, và thuật toán đang cung cấp thông tin cho họ, họ hành động dựa trên nó và họ cũng cung cấp lại thông tin.
Và sau đó bạn có một nhóm người khác đã quyết định từ chối điều đó, những người không có liên kết thần kinh, những người không cố gắng tương tác với AI, và đang sống trong một bộ lạc ở một khu rừng nào đó.
Bạn gái tôi đã nói với tôi điều này nhiều năm trước, cô ấy nói: “Tôi nghĩ sẽ có một sự phân chia.”
Và tôi kiểu như, không sao cả. Nhưng bây giờ tôi nhận ra, tôi có thể thấy lý do, khi mọi thứ trở nên cực đoan hơn, bạn chỉ cần nói: “Bạn biết không, tôi sẽ đưa ra một quyết định ở đây.”
Đặc biệt khi tôi thấy liên kết thần kinh mà Elon Musk đang làm việc cho phép bạn điều khiển máy tính bằng não của mình, tôi đã ngồi xuống.
Máy tính để điều khiển não của bạn cũng vậy, nó hoạt động theo cả hai chiều.
Đúng vậy, nó hoạt động theo cả hai chiều. Bạn đúng, tôi thực sự không nghĩ về điều đó.
Nhưng tôi chỉ tưởng tượng, và đây là một câu hỏi cho tất cả mọi người đang lắng nghe, nếu có bạn và tôi, và tôi có chip trong não của mình mà giờ đây con người đang có trong não để điều khiển máy tính, tôi là một loài khác với bạn vì tôi có thể điều khiển chiếc xe của mình ở dưới, tôi có thể điều khiển đèn trong phòng này, tôi có thể hỏi não của mình những câu hỏi và nhận được câu trả lời.
IQ của tôi trở thành 5.000, còn của bạn vẫn là 150, hoặc 200, có lẽ của bạn là 250.
Nhưng tôi là một loài khác với bạn, tôi có một lợi thế cạnh tranh rất lớn so với bạn đến nỗi nếu bạn không có chip thì bạn sẽ gặp rắc rối. Đó là sự phân hóa loài. Đúng vậy. Một lần nữa, ở quy mô nhỏ, chúng ta đã thấy điều này trong lịch sử, có những người đã chấp nhận tài liệu viết và những người đã từ chối nó, và họ không còn ở đây nữa. Bởi vì những người đã chấp nhận tài liệu viết, họ đã xây dựng những vương quốc và đế chế này và họ đã chinh phục tất cả những người khác. Nhưng chúng ta đang gặp nguy hiểm với điều tương tự xảy ra, và đây không phải là điều tốt, vì không phải cuộc sống tốt hơn cho những người có tài liệu. Trong nhiều trường hợp, cuộc sống tốt hơn cho những người săn bắn hái lượm sống trước đó. Vậy giải pháp là gì? Nếu tôi phải, bạn biết đấy, sau khi đọc cuốn sách của bạn, cuốn sách tuyệt vời, Nexus, một lịch sử ngắn về thông tin từ Thời kỳ Đá đến AI, giải pháp là gì? Làm thế nào để chúng ta ngăn chặn các vấn đề liên kết, tất cả chúng ta trở thành kẹp giấy, sự hỗn loạn xã hội, thông tin sai lệch, bức màn silicon như bạn đã nói trong cuốn sách? Làm thế nào để chúng ta ngăn chặn những điều này chỉ kéo chúng ta đi? Có hy vọng không? Bạn có lạc quan không? Ý tôi là, chìa khóa là sự hợp tác, là sự kết nối giữa con người. Ý tôi là, con người vẫn mạnh mẽ hơn AI. Vấn đề là chúng ta đã chia rẽ nhau, và các thuật toán vô tình đang gia tăng sự chia rẽ. Một lần nữa, đây là quy tắc cổ xưa nhất của mọi đế chế là chia rẽ và cai trị. Đây là quy tắc của người La Mã, của Đế chế Anh. Nếu bạn muốn cai trị một nơi, bạn chia rẽ người dân của nơi đó chống lại nhau, và sau đó thật dễ dàng để thao túng và kiểm soát họ. Điều này hiện đang xảy ra với toàn bộ loài người với AI, rằng cũng như chúng ta đã có một kiểu Bức màn Sắt trong Chiến tranh Lạnh, giờ đây chúng ta có Bức màn Silicon, chia rẽ không chỉ Trung Quốc với Hoa Kỳ, mà còn cả Đảng Dân chủ với Đảng Cộng hòa, cũng như một người với một người khác, và tất cả chúng ta với AI, những thứ ngày càng đưa ra quyết định về tất cả những điều đó.
Chúng ta vẫn có khả năng trong, tôi không biết, năm năm, 10 năm, 20 năm để đảm bảo rằng nó không đi theo hướng dystopian, nhưng để làm được điều đó, chúng ta cần hợp tác. Bạn có lạc quan không? Tôi cố gắng là một người thực tế. Ý tôi là, vài ngày qua, tôi vừa trở về từ Israel, và tôi thấy một đất nước tự hủy hoại mình, không vì lý do gì tốt cả. Đó là một đất nước đã nhấn nút tự hủy, và không có lý do chính đáng, và điều đó có thể xảy ra trên quy mô toàn cầu. Bạn có nghĩa là nó đã nhấn nút tự hủy như thế nào? Không chỉ là cuộc chiến giữa người Israel và người Palestine, mà còn là xã hội Israel đang quay lưng lại với chính mình, sự chia rẽ và thù hận ngày càng gia tăng. Và nó giống như một cái hố tối tăm của sự tức giận và bạo lực, đang hút ngày càng nhiều người vào. Trên khắp thế giới, giờ đây bạn cảm nhận được những sóng chấn động từ cái hố tối tăm này ở Trung Đông. Và không có lý do chính đáng nào cả. Không có lý do khách quan, nếu tôi nói về cuộc xung đột Israel-Palestine. Không có lý do khách quan cho điều đó. Không phải là không có đủ đất giữa Địa Trung Hải và sông Jordan để mọi người phải chiến đấu vì mảnh đất nhỏ bé đó, hay là không có đủ thực phẩm. Có đủ thực phẩm cho mọi người ăn. Có đủ đất để xây nhà, bệnh viện và trường học cho mọi người. Tại sao mọi người lại chiến đấu? Bởi vì những câu chuyện khác nhau trong tâm trí họ. Họ có những huyền thoại khác nhau rằng Chúa đã ban cho toàn bộ nơi này chỉ cho chúng ta. Bạn không có quyền ở đây. Và họ chiến đấu vì điều đó. Đây là một bi kịch địa phương, nguyên thủy. Nó có thể xảy ra trên quy mô toàn cầu. Một lần nữa, nếu điều gì đó cuối cùng tiêu diệt chúng ta, đó sẽ là những ảo tưởng của chính chúng ta, chứ không phải là các AI. Các AI, chúng có cơ hội vì những điểm yếu của chúng ta, vì những ảo tưởng của chúng ta. Yvon, cảm ơn bạn rất nhiều vì đã viết một cuốn sách. Tôi nghĩ cuốn sách này là một trong những cuốn sách được viết đúng thời điểm nhất mà tôi từng gặp phải vì tất cả những gì đang xảy ra trên thế giới ngay bây giờ.
Nó thực sự đã giúp tôi hiểu rằng vấn đề không nhất thiết là tôi chống lại bạn nếu bạn ở phía bên kia. Vấn đề là thông tin, các mạng lưới thông tin mà chúng ta tiêu thụ, ai đang kiểm soát những mạng lưới thông tin đó. Có ai đó đang thao túng chúng ta để đứng về hai phía khác nhau, không chỉ để đứng về hai phía khác nhau, mà còn để nhìn nhau như kẻ thù. Và ngay bây giờ, đó là một người. Nhưng có thể không phải như vậy. Sớm thôi, có thể không phải là một người, không. Và hiểu điều đó, tôi nghĩ, giúp chúng ta tập trung vào nguyên nhân gốc rễ của những vấn đề đôi khi khó xác định. Tôi nghĩ vấn đề là hàng xóm của tôi. Tôi nghĩ đó là người có màu da khác. Nhưng thực sự, nếu bạn nhìn sâu hơn một cấp độ, đó là các mạng lưới thông tin và những gì tôi đang tiếp xúc đã tẩy não tôi và tạo ra những câu chuyện đó. Và như bạn đã nói trong cuốn sách trước của mình, những câu chuyện cuối cùng là những gì đang điều hành thế giới. Và cuốn sách tuyệt vời này, Nexus, thực sự là một cuốn sách tuyệt vời và là một thời điểm tuyệt vời giúp chúng ta tiếp cận kiến thức về sức mạnh của thông tin và cách nó ảnh hưởng đến nền dân chủ, các mối quan hệ, xã hội, kinh doanh và mọi thứ ở giữa theo cách mà tôi hy vọng sẽ dẫn đến hành động. Và tôi nghĩ đó là điều đáng lạc quan. Vâng. Và cuối cùng, tôi nghĩ hầu hết con người đều tốt, những người tốt. Khi bạn cung cấp cho mọi người thông tin sai, họ sẽ đưa ra những quyết định sai. Vấn đề không phải ở con người, mà là ở thông tin. Amen. Yvonne, chúng ta có một truyền thống kết thúc trong podcast này, nơi khách mời cuối cùng để lại một câu hỏi cho khách mời tiếp theo mà không biết họ sẽ để lại cho ai. Ồ, được rồi. Và câu hỏi được để lại cho bạn là, mạnh mẽ có nghĩa là gì? Chấp nhận thực tế như nó là, đối phó với thực tế mà không cố gắng che giấu, biến mất hay đặt một lớp màn lên nó. Thật thú vị. Tôi nghĩ bạn đúng. Tôi nghĩ bạn đúng. Chắc chắn không phải là câu trả lời mà tôi sẽ đưa ra, nhưng, bạn biết đấy, bạn sẽ nói gì? Ồ, tôi sẽ nói gì?
Tôi đoán có lẽ tôi sẽ nói về sự kiên trì trước nhiều khó khăn khác nhau. Đây là thông tin, nhưng đó chỉ là ý tưởng về việc kiên trì hướng tới bất kỳ mục tiêu chủ quan nào của bạn, bất chấp và mặc kệ nhiều khó khăn khác nhau. Có thể sức mạnh đó là việc nuôi dạy một đứa trẻ hoặc có thể là việc đến phòng tập gym hay bất cứ điều gì khác. Nhưng tôi cũng thích định nghĩa của bạn, vì tôi nghĩ nó quan trọng hơn rất nhiều trong thời đại mà chúng ta đang sống.
Và thành thật mà nói, với tư cách là một podcast, đôi khi bạn cảm thấy như mình bị mắc kẹt ngay giữa tất cả, bởi vì tôi nghĩ mọi người đang cố gắng tìm hiểu xem liệu tôi có đứng về cánh hữu hay cánh tả. Nếu tôi tin vào điều này, nếu tôi ủng hộ mọi khách mời mà tôi ngồi cùng, và bạn gần như phải cố gắng giữ trung lập, nhưng điều đó rất, rất khó để mọi người hiểu, vì họ muốn bạn phải thuộc về một bên nào đó, và họ muốn điều đó. Đó là sự yếu đuối. Ý tôi là, có rất nhiều người tự nhận mình rất mạnh mẽ, ngưỡng mộ sức mạnh như một giá trị, nhưng họ không thể đối mặt với những phần của thực tại không phù hợp với thế giới quan hoặc mong muốn của họ. Họ nghĩ rằng sức mạnh là, tôi có sức mạnh để làm cho những phần của thực tại này biến mất. Và không, đó là sự yếu đuối. Xin lỗi vì đã quay lại vấn đề đó, nhưng đây cũng là chiến tranh, như chiến tranh là cố gắng làm biến mất một phần của thực tại mà bạn không thích. Trong trường hợp này, một dân tộc hoàn toàn, tôi không thích những người này. Tôi không nghĩ họ nên tồn tại trong thực tại. Vì vậy, tôi cố gắng làm cho họ biến mất. Và mọi người nói, ôi, anh ấy là một nhà lãnh đạo rất mạnh mẽ. Anh ấy không phải. Anh ấy là một nhà lãnh đạo rất yếu đuối. Một nhà lãnh đạo mạnh mẽ sẽ có thể thừa nhận, không, những người này tồn tại. Họ là một phần của thực tại. Bây giờ hãy tìm cách sống cùng họ. Amen.
Cuốn sách của bạn, Nexus, một lịch sử ngắn gọn về các mạng thông tin từ Thời kỳ Đá đến AI, là một cuốn sách phải đọc cho tất cả những ai nghe podcast này và có bất kỳ mối quan tâm nào về những chủ đề này.
Nó được ủng hộ bởi hai người mà tôi yêu thích, Mustafa Solomon, nhưng cũng bởi Stephen Fry và Roy Street. Anh ấy cũng là một người tuyệt vời. Và nó được ủng hộ vì một lý do rất tốt, bởi vì đây là một cuốn sách hoàn toàn mở rộng tư duy, được viết bởi một người chỉ viết những cuốn sách xuất sắc thay đổi văn hóa. Vì vậy, tôi sẽ để liên kết bên dưới và tôi rất khuyên bất kỳ ai đã nghe cuộc trò chuyện này và quan tâm đến chủ đề này hãy đi và mua cuốn sách này ngay bây giờ. Nó hiện có sẵn để đặt trước và sẽ được giao trong năm ngày tới khi nó phát hành. Hãy là người đầu tiên đọc nó và hy vọng sẽ là người đầu tiên hiểu và thực hiện một số điều mà bạn học được trong cuốn sách này. Yvonne, cảm ơn bạn rất nhiều vì thời gian của bạn. Cảm ơn bạn. Điều này có tuyệt không? Mỗi cuộc trò chuyện tôi có ở đây trong Nhật ký của một Giám đốc điều hành, ở cuối cuộc trò chuyện, bạn sẽ biết, tôi đã hỏi khách mời để lại một câu hỏi trong Nhật ký của một Giám đốc điều hành và những gì chúng tôi đã làm là biến mọi câu hỏi được viết trong Nhật ký của một Giám đốc điều hành thành những thẻ trò chuyện mà bạn có thể chơi ở nhà. Vì vậy, bạn có mọi khách mời mà chúng tôi đã từng có, câu hỏi của họ và ở mặt sau, nếu bạn quét mã QR đó, bạn sẽ xem được người đã trả lời câu hỏi đó. Họ cuối cùng tiết lộ tất cả các câu hỏi và những người đã trả lời câu hỏi. Phiên bản mới nhất của thẻ trò chuyện phiên bản 2 đã có mặt ngay bây giờ tại theconversationcards.com. Chúng đã bán hết hai lần ngay lập tức. Vì vậy, nếu bạn quan tâm đến việc sở hữu một số thẻ trò chuyện phiên bản giới hạn, tôi thực sự, thực sự khuyên bạn nên hành động nhanh chóng. Cảm ơn bạn.
問題在於我們彼此分裂,而算法正利用我們的弱點對付我們。
這是非常危險的,因為一旦你相信那些思考方式與你不同的人是你的敵人,民主就會崩潰,選舉將像一場戰爭。
所以,如果有什麼最終摧毀我們,那將是我們自己的妄想,而不是人工智慧。
我們在美國有一場重大的選舉。
是的,美國的民主非常脆弱。
但最大的问题是,如果…
肯定這永遠不會發生。
你這個秃头的連·哈拉瑞,當今世界上一些最有影響力的非小說書籍的作者,現在正站在探索人工智慧這一世界塑造力量的最前沿,這正超越了人類曾經面對的一切。
作為世界上的社交網絡,他們將有效地追求言論自由。
你怎麼看?
問題不在於人類。
問題在於算法。
讓我來解釋一下。
在2010年代,算法之間為人類注意力展開了一場巨大的競爭。
現在算法發現,從歷史中看,吸引人類注意力的最簡單方法就是按下恐懼、仇恨和貪婪的按鈕。
問題在於算法所定義的目標與人類社會的利益之間存在著不一致。
但這就是讓人感到不安的地方。
因為如果給一個原始的社交媒體算法錯誤的目標造成了如此多的損害,那麼在未來20或30年,人工智慧會帶來什麼樣的結果?
那麼解決方案是什麼?
我們在歷史上曾多次處於這種情況,而答案始終相同,即…
你樂觀嗎?
我儘量保持現實主義。
這是一句我從未想過會在我的一生中說出來的話。
我們的YouTube訂閱人數剛剛達到700萬,想對每一位每週一和每週四來這裡觀看我們對話的觀眾表示衷心的感謝。
發自內心的感謝,也代表我的團隊,雖然你們並不總能見到他們,現在在《首席執行官日記》背後大約有50人工作,來把這一切整理出來。
所以,代表我們所有人,真誠地謝謝你們。
我們上個月舉辦了抽獎活動,並且給那些訂閱了節目的觀眾贈送了獎品,直到達到700萬訂閱者。
你們非常喜歡那次抽獎,所以我們決定續辦。
所以每個月,我們將贈送無法用金錢購買的獎品,包括與我會面的機會、邀請參加我們的活動,以及給所有訂閱《首席執行官日記》的人發放價值一千英鎊的禮品券。
現在有超過700萬的你們。
但如果你今天決定訂閱,你可能就是那些幸運的人之一。
由衷地感謝你們。
讓我們進入對話。
十年前,你製作了一個名為《為什麼人類運行世界》的視頻。
這是一個非常著名的TED演講。
在閱讀了你的新書《Nexus》後,我想問你一個稍微改編過的問題,那就是,你還相信十年後人類將根本上掌控世界嗎?
我不確定。
這取決於我們在未來幾年中所做出的決策,但有可能答案是否定的,即在十年內,算法和人工智慧將掌控世界。
我並不是想象某種好萊塢的科幻場景,即有一台大電腦征服世界,而更像是人工智慧的官僚體系,我們將在銀行、政府、企業、大學等地方有數以百萬計的人工智慧官僚,對我們的生活作出越來越多的決策,每天都在做出是否給我們提供貸款、是否接受我們工作的選擇,而我們將越來越難以理解算法拒絕給我們貸款的邏輯和理由,為什麼算法接受了其他求職者,而儘管仍然有民主制度,人們在為這位總統或這位首相投票,但如果大多數決策都是由人工智慧做出的,而人類,包括政治人物,卻很難理解為什麼人工智慧做出某一特定決策,那麼權力將逐漸從人類轉移到這些新的外星智慧上。
外星智慧?
是的,我更喜歡將人工智慧視為外星智慧,我知道這個縮寫是人工智能,但我認為將其視為外星智慧更為準確,不是來自外太空的意思,而是它以與人類心靈根本不同的方式做出決策。
人工這個詞意味著我們設計它,我們控制它,人工的東西是由人類製造的。
隨著每年過去,人工智慧變得越來越不人工,越來越外星。
是的,我們仍然設計那些初生的人工智慧,但接著它們學習、改變,並開始做出意想不到的決策,並開始提出對人類的做事方式來說是外星的新想法。
有這樣一個著名的例子,2016年,AlphaGo擊敗了圍棋世界冠軍李世石,但驚人的地方在於它的做法,因為人類已經下圍棋2500年。
一種棋盤遊戲。
一種棋盤遊戲,一種在古代中國發展的策略遊戲,被認為是任何東亞文化人必須知道的基本藝術之一。
數以千萬計的中國人、韓國人和日本人在幾個世紀以來下圍棋。
圍棋周圍發展出了完整的哲學,關於如何下棋。
這被認為是對政治和生活的一種良好準備。
人們認為他們探索了整個圍棋的領域,整個地理景觀。
然後AlphaGo出現,告訴我們其實在過去2500年中,人們只探索了圍棋風景中的一小部分。
有完全不同的策略來玩這個遊戲,而在超過兩千年的遊戲歷史中,卻沒有一個人類想出來。 而 AlphaGo 在短短幾天內就想到了這一點。 所以這是外星智慧。 如果這只是一場遊戲,那麼同樣的事情可能也會發生在金融、醫療和宗教領域,不論是好是壞。 你寫了這本書,《連結》。 《連結》。 這個詞怎麼發音? 連結。 我不是發音專家。 你本可以寫很多本書。 你是一個我認為對生命的本質以及歷史的本質廣泛好奇的人。 為你寫一本如此詳盡而全面的書,肯定有著非常強烈的理由,為什麼這本書現在必須由你來撰寫。 那是為什麼呢? 因為我認為我們需要對 AI 革命有一個歷史視角。 我的意思是,有很多書是關於 AI 的,但《連結》不是一本關於 AI 的書,而是一本關於資訊網絡的長期歷史的書。 我認為要理解 AI 的真正新穎和重要之處,我們需要從幾千年前回顧,以查看以往的資訊革命,如寫作的發明、印刷機和廣播。 只有這樣,你才真正開始理解我們現在周圍發生的事情。 例如,有一件事你會明白,那就是 AI 的確是非常不同的。 人們將它與以往的革命進行比較,但它不同,因為它是人類歷史上第一項能獨立做出決策並創造新想法的技術。 印刷機可以打印我的書,但它無法寫作。 它只能複製我的想法。 原子彈可以摧毀一座城市,但它無法自己決定要轟炸哪座城市或為什麼要轟炸它。 而 AI 可以做到這一點。 而且目前圍繞 AI 有很多炒作,所以人們感到困惑,因為他們現在試圖將所有東西都標榜為 AI。 比如你想將這張桌子賣給某人,喔,這是一張 AI 桌子。 而這水,這是 AI 水。 那麼人們會問,AI 是什麼? 一切都是 AI。 不,不是所有的東西。 外面有很多自動化的東西,但那並不是 AI。 如果你想到一台為你煮咖啡的咖啡機,它是自動運作的,但它不是 AI。 它是由人類預先編程,以執行特定的任務,並且它永遠無法自我學習或改變。 一台咖啡機會成為 AI,當你早上來到咖啡機時,機器告訴你:「嘿,根據我對你的了解,我猜你會喜歡喝濃縮咖啡。」 它學習了一些關於你的東西,並做出獨立的決策。 它不會等著你要求喝濃縮咖啡。 如果它告訴你,我剛想出一款新飲品,叫做 Bofi,我覺得你會喜歡,那真的是 AI。 當它提出完全新的想法,而這些想法並不是我們編程進去的,也不是我們預見的時候。 這是在歷史上的一個變革。 它比印刷機更偉大。 它比原子彈更偉大。 你說我們需要歷史視角,你認為自己是一位歷史學家嗎? 是的,我的職業是歷史學家。 這有點… 在我的訓練中,我最初是一名中世紀軍事歷史專家。 我寫過十字軍東征和百年戰爭,以及 14 世紀侵略法國的英軍的戰略和後勤。 這是我最初的文章。 而這也是我想用來理解現在 AI 所發生事情的視角或知識。 因為大多數人對 AI 是什麼的理解,來自於他們玩弄大型語言模型,如 chat GPT、Gemini 或 Grock 之類的東西。 那是他們對它的理解。 你可以問它一個問題,它會給你一個答案。 這真的是人們對 AI 的看法,因此很容易對此感到有些自滿,或者看到這一技術轉變是微不足道的。 但當你開始講述信息,以及信息流和信息網絡的破壞,當你將它帶回歷史,並給我們這個事實的視角,即信息實際上把我們所有人緊密地黏合在一起,那麼這對我來說開始變得完全不同。 我的意思是,我對此有兩種看法。 一種方式是當你意識到,就像你所說的,信息是所有事物的基礎時,當你開始搖動這個基礎時,一切都可能崩潰或改變,或者出現新的東西。 例如,民主僅僅是由信息技術所使之成為可能。 民主的本質是一場對話,一群人在對話、交談、試圖共同做出決策。 獨裁則是一個人全權決定一切。 一個人獨裁一切就是獨裁。 民主就是對話。 現在,在石器時代,生活在小團體中的獵人采集者大多是民主的。 每當團體需要決定任何事情時,他們可以彼此交談並做出決定。 隨著人類社會的發展變得更大,技術上保持對話的變得越來越困難。 所以我們從古代世界獲得的唯一幾個民主例子是小城市國家,例如雅典或共和國羅馬。 這是最著名的兩個例子,不是唯一的,但最著名的。 即使是古人,像柏拉圖和亞里士多德這樣的哲學家,他們知道一旦超過城市國家的層面,民主就變得不可能。 我們在前現代世界中不知道大規模民主的單一例子。 數百萬人散布在大領土上,以民主方式進行政治事務。 為什麼? 不是因為這個或那個獨裁者獲得了權力。 而是因為民主根本不可能。 當你沒有合適的技術時,數百萬人之間是無法進行對話的。
大規模的民主制度只有在現代晚期才成為可能,當時出現了幾種信息技術,首先是報紙,接著是電報、廣播以及電視,這些技術使大規模民主成為可能。
所以民主並不是說你有民主,而情報技術則是在旁邊的東西。不,民主的基礎就是信息技術。因此,當信息技術發生一些震盪時,例如社交媒體的崛起或人工智能的崛起,這無疑會動搖民主。我們現在在世界各地看到的是,我們擁有歷史上最先進的信息技術,但人們卻無法相互交流。民主對話正在崩潰。
每個國家都有自己的解釋,比如你跟美國人談論,民主黨和共和黨之間到底發生了什麼?為什麼他們連最基本的事實都無法達成共識?他們會給你解釋美國歷史和社會的獨特條件,但你在巴西也能看到同樣的現象。在法國和菲律賓也同樣如此。因此,這不可能是這個或那個國家的獨特條件,而是潛在的技術革命。
歷史中還有另一點,我從歷史中帶來的是,即使是相對較小的技術變革,或看似微小的變化都能產生深遠的後果。想想寫作的發明,最初基本上是人們在玩泥巴。我是說,寫作首次被發明是在許多地方,但第一次出現在古美索不達米亞,人們用粘土板,也就是基本的泥巴,拿著一根棍子在泥巴上劃出標記。這就是寫作的發明,並且產生了深遠的影響。
舉一個簡單的例子,想一想擁有權。擁有某樣東西意味著什麼?例如我擁有一所房子,我擁有一塊田地。在書面語言出現之前,如果你住在大約7000年前的小美索不達米亞村莊,擁有一塊田地是社區的事情。這意味著鄰居們同意這塊田地是你的,他們不會在那裡採摘水果,也不會讓羊在那裡吃草,因為大家同意這是你的。這是一種社區協議。
然後,寫作出現後,你有了書面文件,擁有權的意義發生了變化。現在擁有一塊田或一棟房子意味著在國王的檔案中有一塊乾泥,上面有標記說明你擁有那塊田地。因此,突然之間,擁有權不再是鄰居之間的社區協議,而是關於哪份文件存放在國王的檔案裡。
這也意味著,比如說,你可以不經鄰居的同意,將你的土地賣給一個陌生人,只需將這塊乾泥換成黃金或白銀或其他什麼。這是多麼巨大的變化,一個看似簡單的發明,就像用棍子在一塊泥巴上畫幾個符號,如今想想人工智能會如何影響擁有權,可能會意味著擁有你的房子的權利將取決於某個人工智能告訴你,你擁有它。如果人工智能突然告訴你不再擁有,無論出於什麼原因,甚至你都不知道,那就是了。那已不再是你的。
那個泥巴上的標記也是書面語言的發明。我當時在讀你的書時思考,語言是如何將我們的社會聯繫在一起的,不是我們通常認為的那種,比如我和你進行對話,而是像銀行的密碼,我們整個社會是如何藉由語言來保護的。而人工智能所掌握的東西,正是大型語言模型所具備的能力,能夠複製這一點。這讓我思考到,我生活中的許多事情其實都是用語言來維繫的,甚至現在我的人際關係,因為我見不到我的朋友。我朋友住在迪拜、美國和墨西哥。因此,我們用語言進行交流或關係是通過語言維繫的。而正如你所說,民主也是通過語言來聯繫的。現在有一種更智能的力量已經掌握了這一點。
是的,這是如此意外,例如,在五年前,人們說人工智能將掌握這或那,自駕車,但語言,這是一個如此複雜的問題。這就是人類的傑作——語言。它永遠無法掌握語言。我是一個熱愛世界的人。對於這些大型語言模型所產生的文本質量,我簡直驚嘆不已。它們並非完美,但它們確實理解單詞的語義範疇。它們能夠將單詞和句子串在一起形成一個連貫的文本。這確實是了不起的。正如你所說的,這是所有事物的基礎。我通過語言向我的銀行發出指示。如果人工智能能夠生成文本、音頻和圖像,那麼我該如何以不易被人工智能操控的方式來與銀行溝通?
但那句話中誘人的部分是,你本來就不喜歡和銀行溝通。這很酷。就像打電話給他們,等著另一個人來接。於是誘惑是:“反正我不喜歡講電話給銀行,所以就讓人工智能來做吧。我來投資。”如果我能信任它們的話。
我的意思是,最大的一個問題是,為什麼銀行希望我親自撥打電話,以確保真的是我?而不是其他人在告訴銀行,「哦,將這筆款項轉到,我不知道,開曼群島。真的是我。」那麼你怎麼確保這一點?你要怎麼建立這個?
我的意思是,整個金融體系幾千年來,其實只有一個問題,那就是信任。所有這些金融工具,金錢本身其實只是信任而已。它不由金、銀或紙張或其他任何東西製成。
如何在陌生人之間建立信任呢?因此,大多數的金融創新最終都是語言和象徵的創新。你不需要複雜的物理學,而是複雜的符號學。現在,人工智慧可能會開始創造新的金融工具,並掌控財務,因為它掌握了語言。正如你所說的,我們現在能夠與世界各地的朋友溝通。在2010年代,算法之間為人類注意力展開了一場激烈的競爭。我們之前在播客中也討論過,如何吸引人們的注意力?但有比注意力更強大的東西,那就是親密感。如果你真的想影響人們,親密感比注意力更有力量。那你如何在這方面定義親密感呢?想像一下,你與某個人有長期的交情,你熟悉他、信任他,某種程度上你還愛他、關心他。直到今天,偽造親密感和大規模生產親密感是完全不可能的。獨裁者可以大規模製造注意力。舉例來說,當你有了無線電,你可以告訴所有納粹德國或蘇聯的人,偉大的領袖正在發表演講,每個人都必須打開無線電來聽。因此,你可以大規模生產注意力,但這不是親密感。你與偉大的領袖並沒有親密感。現在,隨著人工智慧的出現,至少在理論上,我們可以首次大規模生產與數百萬機器人的親密感,也許它們為某些政府工作,與我們偽造親密關係,這將讓我們難以分辨這是機器人還是人類。
這很有趣,因為我曾與許多關於人際關係的專家和各種人交談,他們提到人與人之間的親密感在下降,而孤獨感在上升,我們作為一個社會變得越來越缺乏性。隨著人與人之間的親密感和聯繫的下降,以及這種人工親密的可能性上升,這不禁讓人思考,在一個人們比以往任何時候都更孤獨、更脫節的世界中,未來可能會是什麼樣子,但仍然有著對連結和愛與歸屬感的同樣迫切需求。也許這就是為什麼我們同時看到極端分化上升的原因,因為人們正在絕望地想要歸屬於某個地方,而算法又在加強我的回音室。所以,我不知道這最終會如何結束,我不認為這是決定論的。這取決於我們個人和社會所做的決策。當然,這項技術也能為我們帶來許多美好的事物。人工智慧進行對話的能力、理解你情感的能力,這可能意味著我們將擁有許多人工智慧老師、醫生和治療師,他們能提供比以往更好的醫療服務和教育服務。與其在一個有40個孩子的班級中成為一個幾乎得不到老師個別關注的孩子,不如擁有一位毫無保留專注於你的人工智慧導師,為你提供質量真正無與倫比的教育。我這週末和我的朋友發起了一場辯論。他有兩個年幼的孩子,一個一歲,另一個三歲,我們在討論未來16年後你更願意讓你的孩子去哪裡上學?你是希望讓孩子在一個如你所描述的教室裡,由人類老師教學,四周有很多人,喧鬧不堪,孩子們無法獲得個性化學習,還是希望你的孩子坐在屏幕前,或是對一個類人機器人,獲得一個極其個性化和量身定做的教育,這可能大大便宜於私立教育或大學學費。但我認為這需要一個結合,我覺得對於許多課程來說,與其選擇人工智慧導師,倒不如去公園,一邊散步一邊聆聽生態課程。但在休息時間,你仍然需要許多孩子聚在一起,因為往往你在學校學到的最重要的課程並不是在課堂上學到的,而是在休息時間學到的。這是不能自動化的,對於此你仍然需要人類監督的大量孩子聚集在一起。
當我讀你的書時,我經常思考的另一件事情是,我本以為我們擁有更多的信息和獲取信息的途徑會導致世界上更多的真相、更少的陰謀論和更多的共識,但事實似乎並非如此。完全不是。世界上大多數的信息都是垃圾。我認為可以這樣來理解這一切,這就像是食品。大約一個世紀前,在許多國家,食品短缺。因此,人們吃任何他們能得到的食物,尤其是那些脂肪和糖含量很高的食物。他們認為更多的食物總是好的。如果你問你的曾祖母,她會說:“是的,更多的食物總是好的。”然後,我們達到了一個食品豐富的時代。我們擁有了所有這些工業化的加工食品,這些食品人為地富含脂肪、糖和鹽等等,顯然對我們有害。認為更多的食物總是好的,這並不正確,尤其不是所有這些垃圾食品。信息也經歷了相同的變化。以前信息曾經稀缺,因此如果你能得到一本書,你會讀它,因為別無選擇。而現在,信息卻是豐富的。
我們被大量的資訊淹沒。而其中很多都是垃圾資訊,因為這場爭奪注意力的戰鬥,讓資訊充滿了貪婪、憤怒和恐懼。而這對我們並不好。所以我們基本上需要進行一場資訊飲食,首先要認識到並非資訊越多就越好。我們需要的是有限的資訊,實際上我們需要更多的時間來消化這些資訊。而且我們當然也必須小心我們所接收的資訊的質量。因為再次地,垃圾資訊的氾濫讓這一點變得尤為重要。我認為基本的誤解在於資訊和真相之間的聯繫。人們認為, OK,如果我獲得很多的資訊,這就是真相的原材料。而更多的資訊將意味著更多的知識。但事實並非如此,即使在自然界中,大多數資訊也不是關於真相的。資訊在歷史上,還有在生物學上的基本功能是連結。資訊就是連結。當你回顧歷史,你會看到,讓人們連接起來的最簡單方法通常不是依賴真相,因為真相是一種代價高昂而且稀有的資訊。通常更容易讓人們通過幻想或虛構來連結。為什麼?因為真相往往不僅是代價昂貴,真相往往複雜,且往往令人不安,有時甚至會痛苦。如果你想想,在政治上,告訴人們他們所屬國家的全部真相的政治人物不太可能贏得選舉,因為每個國家都藏著骷髏,還有那些不願意面對的黑暗面和黑暗的片段。因此,我們看到在政治上,若想要連結國家、宗教、政黨,通常就是依靠虛構和幻想,以及恐懼來達成。
我在思考人類和故事在引起我們大腦共鳴中的角色。我思考了許多敘事。在英國,我們有一種敘事,告訴我們社會上許多問題的原因,例如失業和其他犯罪問題,是因為有人從法國乘船穿越而來,而這是一個非常有效的敘事,可以讓人們聚集在一起,走上街頭。在美國,顯然也是一樣的牆和南部邊界的敘事,成千上萬地越過我們的邊界,這些人是強姦犯,他們並沒有帶來負面的人物,他們來自精神病院,這激發了人們的熱情,而那些人現在正在街頭行進,並基於這是一個可怕的故事投票。這是一個非常強有力的故事,因為它觸及了我們內心深處的某些東西。如果你想要引起人們的注意,想要讓人們參與進來,恐懼按鈕是人類心理中最有效、最具影響力的按鈕之一。而這一切又可以追溯到石器時代。
如果你生活在一個石器時代的部落中,你最大的擔憂就是來自另一個部落的人會入侵你的領土,奪走你的食物或殺了你。因此,這是一種根深蒂固的恐懼,不僅表現在人類身上,也表現在每種社會動物身上。他們對黑猩猩進行實驗,顯示出黑猩猩對來自不同群體的外來黑猩猩幾乎也是一種本能的恐懼或厭惡。而政治家和宗教領袖學會了如何像彈鋼琴一樣操控這些人類情感。這些情感,如厭惡,最初是為了幫助我們而進化的。你知道,在最基本的層面上,厭惡是為了因為,特別是作為一個孩子時,你想要嘗試不同的食物。但是如果你吃了對你有害的食物,你需要把它吐出來,你得把它扔掉。因此,你有厭惡感在保護你。然而,隨著歷史的發展,政治和宗教領袖們劫持了這種防禦機制,從小就教導人們不僅要感到恐懼,還要對外來的人、對看起來不同的人感到厭惡。當你成為成年人時,你可以學習一切理論,自我教育認知這並不真實,但在你的心裡,依然有一部分認為這些人是可憐的,這些人是危險的。我們在整個歷史中看到,很多不同的運動都學會了如何利用這些情感機制來激勵人們。
Yvonne,我們現在正坐在一個非常有趣的時代,因為在過去一年中,有兩件相當重要的事情發生了,與資訊及我們一直討論的許多話題有關。其一是Elon Musk購併了Twitter,而他的真正使命是自由言論的理念。作為這個使命的一部分,他解鎖了一些此前在Twitter上被封鎖的人物,其中很多是由於各種原因被封鎖的右派人士。此外,這一週,Mark Zuckerberg公開發表了一封信,信中表示他後悔自己在與FBI、政府合作時,過於合作,當時他們要求他在Facebook上審查內容。他特別提到一則故事,表示他後悔這麼做,看似如果你仔細閱讀他的表述,他其實明確指出,“如果未來政府或其他人要求我們審查某些信息,我們將會更強硬地抵制。”現在,我所要說的是,Twitter作為世界上最大的社交網絡之一,以及Meta作為世界上最大的社交網絡,已經採取了這種立場,實質上是讓資訊自由流通。顯然,現在他們有效地追求這種自由言論的敘事。對於作為長期使用這些平台的人,特別是X或Twitter而言,如今的情況真的大相徑庭。
每當我滑動時,我總會看到一些我以前從未見過的東西,這種現象與自由言論的立場有關。 現在,我並不打算表明這是好是壞。 這只是非常有趣。 顯然,現在有一個算法運作,如果我現在在 X 上滑動,我會在 30 秒內看到有人被刀殺的畫面。 我可能還會看到有人被車撞。 我可能會看到極端的伊斯蘭恐懼症。 但我也會看到另一方面。所以我不是在說我會看到所有的面向。 當你之前談到這是否對我有益時,我想起了這個週末我朋友的事情。 是我的生日。所以我和我的朋友們在一起,無意識地在 Twitter 上滑動這些恐怖視頻,而他坐在我左邊,心想,「天啊,他真像是在炸他的多巴胺受體。」而我在這個全新的自由言論運動中。 你對自由言論和它的角色有何看法,只有人類擁有自由言論,機器人則不擁有。 科技公司總是讓我們對這個問題產生混淆,因為問題不在於人類,問題出在算法上。 讓我解釋一下我的意思。 如果問題是在 Twitter 上禁止像唐納德·特朗普這樣的人,我同意。 這是一個非常困難的問題。 我們應該對禁止任何人,特別是重要的政治人物表達他們的觀點和意見保持極大的謹慎,無論我們對他們的觀點或個人有多麼不喜歡。 禁止任何人進入某個平台是一個非常嚴肅的事情。 但這不是問題。 問題不在於平台上的人類用戶。 問題在於算法,而公司不斷將責任推給人類,以保護他們的商業利益。 所以讓我來拆解一下這個問題。人類經常創造大量的內容。 他們創造仇恨的內容。 他們創造關於同情心的講道。 他們創造烹飪課程、生物課程,還有很多不同的東西,信息的洪流。 那麼大問題就是什麼獲得了人類的注意? 每個人都想要關注。 現在公司也想要關注。 公司賦予運行社交媒體平台的算法一個非常簡單的目標。 增加用戶參與度。 讓人們在 Twitter 上花更多的時間,在 Facebook 上花更多的時間,更多地參與,發送更多的讚,並推薦給他們的朋友。 為什麼? 因為我們在平台上花的時間越長,他們賺的钱就越多。 非常非常簡單。 現在,算法發現了一個巨大的突破。 通過對數百萬人類小白鼠進行實驗,算法發現如果你想抓住人類的注意,最簡單的方法就是按下恐懼按鈕、仇恨按鈕、貪婪按鈕。 他們開始推薦用戶觀看越來越多充滿仇恨、恐懼和貪婪的內容,使他們保持在屏幕前。 這是假新聞和陰謀論等流行病的深層原因。 而公司的辯護是,我們並不是在生產內容。 是某個人類產生了充滿仇恨的關於移民的陰謀論。 這不是我們。 這有點像,我不知道,紐約時報的總編輯在報紙的頭版上刊登了一個充滿仇恨的陰謀論。 當你問他,「你為什麼這麼做還是責備它?看看你做了什麼?」他的回答是,「我什麼都沒做。 我不是寫那篇文章。 我只是把它放在紐約時報的頭版上。 這就是一切。 這不用說什麼。」人們正在生產大量內容。 政權擺布者的算法,如今是編輯。 他們決定什麼可以被觀看。 有時他們只是推薦它給你。 有時他們甚至自動播放給你。 比如你選擇看某個視頻。 在視頻結束時,為了保持你盯著屏幕,算法立即無需告訴它,算法會自動播放某種充滿恐懼或貪婪的視頻,只是為了讓你繼續盯著屏幕。 這是算法在做。 這應該被禁止,或者至少應該受到監督和管理。 而這不是言論自由,因為算法並沒有言論自由。 是的,製作仇恨視頻的人,我會對禁止他們保持謹慎。 但那不是問題。 問題是推薦。 第二個問題是,現在在線上很多對話被機器人覆蓋。 再次,例如,你如果看看 TwitterX,很多人都想知道什麼是趨勢,哪些故事獲得最多的注意。如果每個人都對一個特定的故事感興趣,我也想知道每個人在談論什麼。而且通常驅動這個對話的是機器人。 因為一個特定的故事最初獲得了很多關注,很多流量,因為很多機器人轉發了它。 然後人們看到它並且認為,他們不知道是機器人。他們認為是人類。所以他們會說,哦,很多人類對這個感興趣,所以我也想知道發生了什麼。 而這會吸引更多的注意。 這應該被禁止。 基本上,你不能讓人工智能假裝成為人類。 這是假人。 這是偽造人類。如果你看到網上的活動,並且認為這是人類活動,但事實上是機器人活動,這應該是被禁止的。 而且這並不會損害任何人類的言論自由,因為它是機器人。 它沒有言論自由。 我在想你所說的這些算法實際上在運行著世界。 我的意思是,是的,所以如果算法根據我花時間觀看的內容決定我看到的東西,那是因為他們想讓平台賺更多錢。
如果我天生就有一種傾向,讓我更專注於那些讓我感到恐懼的事物,那麼你只需給我幾年時間,每過一年,我會變得更加害怕。這會加強你自身的弱點。我是說,再一次,這就像食品行業一樣。食品行業發現我們喜歡含有大量鹽和脂肪的食物,於是給我們更多。然後它說,但這是顧客想要的。我們能從你這裡得到什麼?這是同樣的情況,但這些算法甚至更糟,因為這是心靈的食物。是的,人類有一種傾向,如果某件事非常可怕或讓他們充滿憤怒,他們會專注於它,並告訴所有朋友。但是,人工增強這種恐懼,對我們的心理健康和社會健康都是不好的。這是在利用我們自己的弱點而不是幫助我們應對它們。
我可以說——現在,這只是我稍微跳到結論而已——在一個你取消了對某些角色的封鎖限制的世界裡,右翼角色的訊息,可能是基於移民等,而你取消了那些限制。因此,他們可以在每個平台上自由發言。然後,當你編程算法以專注於收益時,最終會有更多人變得右翼。我之所以這麼說,部分原因是右翼的敘事是說移民是壞的——我並不是說左派是無辜的,因為他們絕對不是,但我認為讓人感到恐懼的敘事,恐懼似乎更多來自右翼,尤其是在英國。恐懼是由移民引起的,這些人會把你的錢帶走,還有這一類的事情。我認為關鍵問題不是將其標籤為右翼或左翼問題,因為,再一次,民主是對話。只有當你擁有幾種不同的意見時,你才能進行對話。我認為應該允許就移民問題進行對話,人們應該能夠對此持有不同的意見。這樣很好。問題在於當一方妖魔化並抹黑任何不同的意見,即使在某種程度上你也可以看到來自雙方的情況。然而,在移民問題上,會有這些陰謀論,認為任何支持移民的人,比如說,他們想摧毀這個國家。他們是這場陰謀的一部分,想要用移民淹沒這個國家,改變它的本質等等。這就是問題所在,一旦你相信那些不同意見的人不只是你的政治對手,而是你的敵人。他們想要摧毀你,摧毀你的生活方式和群體,民主就會崩潰,因為無敵之間不存在民主。如果你認為對方是錯的,但他們本質上是關心國家、關心我的好人,卻有不同的意見,那民主可以運作。如果你認為他們是我的敵人,試圖摧毀我,那麼選舉就變成了戰爭,因為你在為生存而戰。你將不擇手段勝出選舉,因為你的生存岌岌可危。如果你失敗了,則沒有理由接受判決。如果你獲勝,你只會照顧自己的部落,而不理會對面部落。如果你不相信選舉是合法的,那麼民主就無法運作。這是基礎……民主無法存在於隨便的……這就像一種需要特定條件才能生存和繁榮的脆弱植物。一個條件,比如說,是你擁有能促進對話的信息技術。另一個條件是你信任機構。如果你不信任選舉的機構,那麼它就無法運行。第三個條件是你需要認為政治分歧另一側的人是我的對手,但他們並不是我的敵人。現在民主對話中出現的問題是,由於這種越來越極端的傾向,讓人感到對方是敵人。這對右派和左派來說都是一個問題。在雙方,你會看到這種感覺,即對方是敵人,並且他們的立場完全不合法。如果我們達到那一點,那麼對話就會崩潰。可以就像移民、性別、氣候變化這些困難問題進行複雜的對話和討論,而不把對方視為敵人,這是幾代人以來都能做到的。為什麼現在似乎就變得不可能與對方對話或在任何事情上達成共識? 今年美國有一場重大的選舉。非常重大的選舉。你經常想到它嗎?是的,這似乎像是一場擲硬幣的比賽,大約是50-50。選舉變成了一個真正的生存問題。如果有可能的話,這將是最後一次選舉。如果一方打算在掌握權力後改變遊戲規則,那就變得生存至上,因為民主是基於自我修正的機制。這是民主相較於獨裁政權的巨大優勢。在獨裁政權中,獨裁者可以做出很多好的決策,但遲早他們會做出一個糟糕的決定,且在獨裁中沒有機制來識別和糾正這樣的錯誤。普京。在俄羅斯,根本沒有機制能夠說普京犯了錯。他應該讓其他人嘗試不同的行動方案。這就是民主的偉大優勢。你嘗試了某種方法,它沒有奏效,你再試一次別的方法。
但大問題是,如果你選擇了一個人,然後他改變了體系,中和了它的自我修正機制,結果你無法再擺脫他,該怎麼辦?這就是發生在委內瑞拉的情況,最初查韋斯和查韋斯主義運動是以民主方式上台的。人們想說:「嘿,讓我們試試這個。」現在在幾週前的最後一次選舉中,證據非常非常清楚,馬杜羅大敗,但他控制了一切,選舉委員會、所有相關事務,他仍然聲稱:「不,我贏了。」他們毀掉了委內瑞拉。大約四分之一的人口逃離了這個曾經是南美洲最富裕國家的國家,而他們就是無法擺脫他。難道這在西方絕對不會發生?別說歷史上不會有這種事。歷史可以追上你,無論你是誰。這就是我們可以看到的一種錯覺——委內瑞拉在許多方面是西方的一部分,至今仍然是。這是我們所生活的錯覺之一,儘管我們認為這絕對不會發生在英國、美國或加拿大這些所謂的文明國家中。根據某些測量,美國的民主在某種程度上還相當新,且非常脆弱,特別是如果你考慮到例如誰有資格投票的問題。所以,嗯,是的,這又是——我不知道機會有多大。但即使有百分之二十的機會,特朗普政府會以某種方式改變美國民主的遊戲規則,比如改變誰可以投票或如何計算票數,這將使得擺脫他幾乎變得不可能。這在歷史上並不是不可能。你認為特朗普會這麼做嗎?是的。我是說,你在一月六日就看到了這一幕。在每個民主體系中,最關鍵的時刻就是權力交接的時刻。民主的魔力在於,民主旨在確保權力的和平轉移。但正如我所說的,你選擇一個政黨,給他們一個機會,過一段時間後,如果人們覺得他們做得不好,就試試別的人。你知道,在美國,有些人擁有世界上最大的權力。美國總統擁有足夠的權力來摧毀人類文明。所有這些核導彈,所有這些武裝,然後他卻輸掉選舉。他說,好的,我放棄所有這些權力,讓其他人嘗試。這是令人驚訝的。而這正是特朗普沒有做到的。他從一開始就——我甚至從2016年開始就拒絕——他們直接問他,如果你輸掉選舉,會接受結果嗎?他說,不。在2020年,他也沒有和平地交出權力。他試圖阻止這一切。而他現在再次參選,我認為在某種程度上,他從一月六日得到的教訓是,他基本上可以不受懲罰,至少在他的支持者中,這就像一次考驗,一次嘗試。如果我做這件極端的事情,他們在我之後仍然支持我,那基本上意味著無論我做什麼,他們都會支持我。我想知道,在這樣一個脆弱的民主世界中,當信息流通和網絡被某種人工智能這樣的東西干擾時,若錯誤信息和虛假信息存在——而我能夠製作一段視頻——我現在就能做一段特朗普說話的視頻,用他的聲音說些什麼。我可以幫助這段視頻變得病毒式傳播。在你不相信自己看到的任何線上資料的情況下,如何維繫民主與交流?我們現在正處於這一切的開始。我們還沒有看到任何東西。這實際上只是這一切的第一步。我現在要在螢幕上播放一段視頻,讓大家看看。對於那些正在收聽的人,你只能聽到它。但是我將播放一段艾薩克在房間角落裡拍攝的視頻,裡面是我坐在這張椅子上說話。那不是我。我沒有說過這句話。我也不在這張椅子上。嘿,這裡是AI史蒂夫。你認為我將來能接管一位CEO的職位嗎?在下方留下你的評論。它的聲音聽起來完全像我,幾乎一模一樣。但這不是我。我在想,我們中的大多數人現在的政治信息和一般信息來源都來自社交媒體。如果我不能相信自己看到的任何東西,因為這些東西都很容易製作,某個在俄羅斯的孩子在他的臥室裡也可以製作出這位總理的視頻。我不知道我們現在從哪裡獲取信息。我們如何驗證。答案是制度。我們在歷史上曾多次面對這種情況,答案始終是相同的,制度。你不能信任技術。你要信任能夠驗證信息的機構。想想印刷品,你可以在一張紙上寫下任何你想寫的東西。你可以寫,「英國首相說,」然後開始引號,並將某種說法放在首相的嘴裡。你可以寫下任何你想寫的內容。當人們讀到它時,他們不會相信它。這是他們不應該相信的。僅僅因為寫著英國首相說過的話,並不意味著它是真的。那麼,我們如何知道作為一個機構,哪些內容是可以相信的?如果在《紐約時報》,《星期日泰晤士報》或《衛報》的頭版上寫著英國首相說的話,將有更大的可能性讓我們相信,因為我們不信任紙張或墨水。我們信任《衛報》,《華爾街日報》或其他任何機構。對於視頻,我們從未需要這樣做,因為沒有人能夠偽造它們。所以我們信任技術。如果我們見到一段視頻,我們會說,啊,這必須是真的。但當偽造視頻變得非常容易時,我們又回到了與印刷品相同的原則。我們需要一個機構來驗證它。
如果我們在 CNN 或《華爾街日報》的官方網站上看到視頻,那麼我們會相信它,因為我們相信支撐它的機構。而如果它只是 TikTok 上的某些內容,我們知道任何小孩都可以這樣做。我為什麼要相信它?因此,我們現在處於過渡期。我們仍然不習慣這一切。所以當我們看到唐納德·特朗普或喬·拜登的視頻時,這個視頻仍然會影響我們,因為我們在一個無法偽造的時代成長。但我想人們會很快意識到,你無法相信視頻。你只能相信機構。問題是我們是否能夠生產、創造、維護對機構的信任,快速到足以拯救民主對話?因為如果不能,若你無法相信任何事物,這對獨裁者來說是理想的情況。當你什麼都無法相信時,唯一有效的體系就是獨裁,因為民主依賴於信任,而獨裁依賴於恐懼、恐怖。在獨裁政權下,你不需要信任任何事物。你不信任任何事物。你只是懼怕。
要使民主運作,你需要信任,例如某些信息是可靠的,選舉委員會是公正的,法院是公正的。如果越來越多的機構遭到攻擊,而人們對它們失去信任,那麼民主就會崩潰。但回到信息上來,所以一個選擇是舊的機構,例如報紙和電視台,會是我們信任的機構來核實某些視頻。或者我們會看到新機構的出現。再次強調,最大的問題是我們是否能夠在這些新機構中建立信任。當我特別提到機構而不是個人時,沒有一個大規模社會,尤其是民主社會,可以在沒有可信的官僚機構的情況下運作。而這些官僚機構會是人工智慧嗎?這是個大問題,因為未來越來越多的官僚將是 AI。
你所指的官僚是什麼?官僚這個詞是什麼意思?這是一個非常重要的問題,因為人類文明的運行依賴於官僚機構。官僚基本上是政府中的官員,接受培訓。不僅僅是在政府。官僚這個詞的起源來自於法語,始於18世紀。而官僚制意味著文案的統治是用筆、紙張和文件來統治世界或社會,就像我們一開始提到的關於所有權的例子一樣。所以你擁有一棟房子,因為在某個檔案中有一份文件說你擁有它。而一位官僚產生了這份文件。如果你現在需要檢索它,那麼這就是官僚的工作,找到在正確時候所需的正確文件。而所有大型系統都是基於這些運行的,如醫院、學校、公司、銀行、體育協會和圖書館。它們都運行在這些文件上,以及那些知道如何閱讀、書寫、找到和歸檔文件的官僚之上。
我們的一個大問題是,理解官僚系統對我們來說是困難的,因為它們是人類演變中非常最近的發展。這使我們對它們感到懷疑,我們往往相信各種陰謀論,關於深層政府和所有這些官僚機構中發生的事情。這實在是非常複雜,而且隨著決策越來越多地由 AI 官僚來做,這會更加複雜。AI 官僚意味著像如何為特定問題分配多少資金這樣的決策將不再由人類官員做出,而是由算法制定。
當人們問為什麼開關系統壞了,為什麼沒有給足夠的錢來修理,我不知道。算法剛好決定把錢給其他事情。為什麼官僚機構將會由 AI 而不是人類來運行?為什麼某個國家會在某個時候決定 AI 實際上在做這些決策方面更好呢?首先,這不是未來會發生的事,這已經在發生。越來越多的決策是由 AI 做出的。這只是因為你需要考慮的信息量是龐大的。對人類來說,這非常困難,對 AI 來說則容易得多。所有這些人,包括官僚、律師、會計師,我總是想知道,未來人類將會做什麼?
在你的書中,你說 AI 正在遠遠超越人類智力,應該被稱為外星智力。如果它遠遠超越人類智力,我假設我們所做的大部分工作是基於智力的。所以即使我現在做這個播客,這是我根據我收集的信息、基於我認為我感興趣的內容,以及我認為觀眾會感興趣的內容來提問。與 AI 比起來,我就像一隻小猴子,你知道我的意思嗎?如果 AI 的智商是我的 100 倍,且其信息來源是我的 100 萬倍,那麼我就沒有必要做這個播客。我可以讓 AI 來做,事實上,AI 可以對 AI 進行交流,把這些信息傳達給人類。
所以如果我們看看大多數行業,比如做律師、候選職位,很多醫療專業都是基於信息,駕駛,我認為世界上最大的雇主職業是駕駛職業,不論是外送還是優步或其他什麼。人類在哪個複雜系統中佔有一席之地?任何僅僅是信息進、信息出的職位,都是自動化的大好時機,這些是最容易自動化的工作。就像作程式設計師,作為程式設計師,或同樣,特定類型的會計師、律師、醫生,都是最容易自動化的。
如果一位醫生僅僅是接收各種血液檢測結果等資訊,然後再將這些資訊用來診斷疾病並開處方,那麼在未來的幾年和幾十年內,這將很容易被自動化。然而,許多工作還需要社交技能和運動技能。如果你的工作需要來自幾個不同領域技能的組合,那麼雖然並非不可能,但自動化的難度會大得多。因此,想像一名護士需要給一個哭泣的孩子換繃帶,這比一位只是開處方的醫生要難得多,因為這不僅僅是數據。護士需要良好的社交技能來與孩子互動,並且還需要運動技能來更換繃帶。所以這樣的工作更難自動化。
即便是那些只處理資訊的人,仍然會出現新的工作。問題在於重新培訓,不僅是獲取新技能的再培訓,還包括心理上的再培訓。你該如何在一個新職業中重新發明自己,不是一兩次,而是一次又一次,因為隨著人工智慧革命的展開,而我們目前僅處於它的開始階段,我們還沒有見識到任何事情。因此,所有工作都會消失,新工作會出現,但新工作會迅速變化和消失,然後又會出現新一波的新工作,人們必須四次、五次、六次地重新發明自己以保持相關性。這將創造巨大的心理壓力。
因此,許多大型公司也在同時研究人形機器人。現在正在進行一場人形機器人的競賽。提到人形機器人,我是指特斯拉正在開發的人形機器人,我想它叫Optimus,這個機器人將花費數千英鎊。我最近看過一段它的視頻,它能執行相當精細的運動技能工作。所以可能是打掃房子,也可能在生產線上工作,可能把東西放進箱子裡。我只是想,不知道當我們說人們會在一個擁有人形機器人和超越我們智慧的世界中失去工作時,失業的人去哪裡找到這些新職業?顯然,預測未來的新職業非常困難。她告訴我們這一點,但我卻無法想出新職業到底是什麼。
我女朋友是呼吸訓練方面的專業人士。我想呼吸訓練的部分很容易被顛覆,但她會帶著女性去葡萄牙等地方進行靜修。所以我心想,她應該會相對安全,因為這些女性是去那裡與人連接並故意在這個特殊的線下地方呆著。因此,靜修可能會沒事。生活中有些事情我們希望得到的,不僅僅是解決問題。例如:我生病了,我想要健康,我想解決我的問題,但有許多事情我們希望能夠建立連結。比如說,談到運動,機器人或機器的運動能力比人類快得多,這已經持續了很長時間。而我們最近看過奧林匹克運動會,人們對於看到機器人之間或與人類比賽並不太感興趣。因為最終使運動有趣的,正是人類的弱點,以及人類處理這些弱點的能力。人類運動員仍然有他們的工作。即便是像跑步這樣的項目,機器也可以跑得比世界冠軍快。我在前幾天思考過這一點。另外一個例子是神職人員。像某些宗教的神職人員是最容易自動化的工作之一,因為他們只需要在特定情境中不斷重複相同的文本和動作。像如果是婚禮儀式,神父只是需要重複相同的話語,然後你結婚了。現在我們不認為神父面臨被機器人取代的危險。因為我們所希望從神父那裡獲得的,不僅僅是機械地重複某些話語和動作。我們認為,只有另一個脆弱的肉體人類,能理解痛苦與愛,並能夠經歷痛苦,才能將我們連結到神聖的存在。因此,大多數人對於讓一個機器人主持婚禮並不感興趣。即使技術上這是非常容易做到的。
當然,最大的問題是,如果人工智慧獲得了意識,會發生什麼?這就像是人工智慧意識上的十萬億美元問題。一切的賭注都將失效。但這是一個不同且非常大的討論。我是說,這是否可能,我們怎麼知道等等。你認為這可能嗎?我們毫無頭緒。我是指,我們不明白意識是什麼。我們不知道它是如何在有機大腦中產生的。因此,我們不知道意識與有機生化之間是否存在本質上的聯繫,以至於它不能在無機的硅基計算機中產生。首要提到的是,意識與智慧之間存在著巨大的混淆。意識是達成目標和解決問題的能力。意識是感受事物(如痛苦、快樂、愛、仇恨)的能力。人類和其他動物都通過我們的感受來解決問題。我們的感受並不是附屬的,它們是處理世界和解決問題的主要方式。到目前為止,計算機解決問題的方式與人類完全不同。再一次,它們是外星智慧,沒有任何感情。當它們贏得棋局時,並不會感到快樂;當它們輸掉棋局時,也不會感到悲傷。它們不會感到任何情緒。現在,我們不知道有機大腦是如何產生這些感受的,比如痛苦、快樂、愛、仇恨。
所以這就是為什麼我們不知道基於矽而不是碳的無機結構,是否能夠生成這些東西。我想這是科學上最大的問題,到目前為止我們沒有答案。意識難道不就像一種幻覺嗎?難道不只是一種錯覺,我認為我有意識是因為我有一種電路告訴我我實際上是如此?它通過一堆感覺和事物告訴我我有意識,就像我認為我現在在看著你。我覺得我能看到你。是的,那種感覺是真實的。我的意思是,即使我們都像是《黑客帝國》。你怎麼知道這是真的?你怎麼知道這是真的?這是世界上唯一真實的東西。我的意思是,沒有其它的,其他一切只是推測。我們只能體驗自己的感受,看到、聞到、觸摸到的東西。這是我們實際經歷的,這是真實的。然後我們有這些理論,為什麼我會感到疼痛?哦,那是因為我踩到了釘子,世界上有釘子這種東西等等。也許我們都在一個由超智能老鼠運行的錫蘭星的大電腦裡。如果我跟一個AI說話,我可以讓AI告訴我它感受到疼痛和悲傷。這是一個大問題,因為有一個巨大的動機去訓練AI假裝活著,假裝有感情。我們看到有巨大的努力在生產這樣的AI。事實上,因為我們不理解意識,我們甚至沒有證據證明其他人類有感情。我感受到我自己的感情,但我從未感受到你的感情。我只是假設你也是一個有意識的存在。社會賦予這種有意識的實體地位,不僅給人類,還給某些動物,這不是基於任何科學證據,而是基於社會慣例。大多數人認為他們的狗是有意識的,狗能感受到痛苦、快樂和愛等。因此,社會,大多數社會,接受狗是有感知能力的生物,根據法律他們擁有一些權利。現在,即使AI沒有感情,沒有意識,沒有感知能力,但它在假裝有感情和說服我們它有感情方面變得非常出色,那麼這將成為一種社會慣例,人們會感覺他們的AI朋友是有意識的存在,因此應該被賦予權利。甚至已經有了合法的方式來實現這一點。至少在美國,你不需要是一個人才能成為法律上的法人。這很有趣,因為你提到過,你在開玩笑地暗示,我們可能只是在一個模擬中。這是你曾經說過的,嗯,也許我們只是在一個模擬中,但……是的,這可能是。這很有趣,因為在AI的世界裡,我覺得我對這種可能性的信念只增不減。是的。所以,我覺得我可能會處於一個模擬中,因為我看到我們從我出生時幾乎沒有網際網路可用,到現在能夠跟這個外星人交談,它可以為我做事,並且有虛擬現實的體驗,這些體驗有時與我深陷其中的感覺無法區分,因為我戴著這個頭盔,然後你不斷前進,不斷前進,想像任何改進的速度,然後我聽到了模擬理論的論點,我會想,”你知道,也許如果你再推進一百年,根據我們的進展速度,我們將能夠創建信息網和有機體,而這些有機體不會在實驗室或電腦中意識到自己在電腦中,尤其是在生物體的情況下。這在某種程度上已經開始發生,你知道,這些信息泡泡,越來越多的人生活在其中,這仍然不是整個物理世界,但你會發現相同的事件,不同政治光譜的人,他們甚至無法就任何事情達成一致。他們生活在自己的矩陣中,且你知道,當互聯網第一次出現時,主要的比喻是網。網是連接一切的東西。而現在主要的比喻,就是這個模擬理論,代表著這個新的比喻,新比喻是繭。這是一張反過來的網,然後把你從四面八方封閉起來,這樣你就再也看不到外面的任何東西。而且裡面可能有其他的繭和其他人,而你無法到達他們。是的。發生在世界上的任何事情都無法再將你連接起來,因為你在不同的繭裡。你只需看看別人的手機,只需看看別人的推特或X或Instagram。這是同樣的現實嗎?這是如此不同。你知道我週末在談論什麼,我的朋友在我左邊滑動?他點擊了發現區域,也就是你找到新內容的地方,我瞥了一眼他的手機,發現上面全是利物浦足球俱樂部的資訊。整個動態都是利物浦,而我的整個動態則完全不同,我只在想,哇,他生活在一個完全不同的世界裡,因為他是利物浦的球迷。我是曼聯的球迷。想象一下,當你打開手機時,我們許多人每天在手機上花費多達九個小時的時間,你正在經歷一個完全不同的窗口,進入一個完全不同的世界,和我完全不同。
這是一種非常古老的恐懼,因為柏拉圖正是寫到了這一點,而我認為希臘哲學中最著名的寓言就是洞穴寓言,柏拉圖在其中想像了一個理論場景,描繪了一群囚犯被鎖鏈拘禁在洞穴中,面對一面空白的牆壁,牆後的東西投射出陰影,而他們錯誤地將這些陰影視為現實。 他基本上是在描述坐在屏幕前的人,就像將屏幕誤認為現實一樣,而在古印度也有類似的情形,佛教徒和印度教的智者談論“瑪雅”,即錯誤的世界,以及那種深深的恐懼:或許我們都困在一個錯誤的世界裡,我們認為在這個世界上最重要的事情,所打的戰爭,其實是為了心中的錯覺而戰。 而這現在正在變得技術上可行,之前這些都是哲學上的思想實驗。 現在,作為一名歷史學家,我認為當代時代有趣的一部分是許多古老的哲學問題和討論正在變成技術問題,現在你可以突然發現柏拉圖的洞穴在你的手機中。 這太可怕了,我覺得真的很可怕,因為你是對的,我想現在有些人可能會說他們對排名系統或為什麼某些東西在我搜索時會顯示出來有一些了解,但隨著這些智能外星人變得越來越強大,當然我們的理解會變得更少,因為我們在將決策交出。 在某些產業中,它們現在已經完全成為了“造王者”,我現在在進行書籍宣傳,我寫了《 Nexus》,所以我從一個播客到另一個播客,從一個電視台到另一個電視台來談論我的書,但我真正試圖讓它們印象深刻的是算法,因為如果我能獲得算法的注意,人類就會跟隨。 你知道,我們基本上是硅世界中的碳生物。 我以前認為我們是掌控的,但現在我覺得是矽在掌控。 控制正在轉移,我們在某種程度上仍然掌控著,我們仍然是在做最重要的決定,但不會持續太久,這就是為什麼我們必須在接下來的幾年裡非常小心我們所做的決定,因為在10年,20年之後,可能就會太晚。 到那時,算法將會做出最重要的決策。 你談到了一些你所看到的算法和人工智慧的巨大危險,以及信息破壞的轉變,其中之一是對齊問題。 那麼,你會如何用簡單易懂的方式向我解釋對齊問題呢? 所以,經典的例子是由哲學家尼克·博斯特羅姆在2014年提出的思想實驗,聽起來有些瘋狂,但你知道的,請耐心聽。 他設想了一個超智能的人工智慧計算機,這台電腦被一個回形針工廠購買,回形針的經理告訴人工智慧你的目標,就是我買你的原因,你的目標,你整個存在的意義,就是要生產儘可能多的回形針,這就是你的目標。 然後這個人工智慧征服了整個世界,殺死了所有人類,將整個星球變成了生產回形針的工廠,甚至開始派遣遠征隊到外太空,把整個銀河系變成單純的回形針生產產業。 這個思想實驗的重點在於這個人工智慧完全按照它被告知的去做。 它沒有反抗人類,完全按照老闆的要求去做,但當然,它所選擇的策略與人類工廠經理的真實意圖和利益並不一致,經理根本無法預見結果會是這樣。 現在,這聽起來似乎有些荒謬和瘋狂,但在某種程度上已經發生過,我們也談到過。 這就是社交媒體和用戶參與度的整個問題。 在尼克·博斯特羅姆提出這個思想實驗的同一年,即2014年,Facebook和YouTube的管理人告訴他們的算法,你的目標是提高用戶參與度。 而社交媒體的算法征服了世界,將整個世界變成了用戶參與度,這正是他們所被告知要做的。 我們現在非常非常參與。 而且,他們發現這樣做的方式就是激怒、恐懼和陰謀論。 這就是對齊問題。 當馬克·祖克伯告訴Facebook算法,提高用戶參與度時,他並未預見也不想要的結果是民主的崩潰、陰謀論和假新聞的泛濫以及對少數族裔的仇恨,他並無此意圖。 但這就是算法所做的,因為算法的定義目標與人類社會及甚至部署這些算法的人類經理的利益之間存在不一致。 而且這仍然是一場小規模的災難,因為在過去十年中創造所有社會混亂的社交媒體算法,實際上是非常非常原始的人工智慧。 這就像如果你把人工智慧的發展視為一種進化過程,那麼這仍然是原生細胞階段。 原生細胞是非常簡單的生命形式,一開始是單細胞生物。 在進化的術語上,我們距離看到恐龍、哺乳動物或人類還有數十億年的歷程。 但是數位進化的速度是有機進化的數十億倍。所以,從人工智慧原生細胞到人工智慧恐龍的距離,可能只需幾十年。如果聊天 GPT是原生細胞,那麼人工智慧暴龍將會是什麼樣子?這就是對齊問題變得非常令人不安的地方。
因為如果一個原始的社交媒體算法因為給錯了目標而造成如此多的損害,那麼在20或30年後,將錯位的目標賦予一個T-Rex人工智慧會產生什麼樣的結果呢?
這個問題的核心在於,有些人可能會認為,好的,那就給它一個不同的目標吧。但當你在與上市的私營公司打交道時,實際上只有一個目標能夠維持它的運作:賺錢。
正是如此。這是利於市場的。因此,所有的平台都必須說這個平台的目標是賺取更多的利潤和吸引更多的注意。因為這在數學上也很簡單。假設某天在YouTube上的觀看時間為一百萬小時,然後一年後變成兩百萬小時。這對於算法來說非常容易觀察到,嘿,我在取得進展。
但假設Facebook告訴其算法,以不損害民主的方式增加用戶參與度。我該如何衡量呢?誰能知道民主的堅韌性是什麼定義?沒有人知道。因此,為算法定義目標為增加用戶參與度但不損害民主幾乎是不可能的。這就是為什麼他們會選擇那些看似簡單但實則最危險的目標。
但即便在這種情況下,如果我是某個社交網絡的所有者,我說要增加用戶參與度但不損害民主,我所面臨的問題是我的競爭對手只說要增加用戶參與度而不提第二部分,他們將會贏過我,因為他們會擁有更多的用戶、更多的關注、更多的收入,廣告商會更高興,那麼我的公司將會衰退,投資者會撤資。
這是一個問題,因為有兩件事需要考慮。首先,你有政府。政府可以進行監管,並且可以對那些以社會負責的方式定義目標的社交媒體公司進行懲罰。就像他們懲罰報紙、電視台或行為反社會的汽車公司一樣。
另一件事是,人類並不愚蠢,並且不具自毀傾向,若我們希望擁有更好的、也就是在社會上更好的產品。之前我以食物飲食為例,我認為食品公司已經發現,如果他們用大量脂肪和糖及鹽來大量充填產品,人們會喜歡。但人們也發現這對他們的健康有害。如今,飲食產品的市場巨大,而人們對自己的飲食變得非常清楚。信息市場也可以發生類似的情況。目前,有70%、80%的人在美國有慢性疾病且肥胖,而在西方世界,壽命似乎正在下降。
我覺得,對於消費品如酒精、尼古丁和食物的管控似乎比對資訊及其流通的管控簡單得多。在種族主義或煽動暴力之外,我不知道該如何進行管控。我已經提到的兩個最基本和強大的工具就是對公司的算法行為追究責任,而非對用戶所產生的內容負責。我不認為我們應該懲罰推特或Facebook。如果有某人發佈了種族主義的貼文,我會非常謹慎地懲罰Facebook,因為那麼誰來決定什麼是種族主義等等。
但如果Facebook的算法故意傳播某些種族主義的陰謀論,那就是算法。那不是人類的自由言論。不過,你怎麼知道這是一個種族主義的陰謀論呢?好的。現在我們進入難題,但這是我們有代碼可依據的。如果說到對個別用戶生產內容的評斷,我會非常謹慎。但當來到算法故意、規律性地傳播某種特定信息,比如陰謀論時,我們可以涉及法院。
關鍵問題是誰擁有責任,即公司對其算法所做的事負責,而不是個體因其所說的而負責。這裡還有一個關鍵區別,就是私營和公共。部分問題在於二者之間邊界的模糊。我認為人類在私下裡有愚蠢的權利。在你的私密空間裡,與朋友和家人在一起,你有權愚蠢。你可以說愚蠢的話。你可以講種族主義笑話。你可以講恐同笑話。這並不好,也不友好。但你是人類。你有權這麼做。但不在公共場合。我是說,即使對於政治家來說,作為一名同性戀者,如果首相在私下講了一個恐同笑話,我不需要在意。那是他或她的事。但如果他們在電視上公開說出,那就是一個巨大問題。
傳統上,區分私人和公共是非常容易的。你和一群朋友在私人住宅裡。你說了一些愚蠢的話,這是私事。這沒人能幹涉。你走到城鎮廣場,站在台上對上千人叫喊什麼,這就是公共場合。在這裡,如果你說了種族主義、恐同或驚人的話,你可能會受到懲罰。但你很容易知道如何區分。現在的問題是,你可能在WhatsApp上,認為自己只是和兩個朋友聊天,然後你說了一些非常愚蠢的話。然後它突然變得病毒式蔓延,到處都是。我沒有簡單的解決方案。但一些政府所採取的一個措施是,例如,擁有大量追隨者的人,他們會被要求遵循與沒人追隨的人的不同標準。即使是最基本的識別自己是人類的事情。
我們不希望每個人都需要從政府那裡獲得某種證書才能在WhatsApp上和朋友交流。然而,如果你在線上有十萬個追隨者,我們需要知道你不是機器人,而是真正的人類。而且,再一次,這並不涉及言論自由,因為機器人並不享有言論自由。
這是一種滑坡(論證),因為我在匿名性這個議題上左右搖擺,不知道這對社交網絡是好事還是壞事。當我偏向於認為人們應該具名時,我得到的反駁是,極權主義政府會利用這種方式基本上來懲罰那些發聲的人。極權主義政府無論我們喜不喜歡都在這樣做。如果英國這麼做,俄羅斯不會說「好吧,我們也這樣做」。俄羅斯已經在這樣做了。
而美國人開始這樣做更令人擔憂。如果有人反對特朗普,而他能接觸到他們的身份和信息,他會不會去查他們並讓他們被逮捕?如果我們達到法院會允許這種事情的地步,那麼我們已經陷入了非常大的麻煩中。我們應該明白,如今存在的監控技術讓一個極權主義政府有很多方法知道你是誰,而這不是主要的問題。
你提到平台應該對後果負責。是的。在英國,過去一個月,我們發生了,我不知道你是否聽說過,騷亂。據我所知,這一切最初都是因為一則消息,引發這些騷亂的,是某人謀殺了一些小孩,而這位人士的宗教信息上出現混淆或虛假信息,從而導致人們的抗議。
這是一個很好的例子,因為如果我個人私下對兩個朋友說,我認為這樣做的人是「前任」,我不認為因為這樣而受到迫害。我可以在我的私人客廳說這些話,在WhatsApp或Facebook上說同樣的話也是如此,但如果Facebook的算法偵測到這則假新聞,並開始推薦給越來越多的用戶,那麼Facebook就應該為其算法的行為負責。你應該能夠將其帶上法庭,並說這個算法故意推薦了一則假新聞。
同樣,如果這則假新聞是由一位擁有百萬追隨者的影響者生成的,那麼他也應該為此負責。但是如果一個私人個體在私人環境中說了某些不真實的話,這是假的新聞,而然後一個算法故意讓它傳播,主要的錯誤在於算法,以及應該入獄的人是擁有該算法的公司的管理者,而不是說出那些話的個人。
回到騷亂的問題,我們假設《衛報》在騷亂當天決定拿起這則假新聞並將其刊登在頭版上。然後他們把《衛報》的編輯告上法庭,他說,但我並沒有寫這篇文章,我只是找到了這則假新聞並決定把它放在《衛報》的頭版上。那麼,對我們來說,編輯肯定做了非常非常錯誤的事情,他可能會被判入獄。這不是原始生成假新聞的人的問題。
如果你是這個國家最大報紙之一的編輯,並且你決定在你的頭版上發佈某個東西,你最好非常確信你所發佈的是事實,尤其是如果這可能引發暴力的話。社交網絡的擁有者怎麼能知道這一點呢?他們如何能在如此大的規模上驗證所有內容的真實性?並不是所有的東西,但如果某些內容可能導致暴力,那是一種預防性的原則。
首先,不要造成傷害。同樣,我不是要Facebook審查這些假新聞。我只是希望它們不要故意讓其算法傳播這些新聞以增加用戶互動並賺取大量金錢。如果你不確定,乾脆不要傳播,即是這麼簡單。
那它怎麼知道什麼是假新聞,什麼又是重要的救命新聞呢?例如,這是公司的責任。同樣,如何知道《衛報》的編輯、《金融時報》或《週日泰晤士報》的編輯怎麼知道某些東西是否為真,是否應該發佈在頭版上?
如果你現在經營一家社交媒體公司,你實際上是在管理世界上最強大的報紙之一,你應該有相同類型的責任和專業知識。如果你對如何判斷算法應該向數百萬人推薦某些東西一無所知,那麼你就錯了行業。如果你受不了壓力,就該退出廚房。不要經營一家社交媒體公司,如果你不知道應該向數百萬人展示什麼。
這非常切題,因為顯然馬克·祖克伯格這周寫的信中提到,「我被FBI接觸,告訴我俄羅斯試圖影響選舉,他們獲得了一些信息,說有這個筆電的故事,喬·拜登的兒子亨特·拜登有這個筆電的故事,Facebook並不知道這是否真實,他們認為這可能是俄羅斯的陰謀,即俄羅斯放出這個故事,讓喬·拜登不能贏得選舉。因此,Facebook將其降權,停止其病毒式傳播並抑制了這個消息。結果發現這是一個真實的故事,而不是假的。」
馬克·祖克伯格表示,他後悔抑制了這個消息,因為這確實是一個真實的故事,而抑制這個消息在某種程度上影響了選舉。所以,這一切變得如此複雜,以至於我真的無法……經營一家大型媒體公司是有多麼複雜。
如果你這麼做的話…
經營《華爾街日報》或《福克斯新聞》是相當複雜的,假設FBI來到《福克斯新聞》或《華爾街日報》告訴他們:「看,有一個故事是俄羅斯人栽贓的,不要鼓勵它。」然後後來發現這是錯誤的。
這是有可能發生的。
而作為《華爾街日報》的經理,你需要面對這種情況。
在什麼條件下我會信任FBI呢?
有時他們應該信任。
有時候他們應該保持懷疑。
我感覺你會進監獄,《華爾街日報》的編輯。
你最終會進監獄,因為不論如何,你都在影響選舉,如果你影響……
但這就是生意的本質。
真正的問題是當你面對像扎克伯格或埃隆·馬斯克這樣的超級有權勢的人,他們假裝自己沒有權力,沒有影響力,並且不影響選舉,幾個世紀以來我們都知道報紙的擁有者和編輯會影響選舉,因此我們對他們有一定的標準。
而現在像推特、YouTube和Facebook這樣的平台的擁有者和經營者,擁有的權力甚至超過《紐約時報》、《衛報》或《華爾街日報》。
他們至少應該被要求負相同的責任。
他們的噱頭是,「哦,我們只是個平台。我們只允許每個人發布他們想要的東西。事情不是這樣運作的。」
我們不接受傳統媒體如此運作。
那麼為什麼我們應該接受它呢?
這正是這些科技公司所玩弄的把戲,我們擁有數千年的歷史,而他們告訴我們,「哦,這對我們不適用。」
就好像你有一個傳統的行業,比如汽車,這對每個人來說都是顯而易見的,除非你進行了一些安全檢查來確保新車的安全,否則你不能將新車上路。
你不能沒有安全檢查就將新藥或新疫苗推向市場。這是顯而易見的,對吧?
但當談到算法時,不,不,不,這是另一套規則。
你可以將任何算法推向市場。
你不需要任何安全規則。
更基本的是,你想想盜竊這件事。
你有十誡,不可偷盜。
人們知道,是的,你不應偷竊,直到涉及到信息。
哦,不,不,不,這不適用於信息。
我可以在未經你許可的情況下使用你的信息,做各種事情,並將其出售給第三方。
這不是盜竊。
「不可偷竊」不適用於我的行業。
這就是科技巨頭在過去十年或兩十年中所做的,告訴我們歷史不適用於他們,告訴我們人類在與獨裁政權以及其他事情的艱苦經歷中獲得的所有智慧不適用於新技術。
但它適用。
它確實適用。
你有沒有感到過一種衝動,想要登出帳號,只是去某個地方生活,可能是沙漠,甚至創建一個小小的宗教團體,而我每年都會這樣做。
哦,真的嗎?
是的,我會參加一個長達30到60天的靜坐冥想 Retreat。今年我計劃在書籍巡演結束後去印度進行60天的冥想 Retreat,完全斷開聯繫,沒有智能手機,沒有互聯網,甚至不帶書籍或寫作紙張,只進行信息禁食。
為什麼?
這對大腦有好處。
同樣,就像食物,攝取過多於己並不好,我們需要時間來消化和排毒。
這對大腦同樣適用。
如果你不斷用更多的資訊轟炸它,你會對錯誤的事物上癮。
你會養成壞習慣,而我需要,或至少我需要,時間來休息,以真正消化發生的一切,決定我想要什麼,不想要什麼,什麼樣的習慣,什麼樣的上癮我應該努力擺脫。
還有,也要更了解自己的心靈。
當心靈不斷受到外來信息的轟炸時,噪音如此之大,你無法真正了解它,因為有太多噪音。
但當噪音消失後,你就可以開始理解心靈到底是什麼。
它是如何運作的?
思緒從哪裡來?
什麼是恐懼?
什麼是憤怒?
當你因為讀到某些事情而憤怒徹底,你專注於你憤怒的對象,但你無法理解憤怒本身,憤怒控制著你。
當你進行信息禁食時,你可以觀察當我生氣時發生了什麼。
我的心靈和身體發生了什麼?
它是如何控制我的?
這比世界上的任何憤怒故事都更重要,了解憤怒到底是什麼。
這非常非常困難。
人們有多少次停止下來,只是試著了解他們的憤怒,而不是憤怒的對象。
這是我們一直在做的事。
我們有點重播。
我們聽到了一些可怕的事,因為一位我們不喜歡的政治人物,我不知道,有人非常憤怒於特朗普。
所以他會不斷重播,說,「噢,他這麼說,他這麼做,他將這麼做,他將那麼做。」
而這種方式並無法讓你真正了解你的憤怒。
我在Flight Group的投資組合中大約有50家公司。
其中一些是我投資的,一些是我自己共同創立或創建的。
我注意到的一個問題是,大多數公司對招聘過程投入的努力不夠。
在我看來,商業中第一個也是最重要的事情是組建你的團隊,因為“公司”這個詞的定義就是一群人。
在我的所有公司中,無論何時我想招聘人員,我第一個會查看的是LinkedIn職位,因此我樂意說我也是這個播客的贊助商。
他們幫助我們尋找那些我們在其他地方找不到的專業人才,即使那些並不積極尋找新工作的專業人才,但他們可能會對完美的角色持開放態度。
事實上,超過70%的LinkedIn使用者不會訪問其他主要的求職網站,因此如果你不在LinkedIn上尋找工作,那麼你可能在錯誤的地方找尋。
所以今天,我將給Diary of a CEO社群一個免費的LinkedIn招聘帖。請前往LinkedIn.com/doacnow,告訴我你的情況,條款和條件適用。
非常有趣的是,我在你談及未來時,腦中想到了各種情景,似乎出現了兩種人類的物種。一種人類物種連接到信息高速公路,通過互聯網和他們大腦中的神經鏈接。他們完全沈浸其中,算法不斷提供信息,他們根據這些信息行動,並反過來提供更多信息。
而另一組人則選擇拒絕這一切,他們沒有接入神經鏈接,不打算與人工智能交互,而是住在某個叢林中的部落裡。我女朋友幾年前對我說過:“我覺得會出現分裂。”當時我覺得隨便吧。但是現在我明白了,隨著事態變得越來越極端,人們就會說:“你知道嗎,我要在這裡做出一個決定。”
尤其當我看到伊隆·馬斯克在研發的神經鏈接技術允許你用大腦控制電腦時,我坐下來思考。控制電腦也要控制你的大腦,這是雙向的。是的,這是雙向的。你說的對,我其實沒有想到這一點。
但我只是想象,如果有你和我,而我大腦裡的晶片讓我可以控制電腦,那麼我和你就如同不同的物種,因為我可以控制樓下的車,控制這間房間的燈,詢問自己的大腦問題並得到答案。我的智商變成5,000,而你的仍然是150或200,可能是250。但我對你來說是一個不同的物種,我擁有如此巨大的競爭優勢,如果你不獲得這顆晶片,那麼你就慘了。這就是物種分化。
沒錯。我們在歷史的小範疇中也曾目睹過,採納書面文檔的人和拒絕的人不再存在了。那些採納書面文檔的人建立了王國和帝國,征服了其他所有人。但現在我們面臨著同樣的危險,這並不是一件好事,因為生活對於擁有文檔的人並不一定更好。在許多情況下,生活對於居住在之前時期的狩獵採集者來說要好得多。
那麼解決辦法是什麼呢?如果可以的話,我讀了你的書《Nexus:從石器時代到人工智能的資訊簡史》,那麼解決方案到底是什麼?我們如何停止趨同問題,讓所有人變成紙夾,如何避免社會混亂、錯誤資訊,以及你在書中提到的矽幕?我們如何防止這些事情對我們造成影響?有希望嗎?你樂觀嗎?
我認為關鍵在於合作,在於人與人之間的聯結。人類仍然比人工智能更強大。問題在於我們彼此之間產生了分歧,而算法不經意間加劇了這種分裂。這是每一個帝國的最古老規則,即 divide and rule。這是羅馬人和英國帝國的規則。如果你想統治一個地方,你就要使那個地方的人彼此對立,然後就容易操控和控制他們。這正在發生在整個人類物種與人工智能之間。就像冷戰時的鐵幕一樣,現在我們面臨著矽幕,它把中國與美國隔開,也把民主黨人與共和黨人隔開、每個人與另一個人隔開,甚至讓我們所有人與自主做出決策的人工智能隔開。我們還有五年、十年、二十年的時間,來確保不會向反烏托邦的方向發展,但為了做到這一點,我們需要合作。
你樂觀嗎?我努力保持現實主義。我剛從以色列回來,但我看到一個國家無故自我毀滅。這是一個隨便按下自我毀滅按鈕的國家,沒有任何合理理由,這可能會在全球範圍內發生。
你說按下自我毀滅按鈕是什麼意思?不僅僅是以色列和巴勒斯坦之間的戰爭,而是以色列社會正在對自己產生更大的分裂和敵意。這就像一個黑暗的憤怒和暴力的漩渦,吸引著越來越多的人。如今,世界各地都能感受到來自中東這個黑暗漩渦的震盪。而且這並沒有什麼合理的理由。如果我說一些關於以色列-巴勒斯坦衝突的事情,沒有客觀的理由。並不存在地中海和約旦河之間的土地不足以讓人們為其爭奪,或者沒有足夠的食物。其實有足夠的食物供每個人食用,足夠的土地讓每個人建房子、醫院和學校。
為什麼人們要打架?因為他們腦海中有不同的故事。他們有著不同的神話,認為上帝只將這片土地賜予了他們,認為其他人沒有權利在這裡。他們為此而戰。這是一個局部的、原始的悲劇,卻可能會發生在全球範圍內。再次強調,如果最終摧毀我們的東西,那將是我們自身的幻想,並不是人工智能。人工智能之所以獲得機會,是因為我們的弱點,因為我們的幻想。
伊冯,謝謝你寫這本書。我認為這本書是我所見過的最及時的書籍之一,因為目前世界上發生的一切。
這真的幫助我理解到,問題不見得是你我之間的對立,當你站在對立面時。問題在於資訊,我們消耗的資訊網絡,誰在控制這些資訊網絡。有人在操控我們,讓我們站在不同的立場上,不僅僅是要站在不同的立場,而是要將彼此視為敵人。現在,這是一個人。但也許不久後就不會是人了。理解這一點,我認為有助於我們集中注意力於有時難以識別的問題根源。我認為問題是我的鄰居。我認為是那個皮膚顏色不同的人。但其實,若你深一步思考,問題是資訊網絡和我所接觸到的,而這些資訊正在洗腦我並創造那些故事。正如你在之前的書中提到的,故事最終是推動世界運行的動力。這本《Nexus》是一本精彩的書,在這個美好的時刻幫助我們接觸到這個關於資訊力量的知識,以及它如何影響民主、社會關係、商業和一切之間的事物,我希望這能帶來行動。我認為這是值得樂觀的。是的。最終,我認為大多數人都是善良的,善良的人。當你給人們錯誤的資訊時,他們就會做出錯誤的決定。問題不在於這些人,而在於資訊。阿門。
伊冯娜,我們這個播客有一個結束的傳統,上一位嘉賓會為下一位嘉賓留下一個問題,而他們並不知道會留給誰。哦,好的。留給你的問題是:強大意味著什麼?接受現實如其所是,面對現實而不試圖掩蓋它、消失它或在其上加上一層面紗。這真有趣。我覺得你說得對。這肯定不是我會給出的答案,但你會怎麼說呢?哦,我該說什麼?我想我可能會談到在面對各種困難時的堅持。這是一種資訊,但就是那種在面對各種不同困難時朝著你的主觀目標不斷前進的想法。也許這種力量可以是養活一個孩子,也可以是去健身房等等。但我也喜歡你的定義,因為我覺得它在我們面臨的時期中更加重要。老實說,作為一個播客,你有時會感覺自己正身陷其中,因為我覺得每個人都在試圖弄清楚我是否在右派或左派。我是否相信這一點,是否贊同我與之交談的每一位嘉賓,你幾乎必須努力保持中立,但對於人們來說,這非常非常困難,因為他們希望你能適應某個位置,他們希望你能。這是一種弱點。我是說,你有很多聲稱自己很強大的人,他們尊重力量作為一種價值觀,但他們無法處理那些不符合他們世界觀或欲望的現實部分。他們認為力量就是,我有力量使這些現實的一部分消失。但不,這是弱點。對不起要回到這一點,但這也是戰爭,比如說,什麼是戰爭?就是試圖消除你不喜歡的現實的一部分。在這個案例中,整個族群,我不喜歡這些人。我認為他們不應在現實中存在。所以我試圖讓他們消失。而人們會說,哦,他是一位非常強大的領導者。他不是。他是一位非常弱小的領導者。一位強大的領導者會承認,不,這些人存在。他們是現實的一部分。我們現在來找出我們該如何與他們共處。
阿門。你的書《Nexus:從石器時代到人工智慧的資訊網絡簡史》是每一位聽眾和對這個主題感興趣的人必讀的書籍。得到我最喜愛的兩位人物的推薦,穆斯塔法·所羅門和斯蒂芬·弗萊,還有羅伊·史特里特。他也是個很棒的人。這本書獲得推薦是有充分理由的,因為這是一本完全擴展思維的書,是由一位僅僅寫出卓越改變文化的書籍的作者所寫的。因此,我將在下方鏈接它,並強烈建議所有聽過這次對話並對此主題有興趣的人立即去購買這本書。它現在可以預定,然後會在發行後五天內發送。成為首位閱讀它的人,希望能首位理解和付諸行動一些你在這本書中學到的東西。
伊冯娜,非常感謝你的時間。謝謝你。這不是很酷嗎?我在《CEO的日記》中進行的每一場對話,在結尾時,你會知道,我會請嘉賓在《CEO的日記》中留下問題,而我們所做的就是將每一個在《CEO的日記》中寫下的問題轉化為這些你可以在家玩的對話卡。因此,你可以看到我們曾經擁有的每位嘉賓的問題,在它的背面,若你掃描那個QR碼,你可以觀看回答該問題的人的視頻。他們最終揭示了所有問題和回答這些問題的人的信息。全新的第二版更新對話卡現在已經在 theconversationcards.com 發售。它們已經瞬間售罄兩次。因此,如果你希望拿到一些限量版的對話卡,我真的非常建議你迅速行動。謝謝。
Can humanity handle AI or will it be our downfall? Yuval Noah Harari looks back at history to guide us through this uncertain journey ahead.
Yuval Noah Harari is a best-selling author, public intellectual and Professor of History at the Hebrew University of Jerusalem. He is the author of multi-million bestseller books such as, ‘Sapiens: A Brief History of Humankind’ and ‘Homo Deus: A Brief History of Tomorrow’.
In this conversation, Yuval and Steven discuss topics such as, how AI is disconnecting people, the best way to control fake news, how institutions drive trust, and how Trump could change democracy.
(00:00) Intro
(02:31) Will Humans Continue To Rule The World?
(06:48) Why AI Is The Biggest Game-Changer In History
(10:34) Is AI Just Information Or Something More?
(16:53) Can AI Manipulate Our Bank Accounts And Political Views?
(21:42) How AI Will Affect Human Intimacy
(23:44) Will AI Replace Teachers?
(25:09) Why Online Information Is Junk
(28:42) How Politicians Use Fear To Manipulate Us
(31:52) Should There Be A Free Speech Movement
(39:38) How Algorithms Are Shaping Global Politics And Increasing Fear
(45:30) The Impact Of The US Election On Global Politics
(48:48) What Trump Could Do To US Democracy
(50:29) Can We Trust What We See On Social Media And The News?
(55:37) Will AI Eventually Run Governments?
(00:58:32) What Jobs Will AI Leave For Humans?
(01:02:01) Which Jobs Will Be Automated By AI?
(01:05:33) Is AI Conscious?
(01:07:19) AI, Robots, And The Future Of Consciousness
(01:10:01) Are We Living In A Simulation?
(01:13:09) How Algorithms Control Our Lives
(01:16:21) Understanding The AI Alignment Problem
(01:21:13) The Relationship Between AI And Corporate Interests
(01:25:04) The Growing Threat Of Totalitarian Governments
(01:33:08) How The Algorithm Knows It’s Fake News
(01:38:01) Is Yuval Tempted To Log Off?
(01:41:52) Will Humans Become Two Species?
(01:44:00) What’s The Solution To The Negatives Of AI?
(01:49:17) The Last Guest Question
Follow Yuval:
Instagram – https://g2ul0.app.link/7iXk5TnLAMb
Twitter – https://g2ul0.app.link/eaKRt5rLAMb
You can pre-order Yuval’s book ‘NEXUS: A Brief History of Information Networks from the Stone Age to AI’, here: https://g2ul0.app.link/Wae95KONAMb
Watch the episodes on Youtube – https://g2ul0.app.link/DOACEpisodes
My new book! ‘The 33 Laws Of Business & Life’ is out now – https://g2ul0.app.link/DOACBook
Get your hands on the brand new Diary Of A CEO Conversation Cards here: https://appurl.io/iUUJeYn25v
Follow me:
https://g2ul0.app.link/gnGqL4IsKKb
Sponsors:
Linkedin Jobs: linkedin/doac