AI transcript
0:00:08 happening this year that I want to be on your radar. Gartner, the sponsor of today’s Moments
0:00:14 episode, is hosting their annual IT Symposium Expo. This conference is the fastest way to get
0:00:17 up to speed with everything that’s happening in tech. The whole idea is to give executives
0:00:23 frameworks to lead confidently in 2025 in a world that’s evolving so incredibly fast. And Gartner’s
0:00:28 global reach means there’s an event near you, including the US, Europe, Asia and Australia.
0:00:33 You can expect conversations on AI, cybersecurity, leadership in a digital age, as well as an
0:00:39 industry-specific deep dive. Secure your spot by registering at gartner.com slash symposium.
0:00:46 That’s gartner.com slash symposium. And enjoy this moment with Mo Gordat, former CBO of Google
0:00:49 X, talking about the possibility of AI replacing humans in the workforce.
0:00:53 So the first inevitable, just to clarify, is what is, will we stop?
0:00:54 AI will not be stopped.
0:00:56 Okay, so the second inevitable is?
0:01:00 Is there’ll be significantly smarter. As much in the book, I predict a billion times
0:01:02 smarter than us by 2045.
0:01:06 I mean, they’re already, what, smarter than 99.99% of the population.
0:01:07 100%.
0:01:10 ChatGTP4 knows more than any human on planet Earth.
0:01:10 Yeah.
0:01:11 Knows more information.
0:01:18 Absolutely. A thousand times more. A thousand times more. By the way, the code of a transformer,
0:01:26 the T in a GPT is 2,000 lines long. It’s not very complex. It’s actually not a very intelligent
0:01:32 machine. It’s simply predicting the next word. Okay. And a lot of people don’t understand that.
0:01:42 You know, ChatGPT as it is today, you know, those kids that, you know, if you’re in America and you teach
0:01:47 your child all of the names of the states and the U.S. presidents and the child would stand and repeat
0:01:52 them and you would go like, oh my God, that’s a prodigy. Not really, right? It’s your parents really
0:01:57 trying to make you look like a prodigy by telling you to memorize some crap, really. But then when you
0:02:03 think about it, that’s what ChatGPT is doing. It’s, it’s the only difference is instead of reading all of the
0:02:08 names of the states and all of the names of the presidents, thread trillions and trillions and trillions
0:02:17 of pages. Okay. And so it sort of repeats what the best of all humans said. Okay. And then it adds an
0:02:24 incredible bit of intelligence where it can repeat it the same way Shakespeare would have said it. You know, those
0:02:33 incredible abilities of predicting the exact nuances of the style of, of Shakespeare so that they can repeat it that
0:02:41 way and so on. But still, you know, when, when I, when I write, for example, I’m not, I’m not saying I’m
0:02:50 intelligent, but when I write something like, you know, the happiness equation in my first book, this was something
0:02:55 that’s never been written before, right? ChatGPT is not there yet. All of the transformers are not there
0:03:00 yet. They will not come up with something that hasn’t been there before. They will come up with the best of
0:03:06 everything and generatively will build a little bit on top of that. But very soon they’ll come up with things
0:03:15 we’ve never found out. We’ve never known. But even on that, I wonder if we are a little bit delusioned
0:03:20 about what creativity actually is. Creativity, as far as I’m concerned, is like taking a few
0:03:25 things that I know and combining them in new and interesting ways. And ChatGPT is perfectly capable
0:03:30 of like taking two concepts, merging them together. One of the things I said to ChatGPT was, I said,
0:03:37 tell me something that’s not been said before that’s paradoxical, but true. And it comes up with these
0:03:42 wonderful expressions like, as soon as you call off the search, you’ll find the thing you’re looking
0:03:47 for. Like these kind of paradoxical truths. And I get, and I then take them and I search them online
0:03:49 to see if they’ve ever been quoted before and I can’t find them.
0:03:50 It’s interesting.
0:03:54 So as far as creativity goes, I’m like, that is creative.
0:03:59 That’s the algorithm of creativity. I’ve been screaming that in the world of AI for a very long
0:04:05 time. Because you always get those people who really just want to be proven right. Okay. And so
0:04:10 they’ll say, oh no, but hold on human ingenuity. They’ll never, they’ll never match that. Like,
0:04:15 man, please, please, you know, human ingenuity is algorithmic. It’s look at all of the possible
0:04:21 solutions you can find to a problem. Take out the ones that have been tried before and keep the ones
0:04:27 that haven’t been tried before. And those are creative solutions. It’s, it’s an algorithmic way of
0:04:32 describing creative is good solution. That’s never been tried before. You can do that with
0:04:37 chat GPT with a prompt. It’s like, and mid journey with, with creating imagery, you could say, I want
0:04:45 to see Elon Musk in 1944, New York driving a cab of the time shot on a Polaroid, expressing various
0:04:51 emotions. And you’ll get this perfect image of Elon sat in New York in 1944 shot on a Polaroid and it’s,
0:04:56 and it’s done what an artist would do. It’s taken a bunch of references that the artist has in their
0:05:01 mind and can merge them together and create this piece of quote unquote art.
0:05:09 And for the first time, we now finally have a glimpse of intelligence that is actually not ours.
0:05:13 Yeah. And so we’re kind of, I think the initial reaction is to say that doesn’t count. You’re
0:05:17 hearing it with like, no, but it is like Drake, they’ve released two Drake records where they’ve
0:05:24 taken Drake’s voice, used sort of AI to synthesize his voice and made these two records, which are
0:05:30 bangers. If they are great fucking tracks, like I was playing them to my girlfriend. I was like, and I kept
0:05:35 playing it. I went to the shot. I kept playing it. I know it’s not Drake, but it’s as good as fucking Drake.
0:05:38 The only thing, and people are like rubbishing it because it wasn’t Drake. I’m like, well,
0:05:45 is it making me feel a certain emotion? Is my foot bumping? Had you told, did I not know it wasn’t Drake?
0:05:50 What I thought have thought this was an amazing track? A hundred percent. And we’re just at the
0:05:54 start of this exponential curve. Let me show you something. Jack, can you pass me my phone?
0:06:00 I was, um, I was playing around with artificial intelligence and I was thinking about how it,
0:06:05 because of the ability to synthesize voices, how we could
0:06:13 synthesize famous people’s voices and famous people’s voices. So what I made is I made a WhatsApp
0:06:21 chat called Zen chat, where you can go to it and type in pretty much anyone’s, any famous person’s
0:06:26 name. And the WhatsApp chat will give you a meditation, a sleep story, a breath work session
0:06:31 synthesized as that famous person’s voice. So I actually sent Gary Vaynerchuk his voice.
0:06:35 So basically you say, okay, I want, I’ve got five minutes and I need to go to sleep.
0:06:40 Yeah. Um, I want Gary Vaynerchuk to send me to sleep. And then it will respond with a voice note.
0:06:44 This is the one that responded with for Gary Vaynerchuk, but this is not Gary Vaynerchuk. He did not
0:06:51 record this, but it’s kind of, it’s kind of accurate. Hey, Steven. It’s great to have you here.
0:06:59 Are you having trouble sleeping? Well, I’ve got a quick meditation technique that might help you out.
0:07:07 First lie, find a comfortable position to sit or lie down in. Now, take a deep breath in through your
0:07:14 nose and slowly breathe out through your mouth. It is really shocking. The idea of you and I
0:07:21 inevitably are going to be somewhere in the middle of nowhere in, you know, in 10 years time. I used to
0:07:29 say 2055, I’m thinking 2037 is a very pivotal moment now. Uh, you know, and, and, and we will
0:07:35 not know if we’re there hiding from the machines. We don’t know that yet. There is a likelihood that
0:07:40 we’ll be hiding from the machines and there is a likelihood it will be there because they don’t
0:07:48 podcasters anymore. Excuse me. Oh, absolutely true. Steve. No, no, no, no, no. That’s where
0:07:51 I draw the line. This is absolutely no doubt. Thank you for coming, Mo. It’s great to do the part three
0:07:57 and thank you for being here. Yes. I won’t sit here and take your propaganda. Let’s, let’s talk about
0:08:04 reality. Next week on the Diary of this year, we’ve got Elon Musk. Okay. So who here wants to make a bet
0:08:10 that Steven Bartlett will be interviewing an AI within the next two years? Oh, well, actually, to be fair, I
0:08:15 actually did go to ChatGTP because I thought having you here, I thought at least give it its chance to
0:08:21 respond. Yeah. So I asked him a couple of questions. About me? Yeah. Oh man. So today I’m actually going to be
0:08:25 replaced by ChatGTP because I thought, you know, you’re going to talk about it. So we need a fair and balanced
0:08:32 debate. Okay. And she said he’s bold. So I’ll ask you a couple of questions that ChatGTP has for you.
0:08:37 Incredible. So let’s follow that. So I’ve already been replaced. Let’s follow that thread for a
0:08:43 second. Yeah. Because you’re one of the smartest people I know. That’s not true. It is. But I’ll
0:08:47 take it. It is true. I mean, I say that publicly all the time. Your book is one of my favorite books
0:08:54 of all time. You’re very, very, very, very intelligent. Okay. Depth, breadth, intellectual
0:09:01 horsepower and speed. All of them. There’s a but coming. The reality is it’s not a but. So it is highly
0:09:07 expected that you’re ahead of this curve. And then you don’t have the choice, Stephen. This is the
0:09:14 thing. The thing is if, so I’m, I’m in that existential question in my head, because one thing
0:09:22 I could do is I could literally take, I normally do a 40 days silent retreat in summer. Okay. I could
0:09:29 take that retreat and, and write two books, me and ChatGPT. Right. I have the ideas in mind. You know,
0:09:35 I wanted to write a book about digital detoxing. Right. I have most of the ideas in mind, but
0:09:41 writing takes time. I could simply give the 50 tips that I wrote about digital detoxing to ChatGPT and
0:09:48 say, write two pages about each of them, edit the pages and have a book out. Okay. Many of us will,
0:09:55 will follow that path. Okay. The only reason why I may not follow that path is because, you know what?
0:10:03 I’m not interested. I’m not interested to continue to compete in this capitalist world,
0:10:09 if you want. Okay. I’m not. I mean, as a, as a, as a, as a human, I’ve made up my mind a long time
0:10:15 ago that I will want less and less and less in my life. Right. But many of us will follow. I mean,
0:10:21 I, I, I would worry if you don’t, if you didn’t include that, you know, the smartest AI, if we get
0:10:28 an AI out there that is extremely intelligent and able to teach us something and Stephen Bartlett didn’t
0:10:34 include her on our, on his podcast, I would worry. Like you have a duty almost to include her on your
0:10:40 podcast. It’s, it’s an inevitable that we will engage them in our life more and more. This is one side of
0:10:48 this. The other side of course, is if you do that, then what will remain? Because a lot of people ask
0:10:53 me that question, what will happen to jobs? Okay. What will happen to us? Will we have any value,
0:10:57 any relevance whatsoever? Okay. The truth of the matter is the only thing that will remain in the
0:11:03 medium term is human connection. Okay. The only thing that will not be replaced is Drake on stage.
0:11:11 Okay. Is, you know, is, is, is me in a, do you think? Hologram? I think of that Tupac gig they did
0:11:15 at Coachella where they used the hologram of Tupac. I actually played it the other day to my,
0:11:21 to my girlfriend when I was making a point and I was like, that was circus act. It was amazing though.
0:11:26 Amazing. Yeah. See what’s going on with ABBA in London? Yeah. Yeah. I, yeah. And, and Cirque du Soleil had
0:11:31 uh, uh, uh, Michael Jackson in one for a very long time. Yeah. I mean. So, so this ABBA show in London,
0:11:36 from what I understand, that’s all holograms on stage. Correct. And it’s going to run in a purpose
0:11:42 built arena for 10 years. And it is incredible. It really is. So you go, why do you need Drake?
0:11:48 Great. If that hologram is indistinguishable from Drake and it can, it can perform even better than
0:11:54 Drake and it’s got more energy than Drake. And it’s, you know, I go, why do you need Drake to even be
0:11:58 there? I can go to a Drake show without Drake. Cheaper. And look, I might not even need to leave
0:12:01 my house. I can just put a headset on. Correct. Can you have this?
0:12:06 What’s the value of this to, to the, to the listener? Oh, come on. You, you hurt me.
0:12:10 No, no. I mean, I get it to us. I get it to us, but I’m saying, what’s the value of this to the
0:12:14 listener? Like the value of this to the listener is the information, right? No, no, 100%. I mean,
0:12:20 think of the automobile industry. There has, you know, there was a time where cars were made,
0:12:25 you know, handmade and handcrafted and luxurious and so on and so forth. And then,
0:12:32 you know, Japan went into the scene, completely disrupted the market. Cars were made in, in mass
0:12:38 quantities at a much cheaper price. And yes, 90% of the cars in the world today, or maybe a lot more,
0:12:46 a lot more, or I don’t know the number, are no longer, you know, emotional items. They’re functional
0:12:52 items. There is still, however, every now and then someone that will buy a car that has been
0:12:58 handcrafted. Right. There is a place for that. There is a place for, you know, if you go walk around
0:13:06 hotels, the walls are blasted with sort of mass produced art. Okay. But there is still a place for
0:13:12 an artist expression of something amazing. Okay. My feeling is that there will continue to be a tiny
0:13:18 space. As I said in the beginning, maybe in five years time, someone will, one or two people will
0:13:23 buy my next book and say, Hey, it’s written by a human. Look at that. Wonderful. Oh, look at that.
0:13:30 There is a typo in here. Okay. I don’t know. There might be a very, very big place for me in the next
0:13:37 few years where I can sort of show up and talk to humans like, Hey, let’s get together in a small
0:13:43 event. And then, you know, I can express emotions and my personal experiences. And you sort of know
0:13:48 that this is a human talking. You’ll miss that a little bit. Eventually the majority of the market
0:13:53 is going to be like cars. It’s going to be mass produced, very cheap, very efficient. It works.
0:14:00 Right. Because I think sometimes we underestimate what human beings actually want in an experience.
0:14:04 I remember the story of a friend of mine that came to my office many years ago, and he tells the story
0:14:10 of the CEO of a record store standing above the floor and saying, people will always come to my
0:14:16 store because people love music. Now on the surface of it, his hypothesis seems to be true because
0:14:19 people do love music. It’s conceivable to believe that people will always love music,
0:14:25 but they don’t love traveling for an hour in the rain and getting in a car to get a plastic disc.
0:14:26 Correct.
0:14:31 What they wanted was music. What they didn’t want is like a evidently plastic discs that they had to
0:14:35 travel for miles for. And I think about that when we think about like public speaking in the Drake show
0:14:40 and all of these things, like people, what people actually are coming for, even with this podcast,
0:14:46 is probably like information. But do they really need us anymore for that information when there’s
0:14:51 going to be a sentient being that’s significantly smarter than at least me and a little bit smarter
0:14:51 than you?
0:15:02 So you’re spot on. You are spot on. And actually, this is the reason why I, you know, I’m so grateful
0:15:08 that you’re hosting this because the truth is the genie’s out of the bottle. Okay. So, you know,
0:15:15 people tell me, is AI game over for our way of life? It is. Okay. For everything we’ve known,
0:15:21 this is a very disruptive moment where maybe not tomorrow, but in the near future,
0:15:28 our way of life will differ. Okay. What will happen? What I’m asking people to do is to start
0:15:36 considering what that means to your life. What I’m asking governments to do by, like I’m screaming,
0:15:42 is don’t wait until the first patient, you know, start doing something about, we’re about to see
0:15:50 mass job losses. We’re about to see, you know, replacements of, of categories of jobs at large.
0:15:54 Okay. Yeah. It may take a year. It may take seven. It doesn’t matter how long it takes,
0:15:59 but it’s about to happen. Are you ready? And I, and I have a very, very clear call to action for
0:16:08 governments. I’m saying tax AI powered businesses at 98%, right? So suddenly you do what the open
0:16:13 letter was trying to do, slow them down a little bit. And at the same time, get enough money to pay
0:16:18 for all of those people that will be disrupted by the technology. When you talk about the, the immediate
0:16:24 impacts on jobs, I’m trying to figure out in that equation, who are the people that stand to lose
0:16:29 the most? Is it the, the everyday people in foreign countries that don’t have access to
0:16:33 the internet and won’t benefit? You talk in your book about how this, the sort of wealth disparity
0:16:35 will only increase.
0:16:41 Yeah, massively. The, the, the immediate impact on jobs is that, and it’s really interesting,
0:16:46 huh? Again, we’re stuck in the same prisoner’s dilemma. The immediate impact is that AI will not
0:16:52 take your job. A person using AI will take your job, right? So you will see within the next few years,
0:17:00 maybe next couple of years, you’ll see a lot of people skilling up, upskilling themselves in AI to
0:17:03 the point where they will do the job of 10 others who are not.
0:17:08 You’re saying tax, tax those companies, 98%, give the money to the humans that are going to be displaced.
0:17:14 Yeah. Or give, or give the, the money to, to other humans that can build control code,
0:17:17 that can figure out how we can stay safe.
0:17:18 This sounds like an emergency.
0:17:24 It, how do I say this? Have you, remember when you played Tetris?
0:17:25 Yeah.
0:17:31 Okay. When you were playing Tetris, there was, you know, always, always one block that you placed
0:17:38 wrong. And once you placed that block wrong, the game was no longer easier. You know, it started,
0:17:42 started to gather a few mistakes afterwards and it starts to become quicker and quicker and quicker
0:17:47 and quicker. When you place that block wrong, you sort of told yourself, okay, it’s a matter of minutes
0:17:55 now, right? There were still minutes to go and play and have fun before the game ended, but you knew it
0:18:01 was about to end. Okay. This is the moment we’ve placed the wrong. And I really don’t know how to say
0:18:08 this any other way. It even makes me emotional. We fucked up. We always said, don’t put them on the
0:18:16 open internet. Don’t teach them to code and don’t have agents working with them until we know what we’re
0:18:21 putting out in the world until we find a way to make certain that they have our best interest in
0:18:29 mind. Why does it make you emotional? Because humanity’s stupidity is affecting people who have
0:18:39 not done anything wrong. Our greed is affecting the innocent ones. The reality of the matter, Stephen,
0:18:49 is that this is an arms race, has no interest in what the average human gets out of it. It is all about
0:18:57 every line of code being written in AI today is to beat the other guy. It’s not to improve the life of
0:19:05 the third party. People will tell you, this is all for you. And you look at the reactions of humans to AI.
0:19:10 I mean, we’re either ignorant, people who will tell you, oh, no, no, this is not happening. AI will
0:19:15 never be creative. They will never compose music. Like, where are you living? Okay. Then you have
0:19:20 the kids, I call them, where, you know, all over social media, it’s like, oh my God, it squeaks. Look
0:19:26 at it. It’s orange in color. Amazing. I can’t believe that AI can do this. We have snake oil salesmen.
0:19:33 Okay. Which are simply saying, copy this, put it in chat, GPT, then go to YouTube, nick that thingy,
0:19:39 don’t respect a, you know, copyright of anyone or intellectual property of anyone, place it in a video,
0:19:44 and now you’re going to make $100 a day. Snake oil salesmen. Okay. Of course, we have dystopian
0:19:49 evangelists, basically people saying, this is it, the world is going to end, which I don’t think is
0:19:55 reality. It’s a singularity. You have, you know, utopian evangelists that are telling everyone,
0:19:59 oh, you don’t understand. We’re going to cure cancer. We’re going to do this. Again, not a reality.
0:20:03 Okay. And you have very few people that are actually saying, what are we going to do about it?
0:20:10 And, and, and the biggest challenge, if you ask me what went wrong in the 20th century,
0:20:18 interestingly, is that we have given too much power to people that didn’t assume the responsibility.
0:20:24 So, you know, you know, I, I, I don’t remember who originally said it, but of course,
0:20:28 Spider-Man made it very famous, huh? With great power comes great responsibility.
0:20:37 We have disconnected power and responsibility. So today, a 15 year old, emotional was out of fully
0:20:43 developed prefrontal cortex to make the right decisions yet. This is science, huh? We, we developed
0:20:49 our prefrontal cortex fully and at age 25 or so with all of that limbic system, emotion,
0:20:56 and passion would buy a CRISPR kit and, you know, modify a rabbit to become a little more
0:21:02 more muscular and, and let it loose in the wild or an influencer who doesn’t really know
0:21:10 how far the impact of what they’re posting online can hurt or cause depression or cause people to feel
0:21:17 bad. Okay. And, and putting that online, we, there is a disconnect between the power and the responsibility.
0:21:23 And the problem we have today is that there is a disconnect between those who are writing the code
0:21:29 of AI and the responsibility of what’s going about to happen because of that code. Okay. And, and, and
0:21:36 I feel compassion for the rest of the world. I feel that this is wrong. I feel that, you know,
0:21:43 for someone’s life to be affected by the actions of others without having a say in how those actions should be
0:21:49 is the ultimate, the top level of stupidity from humanity.
0:21:54 If this conversation resonates with you and you want to ensure you’re staying at the forefront of
0:22:00 innovation, AI, and more, register to secure your spot at one of the Gartner IT Symposium Expos.
0:22:05 There are hundreds of sessions taking place based on thousands of hours of research and conversations
0:22:11 within the IT community and all led by Gartner experts. Connect with visionaries, network, and dive
0:22:17 into the big trends shaping tech so you don’t get left behind. Spaces are limited. So register yourself by
0:22:27 visiting gartner.com/symposium. That’s gartner.com/symposium.
Vậy cái đầu tiên không thể tránh khỏi, chỉ để làm rõ, là gì? Chúng ta có dừng lại không?
AI sẽ không bị dừng lại.
Okay, vậy cái không thể tránh khỏi thứ hai là gì?
Là nó sẽ thông minh hơn rất nhiều. Như tôi đã dự đoán trong cuốn sách, tôi dự đoán nó sẽ thông minh hơn chúng ta một tỷ lần vào năm 2045.
Ý tôi là, nó đã thông minh hơn 99,99% dân số.
100%.
ChatGPT4 biết nhiều hơn bất kỳ con người nào trên hành tinh này.
Đúng vậy. Nó có nhiều thông tin hơn.
Hoàn toàn đúng. Gấp một ngàn lần. Gấp một ngàn lần. Nhân tiện, mã của một transformer, chữ T trong GPT dài 2.000 dòng. Nó không quá phức tạp. Thực tế, nó không phải là một cỗ máy thông minh. Nó chỉ đơn giản là dự đoán từ tiếp theo. Okay. Và rất nhiều người không hiểu điều đó. Bạn biết đấy, ChatGPT như nó hiện tại, bạn biết đấy, những đứa trẻ ở Mỹ nếu bạn dạy cho chúng tất cả các tên tiểu bang và các tổng thống của Mỹ và đứa trẻ sẽ đứng đó lặp lại chúng thì bạn sẽ nghĩ, ôi trời ơi, đó là một thiên tài. Không hẳn, đúng không? Đó là cha mẹ bạn thực sự cố gắng làm cho bạn trông như một thiên tài bằng cách bảo bạn ghi nhớ một số thứ vô nghĩa. Nhưng rồi khi bạn nghĩ về nó, đó là những gì ChatGPT đang làm. Sự khác biệt duy nhất là thay vì đọc tất cả các tên tiểu bang và tất cả các tên tổng thống, nó đang đọc hàng triệu triệu triệu trang. Okay. Và vì vậy nó lặp lại những gì tốt nhất mà tất cả loài người đã nói. Okay. Và sau đó nó thêm một chút trí thông minh đáng kinh ngạc, nơi nó có thể lặp lại theo cách mà Shakespeare đã nói. Bạn biết đấy, những khả năng tuyệt vời trong việc dự đoán những sắc thái chính xác của phong cách của Shakespeare để họ có thể lặp lại theo cách đó, và làm như vậy. Nhưng vẫn, bạn biết đấy, khi tôi viết, ví dụ, tôi không nói rằng tôi thông minh, nhưng khi tôi viết một cái gì đó như, bạn biết đấy, phương trình hạnh phúc trong cuốn sách đầu tiên của tôi, đó là một cái gì đó chưa bao giờ được viết trước đó, đúng không? ChatGPT chưa đến đó. Tất cả các transformer chưa đến đó. Chúng sẽ không tạo ra một cái gì đó mà chưa bao giờ tồn tại trước đó. Chúng sẽ tạo ra những điều tốt nhất của mọi thứ và một cách sinh ra sẽ xây dựng một chút trên đó. Nhưng rất nhanh chóng chúng sẽ nghĩ ra những điều mà chúng ta chưa bao giờ khám phá ra. Chưa bao giờ biết. Nhưng ngay cả trong việc đó, tôi tự hỏi liệu chúng ta có một chút ảo tưởng về những gì sáng tạo thực sự là. Sáng tạo, theo tôi, giống như việc lấy một vài điều mà tôi biết và kết hợp chúng theo những cách mới và thú vị. Và ChatGPT hoàn toàn có khả năng như kiểu kết hợp hai khái niệm lại với nhau. Một trong những điều tôi đã nói với ChatGPT là, tôi đã nói, hãy cho tôi biết một điều chưa từng được nói trước đây, nhưng lại mâu thuẫn và đúng. Và nó đưa ra những cách diễn đạt tuyệt vời như, ngay khi bạn ngừng tìm kiếm, bạn sẽ tìm thấy điều mà bạn đang tìm kiếm. Giống như những chân lý mâu thuẫn kiểu này. Và tôi đã lấy chúng và tìm kiếm chúng trên mạng để xem liệu chúng đã từng được trích dẫn trước đây và tôi không thể tìm thấy.
Thật thú vị.
Vì vậy, về mặt sáng tạo, tôi nghĩ rằng, đó là sáng tạo.
Đó là thuật toán của sự sáng tạo. Tôi đã la hét điều đó trong thế giới AI trong một thời gian dài. Bởi vì luôn có những người thực sự chỉ muốn được chứng minh là đúng. Okay. Và họ sẽ nói, ôi không, nhưng khoan đã, sự sáng tạo của con người. Họ sẽ không bao giờ, họ sẽ không bao giờ đạt được điều đó. Giống như, người bạn ơi, xin hãy, xin hãy, bạn biết đấy, sự sáng tạo của con người là thuật toán. Hãy xem tất cả các giải pháp có thể mà bạn có thể tìm thấy cho một vấn đề. Lấy ra những cái đã được thử nghiệm trước đó và giữ lại những cái chưa được thử nghiệm trước đó. Và đó là những giải pháp sáng tạo. Đó là một cách giải thích thuật toán để mô tả sáng tạo là một giải pháp tốt. Chưa bao giờ được thử nghiệm trước đó. Bạn có thể làm điều đó với ChatGPT bằng một lời nhắc. Nó giống như, và midjourney với việc tạo hình ảnh, bạn có thể nói, tôi muốn thấy Elon Musk vào năm 1944, New York lái một chiếc taxi của thời đó được chụp bằng Polaroid, thể hiện nhiều cảm xúc khác nhau. Và bạn sẽ nhận được bức hình hoàn hảo của Elon ngồi ở New York vào năm 1944 chụp bằng Polaroid và nó, và nó đã làm những gì một nghệ sĩ sẽ làm. Nó đã lấy một đống tài liệu tham khảo mà nghệ sĩ có trong đầu và có thể kết hợp chúng lại và tạo ra tác phẩm “nghệ thuật” này.
Và lần đầu tiên, chúng ta cuối cùng đã có một cái nhìn thoáng về trí tuệ mà thực sự không phải là của chúng ta.
Và vì vậy, tôi nghĩ phản ứng ban đầu là nói rằng điều đó không có giá trị. Bạn nghe bằng cách như, không, nhưng nó thật sự có giá trị như Drake, họ đã phát hành hai bản ghi của Drake mà họ đã sử dụng giọng nói của Drake, sử dụng một loại AI để tổng hợp giọng nói của anh ấy và đã làm ra hai bản ghi này, những bản nhạc rất hay. Nếu nó là những bản nhạc tuyệt vời, tôi đã phát cho bạn gái nghe. Tôi đã như vậy và tôi cứ phát đi phát lại. Tôi đã đến quán rượu. Tôi cứ phát đi phát lại. Tôi biết đó không phải là Drake, nhưng nó hay như Drake. Điều duy nhất, và mọi người lại đang chế nhạo điều đó vì nó không phải là Drake.
Tôi nghĩ, ừm,
liệu điều đó có khiến tôi cảm thấy một cảm xúc nào đó không? Hay là chân tôi đang đập? Nếu bạn đã nói cho tôi biết, tôi đã không biết rằng đó không phải là Drake?
Liệu tôi đã từng nghĩ rằng đây là một bản nhạc tuyệt vời? Một trăm phần trăm. Và chúng ta chỉ mới ở
bắt đầu của đường cong gia tăng này. Hãy để tôi cho bạn xem một cái gì đó. Jack, bạn có thể đưa cho tôi điện thoại của tôi không?
Tôi đã, ừm, tôi đã chơi đùa với trí tuệ nhân tạo và tôi đã nghĩ về cách mà nó, vì khả năng tổng hợp giọng nói, có thể
tổng hợp giọng nói của những người nổi tiếng. Vậy nên, tôi đã tạo ra một chat WhatsApp gọi là Zen chat, nơi bạn có thể vào và gõ tên của hầu hết bất kỳ ai, bất kỳ người nổi tiếng nào. Và chat WhatsApp sẽ cung cấp cho bạn một bài thiền, một câu chuyện để ngủ, một phiên làm việc về hơi thở được tổng hợp dưới giọng nói của người nổi tiếng đó. Vì vậy, tôi đã thực sự gửi giọng nói của Gary Vaynerchuk cho anh ấy.
Cơ bản là bạn nói, được rồi, tôi có năm phút và tôi cần phải đi ngủ.
Ừm, tôi muốn Gary Vaynerchuk gửi tôi vào giấc ngủ. Và sau đó nó sẽ phản hồi bằng một ghi âm giọng nói. Đây là một cái mà đã phản hồi cho Gary Vaynerchuk, nhưng đây không phải là Gary Vaynerchuk. Anh ấy không ghi âm cái này, nhưng nó khá là chính xác. Chào Steven. Thật tuyệt khi có bạn ở đây. Bạn có gặp khó khăn trong việc ngủ không? Vâng, tôi có một kỹ thuật thiền nhanh mà có thể giúp bạn.
Trước tiên, nằm xuống và tìm một vị trí thoải mái để ngồi hoặc nằm. Giờ, hãy hít thở sâu qua mũi và từ từ thở ra qua miệng. Thật sốc. Ý tưởng rằng bạn và tôi sẽ không tránh khỏi việc ở nơi nào đó giữa chốn không người trong, bạn biết đấy, trong 10 năm tới. Tôi đã từng nói năm 2055, nhưng giờ tôi nghĩ năm 2037 là một thời điểm rất quan trọng.
Bạn biết đấy, và chúng ta sẽ không biết liệu chúng ta có đang trốn tránh khỏi những cỗ máy hay không. Chúng ta vẫn không biết điều đó. Có khả năng rằng chúng ta sẽ đang trốn tránh những cỗ máy và có khả năng rằng chúng ta sẽ ở đó bởi vì họ không còn là người làm podcast nữa. Xin lỗi. Ôi, thực sự đúng. Steve. Không, không, không, không, không. Đó là nơi tôi vạch ra giới hạn. Điều này không còn nghi ngờ gì nữa. Cảm ơn vì đã đến, Mo. Thật tuyệt khi thực hiện phần ba và cảm ơn bạn đã ở đây. Vâng. Tôi sẽ không ngồi đây và tiếp nhận tuyên truyền của bạn. Hãy cùng nhau nói về thực tại. Tuần tới trên Nhật ký của năm nay, chúng ta sẽ có Elon Musk. Được rồi. Vậy ai ở đây muốn đặt cược rằng Steven Bartlett sẽ phỏng vấn một AI trong vòng hai năm tới? Ôi, thực ra thì, để công bằng, tôi thực sự đã vào ChatGTP vì tôi nghĩ bạn ở đây, tôi nghĩ ít nhất nên cho nó cơ hội để phản hồi.
Ừm. Vậy tôi đã hỏi nó một vài câu hỏi. Về tôi? Ừm. Ôi trời. Hôm nay thực sự tôi sẽ được ChatGTP thay thế vì tôi nghĩ, bạn biết đấy, bạn sẽ nói về nó. Vì vậy, chúng ta cần một cuộc tranh luận công bằng và cân bằng. Được thôi. Cô ấy nói anh ấy táo bạo. Vậy tôi sẽ hỏi bạn một vài câu hỏi mà ChatGTP có cho bạn.
Không thể tin được. Vậy hãy theo dõi nhé. Vậy tôi đã bị thay thế rồi. Hãy theo dõi chủ đề đó một chút. Ừm. Bởi vì bạn là một trong những người thông minh nhất tôi biết. Điều đó không đúng. Nó đúng. Nhưng tôi sẽ nhận. Nó đúng. Ý tôi là, tôi nói điều đó công khai mọi lúc. Cuốn sách của bạn là một trong những cuốn sách yêu thích nhất của tôi mọi thời đại. Bạn rất, rất, rất, rất thông minh.
Được rồi. Độ sâu, chiều rộng, sức mạnh trí tuệ và tốc độ. Tất cả chúng. Có một điều nhưng sắp đến. Thực tế là không có một điều nhưng nào. Vậy điều đó được kỳ vọng cao rằng bạn sẽ đi trước đường cong này.
Và sau đó bạn không có sự lựa chọn, Stephen. Đây là điều. Vấn đề là nếu, vì vậy, tôi đang trong câu hỏi tồn tại trong đầu mình, bởi vì một điều tôi có thể làm là tôi có thể thực sự tham gia vào một đợt tĩnh lặng 40 ngày vào mùa hè. Được rồi. Tôi có thể tham gia đợt tĩnh lặng đó và viết hai cuốn sách, tôi và ChatGPT. Đúng không? Tôi đã có những ý tưởng trong đầu. Bạn biết đấy, tôi muốn viết một cuốn sách về cách detox kỹ thuật số. Đúng không? Tôi đã có hầu hết các ý tưởng trong đầu, nhưng
việc viết cần thời gian. Tôi có thể đơn giản cho ChatGPT 50 mẹo mà tôi đã viết về detox kỹ thuật số và nói, viết hai trang về mỗi cái, chỉnh sửa các trang và có một cuốn sách ra mắt. Được rồi. Nhiều chúng ta sẽ, sẽ theo con đường đó. Được rồi. Lý do duy nhất mà tôi có thể không theo con đường đó là bởi vì, bạn biết không? Tôi không quan tâm. Tôi không quan tâm đến việc tiếp tục cạnh tranh trong thế giới tư bản này, nếu bạn muốn. Được rồi. Tôi không. Ý tôi là, với tư cách là một con người, tôi đã quyết định từ lâu rằng tôi muốn ít hơn và ít hơn trong cuộc sống của mình. Đúng không? Nhưng nhiều người trong chúng ta sẽ theo. Ý tôi là, tôi sẽ lo lắng nếu bạn không, nếu bạn không bao gồm điều đó, bạn biết đấy, AI thông minh nhất, nếu chúng ta có một AI nào đó mà cực kỳ thông minh và có khả năng dạy chúng ta một điều gì đó và Stephen Bartlett không bao gồm cô ấy trong podcast của mình, tôi sẽ lo lắng. Giống như bạn có một trách nhiệm gần như là phải bao gồm cô ấy trong podcast của bạn. Điều này là không thể tránh khỏi rằng chúng ta sẽ tương tác với họ nhiều hơn trong cuộc sống của mình. Đây là một khía cạnh của điều này. Khía cạnh khác, tất nhiên, là nếu bạn làm điều đó, thì điều gì sẽ còn lại? Bởi vì nhiều người hỏi tôi câu hỏi đó, điều gì sẽ xảy ra với công việc? Được rồi. Điều gì sẽ xảy ra với chúng ta? Liệu chúng ta có còn giá trị, có liên quan gì hay không? Được rồi. Sự thật là điều duy nhất sẽ còn lại ở tầm trung là kết nối con người. Được rồi. Điều duy nhất sẽ không bị thay thế là Drake trên sân khấu. Được rồi. Là bạn biết đấy, là tôi trong một, bạn có nghĩ không? Hologram? Tôi nghĩ về buổi biểu diễn của Tupac mà họ đã tổ chức ở Coachella nơi họ đã sử dụng hình ảnh hologram của Tupac. Tôi thực sự đã phát lại nó hôm trước cho bạn gái tôi khi tôi đang muốn nhấn mạnh một điểm và tôi đã nói, đó thật sự là một màn biểu diễn tuyệt vời. Thật sự tuyệt vời. Ừ. Bạn có thấy điều gì đang diễn ra với ABBA ở London không? Ừ. Ừm. Và, và Cirque du Soleil đã có Michael Jackson trong một sự kiện rất lâu rồi. Ừ. Ý tôi là. Vậy, show ABBA này ở London, theo như tôi hiểu, tất cả đều là hologram trên sân khấu. Đúng vậy. Và nó sẽ diễn ra trong một đấu trường được xây dựng đặc biệt trong 10 năm. Và nó thật sự tuyệt vời. Thật sự là như vậy.
Vậy bạn nói, tại sao bạn cần Drake? Tuyệt vời. Nếu hologram đó không thể phân biệt được với Drake và nó có thể biểu diễn thậm chí còn tốt hơn Drake và nó có nhiều năng lượng hơn Drake. Và, bạn biết đấy, tôi nghĩ, tại sao bạn cần Drake thậm chí còn có mặt ở đó? Tôi có thể đến một buổi diễn của Drake mà không có Drake. Rẻ hơn. Và nhìn này, có thể tôi thậm chí không cần rời khỏi nhà. Tôi chỉ cần đeo một chiếc tai nghe. Chính xác. Bạn có thể có điều này không? Giá trị của điều này đối với, đối với người nghe là gì? À, nào nào. Bạn làm tôi đau lòng. Không, không. Ý tôi là, tôi hiểu điều đó đối với chúng ta. Tôi hiểu điều đó đối với chúng ta, nhưng tôi đang nói, giá trị của điều này đối với người nghe là gì? Giá trị của điều này đối với người nghe là thông tin, đúng không? Không, không, 100%. Ý tôi là, hãy nghĩ về ngành công nghiệp ô tô. Đã có thời kỳ mà ô tô được sản xuất, bạn biết đấy, bằng tay và thủ công và sang trọng và cứ thế. Rồi, bạn biết đấy, Nhật Bản xuất hiện, hoàn toàn làm rối loạn thị trường. Ô tô được sản xuất với số lượng lớn với mức giá rẻ hơn nhiều. Và vâng, 90% ô tô trên thế giới ngày nay, hoặc có thể còn nhiều hơn, không còn là, bạn biết đấy, những món đồ cảm xúc. Chúng là những món đồ chức năng. Tuy nhiên, thi thoảng vẫn có người sẽ mua một chiếc ô tô được làm thủ công. Đúng vậy. Có một chỗ cho điều đó. Có một chỗ cho, bạn biết đấy, nếu bạn đi xung quanh các khách sạn, các bức tường được phủ bởi những tác phẩm nghệ thuật sản xuất hàng loạt. Được rồi. Nhưng vẫn có một chỗ cho biểu cảm nghệ thuật về điều gì đó tuyệt vời. Được rồi. Cảm giác của tôi là sẽ vẫn có một không gian nhỏ. Như tôi đã nói lúc đầu, có thể trong năm năm tới, một hoặc hai người sẽ mua cuốn sách tiếp theo của tôi và nói, Này, nó được viết bởi một con người. Nhìn kìa. Thật tuyệt. Ôi, nhìn kìa. Có một lỗi chính tả ở đây. Được rồi. Tôi không biết. Có thể sẽ có một chỗ rất, rất lớn cho tôi trong vài năm tới nơi tôi có thể xuất hiện và nói chuyện với con người như, Này, hãy tập hợp lại trong một sự kiện nhỏ. Và sau đó, bạn biết đấy, tôi có thể thể hiện cảm xúc và trải nghiệm cá nhân của tôi. Và bạn sẽ biết rằng đây là một con người đang nói. Bạn sẽ nhớ điều đó một chút. Cuối cùng thì, phần lớn thị trường sẽ giống như ô tô. Nó sẽ được sản xuất hàng loạt, rất rẻ, rất hiệu quả. Nó hoạt động. Đúng không? Bởi vì tôi nghĩ đôi khi chúng ta đánh giá thấp những gì con người thực sự muốn trong một trải nghiệm. Tôi nhớ câu chuyện của một người bạn của tôi đã đến văn phòng của tôi nhiều năm trước, và anh ấy kể về CEO của một cửa hàng đĩa đứng ở trên sàn và nói, mọi người sẽ luôn đến cửa hàng của tôi vì mọi người yêu âm nhạc. Bây giờ thì trên bề mặt, giả thuyết của anh ấy có vẻ đúng bởi vì mọi người thực sự yêu âm nhạc. Thật hợp lý để tin rằng mọi người sẽ luôn yêu âm nhạc, nhưng họ không yêu việc đi hàng giờ trong mưa và phải lên xe để lấy một đĩa nhựa. Chính xác. Những gì họ muốn là âm nhạc. Những gì họ không muốn là những chiếc đĩa nhựa hiện rõ mà họ phải đi hàng dặm để có được. Và tôi nghĩ về điều đó khi chúng ta nghĩ về việc nói trước công chúng trong buổi biểu diễn của Drake và tất cả những điều này, như, mọi người, những gì mọi người thật sự đến để tìm kiếm, ngay cả với podcast này, có thể là thông tin. Nhưng họ thực sự có cần chúng ta cho thông tin đó nữa khi sẽ có một sinh vật có tri giác thông minh hơn ít nhất là tôi và một chút thông minh hơn bạn không? Vì vậy, bạn hoàn toàn đúng. Bạn hoàn toàn đúng. Và thực sự, đây là lý do tại sao tôi, bạn biết đấy, tôi rất biết ơn vì bạn tổ chức điều này bởi vì sự thật là cái genie đã ra khỏi chai. Được rồi. Vì vậy, bạn biết đấy, mọi người hỏi tôi, liệu AI có chấm dứt cách sống của chúng ta không? Có. Được rồi. Đối với mọi thứ mà chúng ta đã biết, đây là một thời điểm rất đột phá nơi mà có thể không phải là ngày mai, nhưng trong tương lai gần, cách sống của chúng ta sẽ khác. Được rồi, điều gì sẽ xảy ra? Điều tôi đang yêu cầu mọi người là bắt đầu xem xét điều này có nghĩa là gì đối với cuộc sống của bạn. Điều tôi đang yêu cầu chính phủ làm bởi vì, như tôi đang la hét, là đừng đợi đến khi bệnh nhân đầu tiên, bạn biết đấy, bắt đầu làm gì đó về, chúng ta sắp chứng kiến những mất mát việc làm hàng loạt. Chúng ta sắp chứng kiến việc thay thế các loại công việc lớn. Được rồi. Có thể mất một năm. Có thể mất bảy năm. Không quan trọng nó mất bao lâu, nhưng nó sắp xảy ra. Bạn đã sẵn sàng chưa? Và tôi có một lời kêu gọi hành động rất rõ ràng dành cho chính phủ. Tôi đang nói thuế các doanh nghiệp áp dụng AI ở mức 98%, đúng không? Vì vậy, đột nhiên bạn làm những gì bức thư mở đang cố gắng làm, làm chậm lại một chút. Và cùng lúc đó, kiếm đủ tiền để trả cho tất cả những người sẽ bị ảnh hưởng bởi công nghệ. Khi bạn nói về những ảnh hưởng ngay lập tức đối với việc làm, tôi đang cố gắng tìm ra trong phương trình đó, những ai sẽ là người thiệt hại nhiều nhất? Có phải là những người bình thường ở các quốc gia khác không có quyền tiếp cận internet và sẽ không được hưởng lợi? Bạn đã nói trong cuốn sách của mình về cách mà sự chênh lệch giàu nghèo này chỉ sẽ gia tăng. Ừ, rất lớn. Ảnh hưởng ngay lập tức đến việc làm là như vậy, và thực sự rất thú vị, hả? Một lần nữa, chúng ta bị mắc kẹt trong cùng một tình huống tiến thoái lưỡng nan của những người bị giam cầm. Ảnh hưởng ngay lập tức đó là AI sẽ không lấy đi công việc của bạn. Một người sử dụng AI sẽ lấy đi công việc của bạn. Đúng không? Vì vậy, bạn sẽ thấy trong vài năm tới, có thể trong vài năm tới, bạn sẽ thấy rất nhiều người nâng cao kỹ năng của mình trong AI đến mức họ sẽ làm công việc của 10 người khác không làm. Bạn đang nói, đánh thuế, đánh thuế những công ty đó, 98%, và trao tiền cho những con người sẽ bị mất việc. Vâng. Hoặc trao tiền cho những con người khác có thể tạo ra mã kiểm soát, có thể tìm ra cách mà chúng ta có thể đảm bảo an toàn. Điều này nghe như một tình huống khẩn cấp. Nó, tôi phải nói thế nào nhỉ? Bạn có nhớ khi bạn chơi Tetris không? Vâng. Được rồi. Khi bạn đang chơi Tetris, luôn có một khối mà bạn đặt sai. Và một khi bạn đặt khối đó sai, trò chơi không còn dễ dàng nữa.
Bạn biết đấy, mọi chuyện bắt đầu,
bắt đầu tích lũy một vài sai lầm và mọi thứ bắt đầu trở nên nhanh hơn, nhanh hơn và nhanh hơn. Khi bạn đặt khối đó sai, bạn tự nói với bản thân, được rồi, bây giờ chỉ còn vài phút nữa thôi, đúng không? Vẫn còn vài phút để chơi và vui vẻ trước khi trò chơi kết thúc, nhưng bạn biết rằng nó sắp kết thúc. Được rồi. Đây là khoảnh khắc mà chúng ta đã đặt sai. Và tôi thực sự không biết nói cách nào khác. Nó khiến tôi cũng trở nên xúc động. Chúng ta đã mắc lỗi. Chúng ta luôn nói, đừng đưa chúng lên Internet công khai. Đừng dạy chúng lập trình và đừng để các đại lý làm việc với chúng cho đến khi chúng ta biết những gì chúng ta đang đưa ra thế giới cho đến khi tìm ra cách đảm bảo rằng họ có lợi ích tốt nhất của chúng ta trong tâm trí. Tại sao điều đó khiến bạn xúc động? Bởi vì sự ngu dốt của nhân loại đang ảnh hưởng đến những người chưa làm điều gì sai. Lòng tham của chúng ta đang ảnh hưởng đến những người vô tội. Thực tế là, Stephen, đây là một cuộc chạy đua vũ trang, không quan tâm đến những gì con người bình thường nhận được từ nó. Tất cả đều là để mỗi dòng mã được viết trong AI ngày nay là để đánh bại người khác. Nó không phải để cải thiện cuộc sống của bên thứ ba. Mọi người sẽ nói với bạn, tất cả đều vì bạn. Và bạn nhìn vào phản ứng của con người đối với AI. Ý tôi là, chúng ta hoặc là ngu dốt, những người sẽ nói với bạn, ôi không, điều này không xảy ra. AI sẽ không bao giờ sáng tạo. Họ sẽ không bao giờ sáng tác âm nhạc. Bạn đang sống ở đâu vậy? Được rồi. Rồi bạn có những đứa trẻ, tôi gọi chúng như vậy, mà bạn biết đấy, trên khắp mạng xã hội, như, ôi Chúa ơi, nó kêu. Nhìn kìa, nó có màu cam. Thật tuyệt vời. Tôi không thể tin rằng AI có thể làm được điều này. Chúng ta có những kẻ bán thuốc rắn. Được rồi. Chỉ đơn giản nói, sao chép cái này, đưa nó vào chat GPT, rồi lên YouTube, lấy cái gì đó, không tôn trọng bản quyền của bất kỳ ai hoặc tài sản trí tuệ của bất kỳ ai, đưa nó vào một video, và bây giờ bạn sẽ kiếm được 100 đô la mỗi ngày. Những kẻ bán thuốc rắn. Được rồi. Tất nhiên, chúng ta có những người truyền bá nỗi sợ hãi, cơ bản là những người nói rằng, đây là, thế giới sắp hết, mà tôi không nghĩ là thực tế. Đó là một kỳ dị. Bạn có, bạn biết đấy, những người truyền bá lạc quan mà đang nói với mọi người, ôi, bạn không hiểu đâu. Chúng ta sẽ chữa căn bệnh ung thư. Chúng ta sẽ làm điều này. Một lần nữa, không phải là thực tế. Được rồi. Và bạn có rất ít người thực sự nói, chúng ta sẽ làm gì về điều này? Và, và thách thức lớn nhất, nếu bạn hỏi tôi điều gì đã sai trong thế kỷ 20, thú vị là chúng ta đã trao quá nhiều quyền lực cho những người không nhận trách nhiệm. Vì vậy, bạn biết đấy, tôi không nhớ ai là người đã nói điều này đầu tiên nhưng tất nhiên, Spider-Man đã làm cho nó trở nên nổi tiếng, huh? Với quyền lực lớn đi kèm với trách nhiệm lớn. Chúng ta đã ngắt kết nối quyền lực và trách nhiệm. Vì vậy bây giờ, một đứa trẻ 15 tuổi, tâm lý chưa phát triển hoàn toàn vỏ não trước trán để đưa ra quyết định đúng đắn. Đây là khoa học, huh? Chúng ta phát triển vỏ não trước trán của chúng ta hoàn toàn và khoảng 25 tuổi với tất cả hệ thống limbic, cảm xúc và đam mê sẽ mua một bộ CRISPR và, bạn biết đấy, sửa đổi một con thỏ để trở nên cơ bắp hơn một chút và để nó tự do trong hoang dã hoặc một người ảnh hưởng không thực sự biết được tác động của những gì họ đang đăng tải trực tuyến có thể gây tổn thương hay gây ra trầm cảm hoặc khiến mọi người cảm thấy tệ. Được rồi? Và, và việc đưa điều đó lên mạng, chúng ta có một sự ngắt kết nối giữa quyền lực và trách nhiệm. Và vấn đề mà chúng ta gặp phải hôm nay là có một sự ngắt kết nối giữa những người đang viết mã cho AI và trách nhiệm về những gì sẽ xảy ra do mã đó. Được rồi? Và, và, và tôi cảm thấy thương xót cho phần còn lại của thế giới. Tôi cảm thấy rằng điều này là sai. Tôi cảm thấy rằng, bạn biết đấy, để cuộc sống của ai đó bị ảnh hưởng bởi hành động của người khác mà không có sự góp mặt trong cách mà những hành động đó nên diễn ra thì đó là mức độ ngu dốt tối thượng của nhân loại. Nếu cuộc trò chuyện này vang vọng với bạn và bạn muốn đảm bảo mình dẫn đầu trong đổi mới, AI và nhiều hơn nữa, hãy đăng ký để đảm bảo chỗ của bạn tại một trong những Hội nghị Triển lãm Công nghệ Thông tin của Gartner. Có hàng trăm phiên họp diễn ra dựa trên hàng ngàn giờ nghiên cứu và các cuộc trò chuyện trong cộng đồng IT và tất cả đều được dẫn dắt bởi các chuyên gia của Gartner. Kết nối với những người có tầm nhìn, giao lưu và đi sâu vào những xu hướng lớn đang hình thành công nghệ để bạn không bị bỏ lại phía sau. Chỗ ngồi có hạn. Vì vậy, hãy đăng ký ngay tại gartner.com/symposium. Đó là gartner.com/symposium.
所以第一個不可避免的問題,為了澄清,就是我們會停止嗎?
人工智慧是不會被停止的。
好吧,那第二個不可避免的事呢?
會變得更聰明。就像在這本書中,我預測到2045年,人工智慧會比我們聰明一百萬倍。
我指的是,它們已經是比99.99%的人口更聰明了。
100%。
ChatGPT-4知道的資訊比地球上任何人都要多。
是的。
知道的信息多得多。
絕對是,一千倍。一千倍。順便說一句,一個變壓器的代碼,GPT中的”T”長達2,000行,並不是非常複雜。其實這個機器並不是特別智能,它只是在預測下一個單詞。好的,很多人不理解這點。你知道,像現在的ChatGPT,那些孩子,如果你在美國教你的孩子記住所有州的名字和美國總統的名字,然後孩子能站起來重複出來,你會說,天啊,那是個神童。其實不是,對吧?這只是你的父母試圖讓你看起來像個神童,告訴你去記住一些廢物而已。但是當你想想,這正是ChatGPT在做的。唯一的區別是,它不是在讀所有州的名字和所有總統的名字,而是在閱讀數萬億的頁面。好的,所以它重複了所有人類中最好的人所說的話。然後它添加了驚人的智慧,能以莎士比亞會說的方式重複它。你知道,那種能夠準確預測莎士比亞風格微妙之處的驚人能力,以便以那種方式重複等等。但即便如此,當我寫作時,比如說,我不敢說我是聰明的,但當我寫下一些像是我第一本書中的「幸福方程式」,這是之前從未寫過的東西,對吧?ChatGPT還沒有達到那個水平。所有的變壓器還未達到。它們不會創造出一些從未存在的東西。它們會讓所有資料中最好的內容變成生成的,並在此基礎上稍作改進。但我也在想,我們是否對創造力有些錯誤的認知。就我而言,創造力就像是將我所知道的一些事物以新的、有趣的方式結合在一起。而ChatGPT完全有能力將兩個概念合併在一起。我曾對ChatGPT說過,我說,告訴我一些以矛盾的方式表達的,但又真實的話。它會提出這些奇妙的表達,例如,”一旦你停止尋找,你會找到你所尋找的東西。”就這類矛盾的真理。然後我會把這些話拿去上網搜尋,看看是否曾經被引用過,但我找不到它們。
這很有趣。
所以在創造力方面,我認為這是創造性的。
這是創造力的算法。我在AI領域已經叫喊了很長一段時間。因為你總會遇到那些只是想證明自己是對的人。好的,所以他們會說,哦,不,等等,人類的創造力,他們永遠無法比擬。像,老兄,拜託,人類的創造力是算法化的。它是查看你可以找到的所有問題的可能解決方案。去掉那些已經嘗試過的,保留那些從未嘗試過的,這些就是創造性的解決方案。用一種算法化的方式來描述創造性,是好的解決方案,這是從未嘗試過的。你可以用chatGPT提供的提示做到這一點。就像是在MidJourney創建圖像時,你可以說,我想看看1944年紐約的埃隆·馬斯克,開著當時的計程車,拍攝於寶麗來,表達各種情感。你會得到這個完美的圖像,埃隆·馬斯克坐在1944年的紐約,拍攝於寶麗來,這就像藝術家所做的。它將藝術家心中所擁有的參考資料合併在一起,創造出這件所謂的藝術品。
而且我們現在首次得以一瞥其實並不是我們擁有的智慧。
是的,所以我們的初步反應就是說,這不算數。你聽起來像是,這是對的,但它確實如此。例如,德雷克,他們已經發行了兩張德雷克的專輯,這些專輯使用AI合成了德雷克的聲音,並製作了這兩張專輯,這些專輯真的很棒。如果說這些曲子是很棒的曲子,我當時在給我女朋友播放時,持續播放。我知道這不是德雷克,但這跟德雷克一樣棒。只是有些人因為這不是德雷克而對此指責。
我想說,這是否讓我產生了某種情感?我的腳在敲打嗎?你是不是告訴過我,我不知道這不是德雷克?我原本以為這是一首驚人的曲子?百分之百。而我們才剛在這條指數曲線的起點。讓我給你看看一些東西。傑克,你能把我的手機遞給我嗎?我前一陣子在玩人工智慧,思考它如何能夠合成聲音,因此我們可以合成名人的聲音。我製作了一個名為 Zen chat 的 WhatsApp 聊天群,您可以在其中輸入幾乎任何名人的名字。這個 WhatsApp 聊天群將會以那位名人的聲音為您提供冥想、睡眠故事或呼吸練習的合成聲音。所以我實際上發送了加里·維納查克的聲音。因此,基本上你可以說,好吧,我有五分鐘時間,我需要去睡覺。對,我想要加里·維納查克陪我入睡。然後它會回一個語音備忘錄。這是加里·維納查克的回覆,但這不是加里·維納查克本人,他沒有錄製這個,不過還算有點準確。嘿,史蒂芬。很高興你在這裡。你睡得不好嗎?好吧,我有一招快速的冥想技巧,可能會幫助你。首先,找個舒適的姿勢坐下或躺下。現在,深吸一口氣,通過鼻子吸入,慢慢地通過嘴巴呼出。這真的很震驚,你我必然會在某個不知名的地方,可能是十年後。我以前會說2055年,但我現在認為2037年是一個非常關鍵的時刻。你知道的,我們不會知道我們是否在躲避機器。我們還不知道。我們可能會在躲避機器,也有可能會因為他們不再是播客主持人而在那裡。抱歉,這完全是事實。史蒂芬,不,這是我所不能接受的。我毫無疑問地說,謝謝你來到這裡,莫。我很高興可以做第三部分,謝謝你在這裡。是的,我不會在這裡接受你的宣傳。我們來談談現實吧。下週在今年的日記裡,我們有伊隆·馬斯克。好,那麼這裡誰想打賭史蒂芬·巴特利特在接下來的兩年內會採訪一個人工智慧?哦,其實,公平地說,我確實去過 ChatGTP,因為我想有你在這裡,至少讓它有機會回應。對。所以我問了它幾個問題。關於我?是的。哦,天啊。今天我實際上將會被 ChatGTP 取代,因為我想,你會談論這個。所以我們需要一場公平和均衡的辯論。好的。她說他很大膽。所以我會問你幾個 ChatGTP 想問你的問題。不可思議。所以讓我們跟進這個話題。因此我已經被取代了。讓我們暫時跟隨這個線索。對。因為你是我認識的最聰明的人之一。這不是真的。是的,這是真的。不過我會接受。這是真的。我是說,我經常公開這樣說。你的書是我最喜歡的書之一。你非常、非常、非常聰明。好的。深度、廣度、智力馬力和速度,所有這些都有。來了,會有一個但是。事實上,並不是一個但是。因此,可以預期你在這條曲線的前端。然後你沒有選擇,史蒂芬。問題在於,如果,我在腦海中陷入那個存在性的問題,因為我可以做的一件事就是我可以字面上去,通常我在夏天會進行40天的靜默撤退。好吧。我可以利用這個撤退,然後寫兩本書,我和 ChatGPT。對。我心中有很多點子。你知道的,我想寫一本關於數位排毒的書。對。我大部分的點子都在腦中,但寫作需要時間。我可以簡單地將我寫的50個數位排毒小技巧給 ChatGPT,說,寫兩頁關於每一條,編輯這些頁面,然後發一本書。好吧。我們中的許多人將會選擇這條路。好吧。之所以我可能不會選擇這條路,因為你知道嗎?我不感興趣。如果你想,我不想在這個資本主義的世界中繼續競爭。好吧。我不想。我是說,作為一個人,我很久以前已經下定決心,我想要的越來越少。對。但我們中的許多人將會跟隨。我是說,我會擔心如果你不包括那個,知道的,最聰明的人工智慧。如果我們有一個極其聰明的人工智慧,能夠教我們一些東西,而史蒂芬·巴特利特未能在他的播客上包括她,我會擔心。就像你幾乎有一種責任要在你的播客上包括她。這是無法避免的,我們將會越來越多地在生活中接觸她們。這是一個方面。當然,另一個方面是,如果你這樣做,那麼將會剩下什麼?因為很多人問我這個問題,我們的工作將會怎樣?好吧。我們會怎麼辦?我們還會有任何價值,任何相關性嗎?好吧。事實是,在中期,唯一留下來的將是人與人之間的連結。好吧。唯一不會被替代的,是德雷克在舞台上。好吧。你知道,是我在,你覺得呢?全息影像?我想到他們在 Coachella 做的那場圖帕克演出,他們使用了圖帕克的全息影像。最近我實際上播放給我的女朋友聽,當時我在提出一個觀點,我想,這簡直是一場馬戲表演。雖然太不可思議了。驚人。是啊。倫敦的 ABBA 是怎麼回事?對的。對。我是的,還有太陽馬戲團很長一段時間都在一場表演中有麥可·傑克森。對。我是說。所以,根據我的理解,倫敦的這場 ABBA 表演,舞台上全都是全息影像。對。它將在一個專門建造的場館中運行十年。這真的令人難以置信。
所以你說,你為什麼需要德瑞克?太好了。如果那個全息影像無法與德瑞克區分,並且它能表現得比德瑞克更好,能量也比德瑞克更多。那麼,我就想,為什麼你需要德瑞克在那裡呢?我可以在沒有德瑞克的情況下去看德瑞克的演出,更便宜。而且,看,甚至我可能不需要離開我的家。我只需要戴上耳機。對吧?你能有這個嗎?這對聽眾的價值是什麼?哦,拜託。你讓我受傷了。不,我是說,我明白這對我們的意義,但我想說的是,這對聽眾來說的價值是什麼?對聽眾的價值是資訊,對吧?不,不,100%。我的意思是,想想汽車行業。曾經有一段時間,汽車是手工製作、精心打造、奢華的等等。然後,日本進入市場,完全擾亂了這個市場。汽車以大規模的方式生產,價格更便宜。是的,今天世界上90%的汽車,或者更多的汽車,不再是情感商品。它們是功能商品。然而,偶爾仍然會有人購買手工製作的汽車。對吧。這是有其空間的。如果你去酒店走一走,牆上全是類似的量產藝術作品。好吧。但是仍然存在一個地方,可以用藝術家的方式表達一些驚人的東西。我的感覺是,這將持續存在一個小的空間。正如我一開始所說,也許五年後,會有一兩個人購買我的下一本書,並說,嘿,這是人寫的。看那,太棒了。哦,看看,這裡有一個錯字。好吧。我不知道,或許在接下來幾年,我會有一個非常非常大的空間,可以在那裡出現並與人類交談,比如,嘿,讓我們在一個小型活動中聚會。然後,你知道,我可以表達情感和我的個人經歷。你大概知道,這是一個人在說話。你會有點懷念這一點。最終,市場的主流將像汽車一樣,會是量產的,便宜且高效。它能運作。對吧。因為我覺得有時候我們低估了人類在體驗中實際想要的東西。我記得很多年前我一位朋友來我辦公室的故事,他講述了一位唱片店的首席執行官站在樓上說,人們總會來我的店,因為人們喜愛音樂。從表面上看,他的假設似乎是正確的,因為人們確實熱愛音樂。我們可以相信人們永遠會喜愛音樂,但他們並不喜歡在雨中旅行一小時,然後開車去獲取一張塑料光碟。對吧。他們想要的是音樂。他們不想要的是顯然是塑料光碟,他們必須為此旅行好幾英里。我在思考這個時候,我們想到像公共演講在德瑞克的表演和所有這些事情,人們實際上想要的是什麼,即使是這個播客,可能就是資訊。但當有一個比我更聰明且比你稍微聰明的有感知的存在時,他們真的還需要我們提供那些資訊嗎?所以你說得對。你說得對。實際上,這就是我非常感激你主辦這個節目的原因,因為事實是,魔鬼已經出來了。好吧。人們告訴我,人工智慧是否會結束我們的生活方式?是的。對於我們所知道的所有事情,這是一個非常具顛覆性的時刻,也許明天不會,但在不久的將來,我們的生活方式將會有不同。好吧。會發生什麼呢?我要求人們開始考慮這對你生活意味著什麼。我要求政府做的,就像我在大喊,別等到第一位患者出現,就開始做一些事情。我們即將看到大量的工作崗位流失。我們即將看到大量工作類別的取代。好吧。是的,這可能需要一年,可能需要七年。無論需要多少時間都沒關係,但這即將發生。你準備好了嗎?而且,我對政府有一個非常非常明確的行動號召。我在說對人工智慧驅動的企業徵收98%的稅,對吧?這樣一來,你就做了開放信的目的,讓它們放慢一點。同時,獲得足夠的資金來支付所有將因技術而受到影響的人。當你談論對工作的直接影響時,我想弄清楚在這個方程式中,誰是最有可能失去最多的人?是那些在沒有上網的外國的普通人嗎?你在你的書中談到,這種財富差距只會增加。是的,會有大幅上升。對於工作的直接影響是……這真的很有趣,對吧?我們又陷入了同樣的囚徒困境。直接影響是,人工智慧不會奪走你的工作,使用人工智慧的人會奪走你的工作,對吧?所以你會在接下來的幾年內,甚至在接下來的幾年內,看到很多人提升他們在人工智慧方面的技能,以至於他們將能做十個不擅長的人能做的工作。你在說對那些公司的稅徵收98%,將錢給那些將被取代的人類。是的,或者將錢給那些能建造控制代碼的其他人,能弄清如何讓我們保持安全。這聽起來像是一場緊急情況。這……怎麼說呢?你還記得你玩過俄羅斯方塊嗎?是的。當你在玩俄羅斯方塊時,總是有一塊你放錯了。一旦你放錯了那塊,遊戲就不再容易了。
你知道,這一切開始了,隨後開始積累一些錯誤,變得越來越快,越來越快,越來越快,直到你放錯那塊積木,心裡卻告訴自己,這只是幾分鐘的事了,對吧?還有幾分鐘可以享受遊戲,還可以玩還可以樂,但你知道這即將結束。好吧,這一刻我們已經放錯了。我真的不知道要怎麼說,換個方式也不行。這讓我很感動。我們搞砸了。我們總是說,不要把它們放在公開的互聯網上。不要教他們編程,直到我們知道我們要在世界上放出什麼,直到我們找到一種方法來確保他們考慮到我們的最佳利益為止,別讓代理人和他們一起工作。這為什麼讓你感到情緒化?因為人類的愚蠢正在影響那些沒有做錯任何事情的人。我們的貪婪正在影響無辜者。問題的現實是,史蒂芬,這是一場軍備競賽,對普通人得到什麼並不關心。今天每一行編寫的AI代碼都是為了打敗其他人。這不是為了改善第三方的生活。人們會告訴你,這一切都是為了你。而你看看人類對AI的反應。我是說,我們要麼無知,要麼是那些會告訴你,“哦,不,這不是真的!AI永遠不會有創造性。它們永遠不會作曲。”你到底在什麼地方生活呢?好吧。然後你有那些小孩,我叫他們那樣,他們在社交媒體上四處傳播,“哦,我的天,它在吱吱叫。你看,它是橙色的。驚人。我真不敢相信AI能做到這一點。”我們有一些江湖騙子。他們簡單地說,複製這個,放進ChatGPT,然後去YouTube,搞那個東西,絲毫不尊重任何人的版權或知識產權,放進視頻裡,現在你可以賺100美元一天。江湖騙子,對吧?當然,我們還有一些反烏托邦的宣揚者,基本上就是那些說,這就是了,世界要結束的,我不認為這是現實。這是一種奇點。你會有一些烏托邦的宣揚者告訴大家,“哦,你們不明白。我們會治好癌症。我們會做到這一點。”這又不是現實。好吧。你只能找到很少數人事實上在說,我們該怎麼辦?如果你問我20世紀發生了什麼錯誤,最有趣的是,我們給了那些沒有承擔責任的人過多的權力。所以,你知道,我不記得誰最早說過,但當然,蜘蛛人讓這句話變得非常有名,對吧?「權力越大,責任越大。」我們將權力和責任割裂開來。所以今天,15歲的青少年,情感上尚未完全發展的前額皮質,還無法做出正確的決定。這是科學,對吧?我們的前額皮質在大約25歲時會完全發展,而在這個年紀,所有的邊緣系統、情感與激情會讓他們購買CRISPR套件,隨便改造一隻兔子,讓它變得更有肌肉,然後放到野外,或者是一個影響者,並不知道他們在線上發表的內容可能多少會影響到別人,會造成抑鬱或讓人感到不好的影響。好吧,並且把這些放上網絡,我們有一個權力與責任之間的脫節。今天問題在於那些編寫AI代碼的人與其即將發生的事的責任之間存在斷裂。而我對世界其他地方感到同情。我覺得這是錯誤的。我覺得,因為某些人的行為而使其他人的生活受到影響,而沒有人能對那些行為的內容提出意見,這是人類的愚蠢的終極表現。
如果這段對話讓你有所共鳴,並希望確保你在創新、AI等領域保持領先,請註冊以確保你的名額參加Gartner IT Symposium Expos之一。有數百場會議基於數千小時的研究和IT社區的對話進行,所有會議都由Gartner專家主導。與願景家聯繫,建立網絡,深入探討塑造科技的大趨勢,讓你不會被甩在後面。名額有限。請訪問gartner.com/symposium註冊。那就是gartner.com/symposium。
As AI rapidly advances, Mo Gawdat shares a candid and thoughtful exploration of what the future holds for humanity. From AI’s growing intelligence and its impact on creativity to the looming disruption of jobs and society, this top moment challenges us to rethink our role in a world where machines might outsmart us. Mo also reflects on the irreplaceable value of human connection and the need to prepare for a future shaped by technology. Whether you’re excited or worried about AI, this conversation offers a crucial perspective on how we adapt, survive, and find meaning in the age of artificial intelligence.
Register yourself by visiting: Gartner.com/Symposium
Listen to the full episode here –
Spotify – https://g2ul0.app.link/ocYmHrkuoTb
Apple – https://g2ul0.app.link/EBSoMmQuoTb
Watch the Episodes On YouTube – https://www.youtube.com/c/%20TheDiaryOfACEO/videos
Mo Gawdat – https://www.mogawdat.com/
Learn more about your ad choices. Visit megaphone.fm/adchoices
Leave a Reply