Essentials: Machines, Creativity & Love | Dr. Lex Fridman

中文
Tiếng Việt
AI transcript
0:00:10 Welcome to Huberman Lab Essentials, where we revisit past episodes for the most potent and actionable science-based tools for mental health, physical health, and performance.
0:00:14 And now, my conversation with Dr. Lex Friedman.
0:00:15 We meet again.
0:00:16 We meet again.
0:00:23 I have a question that I think is on a lot of people’s minds, or ought to be on a lot of people’s minds.
0:00:32 What is artificial intelligence, and how is it different from things like machine learning and robotics?
0:00:38 So, I think of artificial intelligence, first, as a big philosophical thing.
0:00:45 It’s our longing to create other intelligence systems, perhaps systems more powerful than us.
0:00:55 At the more narrow level, I think it’s also a set of tools that are computational mathematical tools to automate different tasks.
0:01:00 And then, also, it’s our attempt to understand our own mind.
0:01:08 So, build systems that exhibit some intelligent behavior in order to understand what is intelligence in our own selves.
0:01:10 So, all of those things are true.
0:01:22 Of course, what AI really means is a community, as a set of researchers and engineers, it’s a set of tools, a set of computational techniques that allow you to solve various problems.
0:01:27 There’s a long history that approaches the problem from different perspectives.
0:01:41 What’s always been throughout one of the threads, one of the communities, goes under the flag of machine learning, which is emphasizing in the AI space, the task of learning.
0:01:50 How do you make a machine that knows very little in the beginning, follow some kind of process, and learns to become better and better in a particular task?
0:02:01 What’s been most very effective in the recent, about 15 years, is a set of techniques that fall under the flag of deep learning that utilize neural networks.
0:02:07 It’s a network of these little basic computational units called neurons, artificial neurons.
0:02:11 And they have, these architectures have an input and output.
0:02:16 They know nothing in the beginning, and they’re tasked with learning something interesting.
0:02:20 What that’s something interesting is, usually involves a particular task.
0:02:25 The, there’s a lot of ways to talk about this and break this down.
0:02:31 Like one of them is how much human supervision is required to teach this thing.
0:02:39 So supervised learning, this broad category, is the neural network knows nothing in the beginning.
0:02:47 And then it’s given a bunch of examples of, in computer vision, that would be examples of cats, dogs, cars, traffic signs.
0:02:52 And then you’re given the image, and you’re given the ground truth of what’s in that image.
0:03:01 And when you get a large database of such image examples where you know the truth, the, the neural network is able to learn by example.
0:03:03 That’s called supervised learning.
0:03:08 The question, there’s a lot of fascinating questions within that, which is how do you provide the truth?
0:03:17 When you’re given an image of a cat, how do you provide to the computer that this image contains a cat?
0:03:20 Do you just say the entire image is a picture of a cat?
0:03:24 Do you do what’s very commonly been done, which is a bounding box?
0:03:29 You have a very crude box around the cat’s face saying this is a cat.
0:03:31 Do you do semantic segmentation?
0:03:34 Mind you, this is a 2D image of a cat.
0:03:38 So it’s not a, the computer knows nothing about our three-dimensional world.
0:03:40 It’s just looking at a set of pixels.
0:03:47 So semantic segmentation is drawing a nice, very crisp outline around the cat and saying that’s a cat.
0:03:50 That’s really difficult to provide that truth.
0:03:56 And one of the fundamental open questions in computer vision is, is that even a good representation of the truth?
0:04:01 Now, there’s another contrasting set of ideas.
0:04:17 Their attention, their overlapping is what’s used to be called unsupervised learning, what’s commonly now called self-supervised learning, which is trying to get less and less and less human supervision into the, into, into the task.
0:04:29 So self-supervised learning is more, has been very successful in the domain of language models, natural language processing, and now more and more is being successful in computer vision tasks.
0:04:50 And what’s the idea there is, let the machine without any ground truth annotation, just look at pictures on the internet or look at text on the internet and try to learn something generalizable about the ideas that are at the core of language or at the core of vision.
0:04:56 And based on that, we humans at its best like to call that common sense.
0:05:02 So with this, we have this giant base of knowledge on top of which we build more sophisticated knowledge.
0:05:04 We have this kind of common sense knowledge.
0:05:18 And so the idea with self-supervised learning is to build this common sense knowledge about what are the fundamental visual ideas that make up a cat and a dog and all those kinds of things without ever having human supervision.
0:05:39 The dream there is the, you just, you just let an AI system that’s self-supervised run around the internet for a while, watch YouTube videos for millions and millions of hours, and without any supervision, be primed and ready to actually learn with very few examples once the human is able to show up.
0:05:47 We think of children in this way, human children, is your parents only give one or two examples to teach a concept.
0:06:02 The dream with self-supervised learning is that would be the same with machines, that they would watch millions of hours of YouTube videos and then come to a human and be able to understand when the human shows them, this is a cat.
0:06:04 Like, remember, this is a cat.
0:06:11 They will understand that a cat is not just a thing with pointy ears or a cat is a thing that’s orange or is furry.
0:06:17 They’ll see something more fundamental that we humans might not actually be able to introspect and understand.
0:06:22 Like, if I asked you what makes a cat versus a dog, you would probably not be able to answer that.
0:06:27 But if I showed you, brought to you a cat and a dog, you’d be able to tell the difference.
0:06:31 What are the ideas that your brain uses to make that difference?
0:06:41 That’s the whole dream of self-supervised learning is it would be able to learn that on its own, that set of common sense knowledge that’s able to tell the difference.
0:06:50 And then there’s like a lot of incredible uses of self-supervised learning, very weirdly called self-play mechanism.
0:07:01 That’s the mechanism behind the reinforcement learning successes of the systems that want to go at AlphaZero, that want to chess.
0:07:02 Oh, I see.
0:07:04 That play games.
0:07:04 That play games.
0:07:05 Got it.
0:07:13 So the idea of self-play, this probably applies to other domains than just games, is a system that just plays against itself.
0:07:19 And this is fascinating in all kinds of domains, but it knows nothing in the beginning.
0:07:28 And the whole idea is it creates a bunch of mutations of itself and plays against those versions of itself.
0:07:42 And then through this process of interacting with systems just a little better than you, you start following this process where everybody starts getting better and better and better and better until you are several orders of magnitude better than the world champion in chess, for example.
0:07:45 And it’s fascinating because it’s like a runaway system.
0:08:00 One of the most terrifying and exciting things that David Silver, the creator of AlphaGo and AlphaZero, one of the leaders of the team said, to me, is they haven’t found the ceiling for AlphaZero.
0:08:03 Meaning it could just arbitrarily keep improving.
0:08:09 Now, in the realm of chess, that doesn’t matter to us that it’s like it just ran away with the game of chess.
0:08:12 Like it’s like just so much better than humans.
0:08:24 But the question is, if you can create that in the realm that does have a bigger, deeper effect on human beings and societies, that can be a terrifying process.
0:08:28 To me, it’s an exciting process if you supervise it correctly.
0:08:40 If you inject what’s called value alignment, you make sure that the goals that the AI is optimizing is aligned with human beings.
0:08:50 There’s a lot of fascinating things to talk about within the specifics of neural networks and all the problems that people are working on.
0:08:54 But I would say the really big, exciting one is self-supervised learning.
0:09:03 We’re trying to get less and less human supervision, less and less human supervision of neural networks.
0:09:06 And also, just to comment, and I’ll shut up.
0:09:07 No, please keep going.
0:09:08 I’m learning.
0:09:10 I have questions, but I’m learning.
0:09:11 So, please keep going.
0:09:14 So, to me, what’s exciting is not the theory.
0:09:15 It’s always the application.
0:09:23 One of the most exciting applications of artificial intelligence, specifically neural networks and machine learning, is Tesla Autopilot.
0:09:26 So, these are systems that are working in the real world.
0:09:28 This isn’t an academic exercise.
0:09:29 This is human lives at stake.
0:09:39 Even though it’s called FSD, full self-driving, it is currently not fully autonomous, meaning human supervision is required.
0:09:42 So, human is tasked with overseeing the systems.
0:09:46 In fact, liability-wise, the human is always responsible.
0:09:50 This is a human factor psychology question, which is fascinating.
0:09:57 I’m fascinated by the whole space, which is a whole other space of human-robot interaction.
0:10:01 When AI systems and humans work together to accomplish tasks.
0:10:15 That dance, to me, is one of the smaller communities, but I think it will be one of the most important open problems once they’re solved, is how do humans and robots dance together.
0:10:19 To me, semi-autonomous driving is one of those spaces.
0:10:23 So, for Elon, for example, he doesn’t see it that way.
0:10:30 He sees semi-autonomous driving as a stepping stone towards fully autonomous driving.
0:10:34 Like, humans and robots can’t dance well together.
0:10:37 Like, humans and humans dance and robots and robots dance.
0:10:40 Like, we need to, this is an engineering problem.
0:10:43 We need to design a perfect robot that solves this problem.
0:10:52 To me, forever, maybe this is not the case with driving, but the world is going to be full of problems where it’s always humans and robots have to interact.
0:10:58 Because I think robots will always be flawed, just like humans are going to be flawed, are flawed.
0:11:02 And that’s what makes life beautiful, that they’re flawed.
0:11:07 That’s where learning happens, at the edge of your capabilities.
0:11:19 So, you always have to figure out how can flawed robots and flawed humans interact together such that they, like, the sum is bigger than the whole.
0:11:23 As opposed to focusing on just building the perfect robot.
0:11:31 So, that’s one of the most exciting applications, I would say, of artificial intelligence to me is autonomous driving and semi-autonomous driving.
0:11:36 And that’s a really good example of machine learning because those systems are constantly learning.
0:11:42 And there’s a process there that maybe I can comment on.
0:11:47 Andre Karpathy, who’s the head of Autopilot, calls it the data engine.
0:11:53 And this process applies for a lot of machine learning, which is, you build a system that’s pretty good at doing stuff.
0:11:56 You send it out into the real world.
0:11:58 It starts doing the stuff.
0:12:03 And then it runs into what are called edge cases, like failure cases, where it screws up.
0:12:05 You know, we do this as kids.
0:12:07 We do this as adults.
0:12:08 We do this as adults.
0:12:09 Exactly.
0:12:11 But we learn really quickly.
0:12:17 But the whole point, and this is the fascinating thing about driving, is you realize there’s millions of edge cases.
0:12:22 There’s just like weird situations that you did not expect.
0:12:29 And so, the data engine process is you collect those edge cases, and then you go back to the drawing board and learn from them.
0:12:38 And so, you have to create this data pipeline where all these cars, hundreds of thousands of cars that are driving around, and something weird happens.
0:12:48 And so, whenever this weird detector fires, it’s another important concept, that piece of data goes back to the mother.
0:12:52 Mothership for the training, for the retraining of the system.
0:12:57 And through this data engine process, it keeps improving and getting better and better and better and better.
0:13:05 So, basically, you send out a pretty clever AI systems out into the world, and let it find the edge cases.
0:13:15 Let it screw up just enough to figure out where the edge cases are, and then go back and learn from them, and then send out that new version, and keep updating that version.
0:13:22 One of the fascinating things about humans is we figure out objective functions for ourselves.
0:13:24 Like, we’re, it’s the meaning of life.
0:13:27 Like, why the hell are we here?
0:13:34 And a machine currently has to have a hard-coded statement about why.
0:13:38 It has to have a meaning of artificial intelligence-based life.
0:13:38 Right.
0:13:47 If you want a machine to be able to be good at stuff, it has to be given very clear statements of what good at stuff means.
0:13:57 That’s one of the challenges of artificial intelligence is, in order to solve a problem, you have to formalize it, and you have to provide both, like, the full sensory information.
0:14:05 You have to be very clear about what is the data that’s being collected, and you have to also be clear about the objective function.
0:14:07 What is the goal that you’re trying to reach?
0:14:13 Ultimately, currently, there has to be a formal objective function.
0:14:17 Now, you could argue that humans also has a set of objective functions we’re trying to optimize.
0:14:20 We’re just not able to introspect them.
0:14:25 Yeah, we don’t actually know what we’re looking for and seeking and doing.
0:14:31 As many of you know, I’ve been taking AG1 daily for more than 13 years.
0:14:36 However, I’ve now found an even better vitamin-mineral probiotic drink.
0:14:41 That new and better drink is the new and improved AG1, which just launched this month.
0:14:49 This next-gen formula from AG1 is a more advanced, clinically-backed version of the product that I’ve been taking daily for years.
0:14:53 It includes new bioavailable nutrients and enhanced probiotics.
0:14:58 The next-gen formula is based on exciting new research on the effects of probiotics on the gut microbiome,
0:15:04 and it now includes several specific clinically-studied probiotic strains that have been shown to support both digestive health
0:15:09 and immune system health, as well as to improve bowel regularity and to reduce bloating.
0:15:14 As someone who’s been involved in research science for more than three decades and in health and fitness for equally as long,
0:15:19 I’m constantly looking for the best tools to improve my mental health, physical health, and performance.
0:15:25 I discovered and started taking AG1 way back in 2012, long before I ever had a podcast,
0:15:27 and I’ve been taking it every day since.
0:15:30 I find that it greatly improves all aspects of my health.
0:15:36 I just feel so much better when I take it, but with each passing year, and by the way, I’m turning 50 this September,
0:15:40 I continue to feel better and better, and I attribute a lot of that to AG1.
0:15:43 AG1 uses the highest quality ingredients in the right combinations,
0:15:47 and they’re constantly improving their formulas without increasing the cost.
0:15:50 So I’m honored to have them as a sponsor of this podcast.
0:15:56 If you’d like to try AG1, you can go to drinkag1.com slash Huberman to claim a special offer.
0:16:03 Right now, AG1 is giving away an AG1 welcome kit with five free travel packs and a free bottle of vitamin D3 K2.
0:16:09 Again, go to drinkag1.com slash Huberman to claim the special welcome kit with five free travel packs
0:16:12 and a free bottle of vitamin D3 K2.
0:16:16 Today’s episode is also brought to us by Maui Nui venison.
0:16:20 Maui Nui venison is the most nutrient-dense and delicious red meat available.
0:16:22 It’s also ethically sourced.
0:16:26 Maui Nui hunts and harvest wild access deer on the island of Maui.
0:16:32 This solves the problem of managing an invasive species while also creating an extraordinary source of protein.
0:16:34 As I’ve discussed on this podcast before,
0:16:39 most people should aim for getting one gram of quality protein per pound of body weight each day.
0:16:45 This allows for optimal muscle protein synthesis while also helping to reduce appetite and support proper metabolic health.
0:16:48 Given Maui Nui’s exceptional protein-to-calorie ratio,
0:16:52 this protein target is achievable without having to eat too many calories.
0:16:57 Their venison delivers 21 grams of protein with only 107 grams per serving,
0:17:03 which is an ideal ratio for those of us concerned with maintaining or increasing muscle mass while supporting metabolic health.
0:17:07 They have venison steaks, ground venison, and venison bone broth.
0:17:09 I personally love all of them.
0:17:13 In fact, I probably eat a Maui Nui venison burger pretty much every day.
0:17:14 And if I don’t do that, I eat one of their steaks.
0:17:17 And sometimes I also consume their bone broth.
0:17:23 And if you’re on the go, they have Maui Nui venison sticks, which have 10 grams of protein per stick with just 55 calories.
0:17:26 I eat at least one of those a day to meet my protein requirements.
0:17:32 Right now, Maui Nui is offering Huberman podcast listeners a limited collection of my favorite cuts and products.
0:17:36 It’s perfect for anyone looking to improve their diet with delicious, high-quality protein.
0:17:42 Supplies are limited, so go to MauiNuiVenison.com slash Huberman to get access to this high-quality meat today.
0:17:46 Again, that’s MauiNuiVenison.com slash Huberman.
0:17:50 Does interacting with a robot change you?
0:17:54 Does it, in other words, do we develop relationships to robots?
0:18:05 I believe that most people have a notion of loneliness in them that we haven’t discovered, that we haven’t explored, I should say.
0:18:15 And I see AI systems as helping us explore that so that we can become better humans, better people towards each other.
0:18:34 So I think that connection between human and AI, human and robot, is not only possible, but will help us understand ourselves in ways that are like several orders of magnitude, deeper than we ever could have imagined.
0:18:46 So when I think about human relationships, I don’t always break them down into variables, but we could explore a few of those variables and see how they map to human-robot relationships.
0:18:48 One is just time, right?
0:18:56 If you spend zero time with another person at all in cyberspace or on the phone or in person, you essentially have no relationship to them.
0:18:58 If you spend a lot of time, you have a relationship.
0:19:01 This is obvious, but I guess one variable would be time.
0:19:05 How much time you spend with the other entity, robot or human.
0:19:08 The other would be wins and successes.
0:19:11 You know, you enjoy successes together.
0:19:12 The other would be failures.
0:19:17 When you struggle with somebody, you know, when you struggle with somebody, you grow closer.
0:19:21 So I’ve never conceptualized robot-human interactions this way.
0:19:24 So tell me more about how this might look.
0:19:28 Are we thinking about a human-appearing robot?
0:19:33 What is the ideal human-robot relationship?
0:19:41 So there’s a lot to be said here, but you actually pinpointed one of the big, big first steps, which is this idea of time.
0:19:49 I think that time element, forget everything else, just sharing moments together, that changes everything.
0:19:51 I believe that changes everything.
0:19:56 Now, there’s specific things that are more in terms of systems that I can explain you.
0:20:03 It’s more technical and probably a little bit offline because I have kind of wild ideas how that can revolutionize.
0:20:08 social networks and operating systems.
0:20:11 But the point is that element alone.
0:20:16 Forget all the other things we’re talking about, like emotions, saying no, all that.
0:20:20 Just remember, sharing moments together would change everything.
0:20:26 We don’t currently have systems that share moments together.
0:20:33 Like even just you in your fridge, just all those times you went late at night and ate the thing you shouldn’t have eaten.
0:20:36 That was a secret moment you had with your refrigerator.
0:20:44 You shared that moment, that darkness or that beautiful moment where you just, you know, like heartbroken for some reason.
0:20:46 You’re eating that ice cream or whatever.
0:20:48 That’s a special moment.
0:20:50 And that refrigerator was there for you.
0:20:56 And the fact that it missed the opportunity to remember that is tragic.
0:21:02 And once it does remember that, I think you’re going to be very attached to the refrigerator.
0:21:06 You’re going to go through some hell with that refrigerator.
0:21:12 Most of us have like in, in, in a, in a developed world have weird relationships with food, right?
0:21:17 So you can go through some, some deep moments of trauma and triumph with food.
0:21:20 And at the core of that is the refrigerator.
0:21:30 So a smart refrigerator, I believe would change society, not just the refrigerator, but the, these ideas in the systems all around us.
0:21:34 So that I just want to comment on how powerful that idea of time is.
0:21:49 And then there’s a bunch of elements of actual interaction of allowing you as a human to feel like you’re being heard, truly heard, truly understood.
0:21:58 And I think there’s a lot of ideas of how to make AI assistance to be able to ask the right questions and truly hear another human.
0:22:00 This is what we try to do with podcasting, right?
0:22:03 I think there’s ways to do that with AI.
0:22:12 But above all else, just remembering the collection of moments that make up the day, the week, the months.
0:22:16 I think you maybe have some of this as well.
0:22:19 Some of my closest friends still are the friends from high school.
0:22:21 That’s time.
0:22:23 We’ve been through a bunch of shit together.
0:22:26 And that like, we’ve, we’re very different people.
0:22:34 But just the fact that we’ve been through that and we remember those moments and those moments somehow create a depth of connection like nothing else.
0:22:36 Like you and your refrigerator.
0:22:49 There may be relationships that are far better than the sorts of relationships that we can conceive in our minds right now, based on what these machine relationship interactions could teach us.
0:22:50 Do I have that right?
0:22:50 Do I have that right?
0:22:52 Yeah, I think so.
0:22:59 I think there’s no reason to see machines as somehow incapable of teaching us something that’s deeply human.
0:23:02 I don’t think humans have a monopoly on that.
0:23:11 I think we understand ourselves very poorly and we need to have the kind of prompting from a machine.
0:23:20 Maybe the thing we want to optimize for isn’t necessarily like some sexy, like quick clips.
0:23:23 Maybe what we want is long form authenticity.
0:23:24 Depth.
0:23:25 Depth.
0:23:35 From a very specific engineering perspective is, I think, a fascinating open problem that hasn’t been really worked on very much.
0:23:44 Early on in life, and also in the recent years, I’ve interacted with a few robots where I understood there’s magic there.
0:23:50 And that magic could be shared by millions if it’s brought to light.
0:23:57 When I first met Spot from Boston Dynamics, I realized there’s magic there that nobody else is seeing.
0:23:58 It’s the dog.
0:23:59 It’s the dog, sorry.
0:24:04 The Spot is the four-legged robot from Boston Dynamics.
0:24:05 Some people might have seen it.
0:24:06 It’s this yellow dog.
0:24:11 This magic is something that could be every single device in the world.
0:24:17 The way that I think maybe Steve Jobs thought about the personal computer.
0:24:23 And so, for me, I’d love to see a world where there’s every home has a robot.
0:24:27 And not a robot that washes the dishes, but more like a companion.
0:24:28 A family member.
0:24:29 A family member.
0:24:30 The way a dog is.
0:24:35 But a dog that’s able to speak your language, too.
0:24:43 So not just connect the way a dog does by looking at you and looking away and almost like smiling with its soul in that kind of way.
0:24:50 But also to actually understand what the hell, like why are you so excited about the successes?
0:24:51 Like understand the details.
0:24:53 Understand the traumas.
0:24:58 I love this desire to share the delight of an interaction with a robot.
0:25:01 And as you describe it, I actually, I find myself starting to crave that.
0:25:07 Because we all have those elements from childhood where or from adulthood where we experience something.
0:25:09 We want other people to feel that.
0:25:11 And I think that you’re right.
0:25:12 I think a lot of people are scared of AI.
0:25:14 I think a lot of people are scared of robots.
0:25:22 My only experience of a robotic-like thing is my Roomba vacuum where it goes about.
0:25:25 Actually, it was pretty good at picking up Costello’s hair when he was shed.
0:25:28 And then, and I was grateful for it.
0:25:35 But then when it would, when I was on a call or something and it would get caught on a wire or something, I would find myself getting upset with the Roomba.
0:25:37 In that moment, I’m like, what are you doing?
0:25:40 You know, and I, and obviously it’s just doing what it does.
0:25:44 But, but that’s a kind of mostly positive, but slightly negative interaction.
0:25:54 But what you’re describing, it has so much more richness and layers of detail that I can only imagine what those relationships are like.
0:25:55 Well, there’s a few, just a quick comment.
0:25:58 So I’ve had, they’re currently in Boston.
0:26:00 I have a bunch of Roombas from iRobot.
0:26:02 And I did this experiment.
0:26:03 Wait, how many Roombas?
0:26:06 Sounds like a fleet of Roombas.
0:26:08 Yeah, so I, probably seven or eight.
0:26:10 Well, that’s a lot of Roombas.
0:26:15 So you’re going to, so you have these seven or so Roombas, you deploy all seven at once?
0:26:19 Oh, no, I do different experiments with them, different experiments with them.
0:26:29 So one of the things I want to mention, I got them to, to scream in pain and moan in pain whenever they were kicked or contacted.
0:26:33 And I did that experiment to see how I would feel.
0:26:37 I meant to do like a YouTube video on it, but then it just seemed very cruel.
0:26:39 Did any Roomba rights activists come out?
0:26:40 Yeah, that’s fine.
0:26:49 Like, I think if I release that video, I think it’s going to make me look insane, which I know people know I’m already insane.
0:26:52 Now you, now you have to release the video, Max.
0:26:52 Sure.
0:27:04 Well, I think maybe if I contextualize it by showing other robots, like to show why this is fascinating, because ultimately I felt like they were human almost immediately.
0:27:07 And that display of pain was what did that.
0:27:08 Giving them a voice.
0:27:13 Giving them a voice, especially a voice of dislike, of pain.
0:27:15 So is the video available online?
0:27:17 No, I haven’t.
0:27:18 I haven’t recorded it.
0:27:24 I just hit a bunch of Roombas that are able to scream in pain in my Boston, in my Boston place.
0:27:29 What about like shouts of glee and delight?
0:27:34 Well, I don’t know how to, I don’t, how to, to me, delight is quiet, right?
0:27:45 But there’s a way to frame it being quite dumb as almost cute, you know, almost connecting with it for its dumbness.
0:27:48 And I think that’s an artificial intelligence problem.
0:27:49 Interesting.
0:27:53 I think flaws are, should be a feature, not a bug.
0:28:02 So along the lines of this, the different sorts of relationships that one could have with robots and the fear, but also that some of the positive relationships that one could have.
0:28:04 There’s so much dimensionality.
0:28:06 There’s so much to explore.
0:28:19 But power dynamics in relationships are very interesting because the obvious ones that the unsophisticated view of this is, you know, one, there’s a master and a servant, right?
0:28:21 But there’s also manipulation.
0:28:24 There’s benevolent manipulation.
0:28:26 You know, children do this with parents.
0:28:27 Puppies do this.
0:28:31 Puppies turn their head and look cute and maybe give out a little, little noise.
0:28:33 Kids, coo.
0:28:39 And parents always think that they’re, you know, they’re doing this because, you know, they, they love the parent.
0:28:46 But in many ways, studies show that those coos are ways to extract the sorts of behaviors and expressions from the parent that they want.
0:28:47 The child doesn’t know it’s doing this.
0:28:50 It’s completely subconscious, but it’s benevolent manipulation.
0:29:01 So there’s one version of fear of robots that I hear a lot about that I think most people can relate to where the robots take over and they become the masters and we become the servants.
0:29:16 But there could be another version that, you know, in certain communities that I’m certainly not a part of, but they call topping from the bottom where the robot is actually manipulating you into doing things.
0:29:23 But you are under the belief that you are in charge, but actually they’re in charge.
0:29:33 And so I think that’s one that if we could explore that for a second, you could imagine it wouldn’t necessarily be bad, although it could lead to bad things.
0:29:43 The reason I want to explore this is I think people always default to the extreme, like the robots take over and we’re in little jail cells and they’re out having fun and ruling the universe.
0:29:50 What sorts of manipulation can a robot potentially carry out, good or bad?
0:29:51 Yeah.
0:29:55 So there’s a lot of good and bad manipulation between humans, right?
0:29:56 Just like you said.
0:30:06 To me, especially, like you said, topping from the bottom is that the term?
0:30:08 So I think someone from MIT told me that term.
0:30:10 It wasn’t Lex.
0:30:21 I think, so first of all, there’s power dynamics in bed and power dynamics in relationships and power dynamics on the street and in the work environment.
0:30:22 Those are all very different.
0:30:37 I think, I think power dynamics can make human relationships, especially romantic relationships, fascinating and rich and fulfilling and exciting and all those kinds of things.
0:30:45 So I don’t, I don’t think in themselves they’re bad and the same goes with robots.
0:30:51 I really love the idea that a robot would be a top or a bottom in terms of like power dynamics.
0:30:54 And I think everybody should be aware of that.
0:31:02 And the manipulation is not so much manipulation, but a dance of like pulling away, a push and pull and all those kinds of things.
0:31:08 In terms of control, I think we’re very, very, very far away from AI systems.
0:31:13 They’re able to lock us up.
0:31:20 They, to lock us up in, you know, like to have so much control that we basically cannot live our lives in the way that we want.
0:31:28 I think there’s, in terms of dangers of AI systems, there’s much more dangers that have to do with autonomous weapon systems and all those kinds of things.
0:31:34 So the power dynamics as exercised in the struggle between nations and war and all those kinds of things.
0:31:40 But in terms of personal relationships, I think power dynamics are a beautiful thing.
0:31:43 I do believe that robots will have rights down the line.
0:31:54 And I think in order for us to have deep meaningful relationships with robots, we would have to consider them as entities in themselves that deserve respect.
0:32:01 And that’s a really interesting concept that I think people are starting to talk about a little bit more.
0:32:10 But it’s very difficult for us to understand how entities that are other than human, I mean, the same as with dogs and other animals, can have rights on a level as humans.
0:32:16 I’d like to take a quick break and acknowledge one of our sponsors, Function.
0:32:21 Last year, I became a Function member after searching for the most comprehensive approach to lab testing.
0:32:27 Function provides over 100 advanced lab tests that give you a key snapshot of your entire bodily health.
0:32:34 This snapshot offers you with insights on your heart health, hormone health, immune functioning, nutrient levels, and much more.
0:32:42 They’ve also recently added tests for toxins such as BPA exposure from harmful plastics and tests for PFASs or forever chemicals.
0:32:46 Function not only provides testing of over 100 biomarkers key to your physical and mental health,
0:32:53 but it also analyzes these results and provides insights from top doctors who are expert in the relevant areas.
0:32:58 For example, in one of my first tests with Function, I learned that I had elevated levels of mercury in my blood.
0:33:04 Function not only helped me detect that, but offered insights into how best to reduce my mercury levels,
0:33:05 which included limiting my tuna consumption.
0:33:07 I’d been eating a lot of tuna.
0:33:12 While also making an effort to eat more leafy greens and supplementing with NAC and acetylcysteine,
0:33:15 both of which can support glutathione production and detoxification.
0:33:19 And I should say, by taking a second Function test, that approach worked.
0:33:22 Comprehensive blood testing is vitally important.
0:33:27 There’s so many things related to your mental and physical health that can only be detected in a blood test.
0:33:30 The problem is blood testing has always been very expensive and complicated.
0:33:35 In contrast, I’ve been super impressed by Function’s simplicity and at the level of cost.
0:33:37 It is very affordable.
0:33:40 As a consequence, I decided to join their scientific advisory board,
0:33:42 and I’m thrilled that they’re sponsoring the podcast.
0:33:47 If you’d like to try Function, you can go to functionhealth.com slash Huberman.
0:33:50 Function currently has a wait list of over 250,000 people,
0:33:54 but they’re offering early access to Huberman podcast listeners.
0:33:59 Again, that’s functionhealth.com slash Huberman to get early access to Function.
0:34:02 Today’s episode is also brought to us by David.
0:34:04 David makes a protein bar unlike any other.
0:34:09 It has 28 grams of protein, only 150 calories, and zero grams of sugar.
0:34:14 That’s right, 28 grams of protein and 75% of its calories come from protein.
0:34:17 This is 50% higher than the next closest protein bar.
0:34:19 David protein bars also taste amazing.
0:34:21 Even the texture is amazing.
0:34:23 My favorite bar is the chocolate chip cookie dough,
0:34:28 but then again, I also like the new chocolate peanut butter flavor and the chocolate brownie flavored.
0:34:30 Basically, I like all the flavors a lot.
0:34:31 They’re all incredibly delicious.
0:34:36 In fact, the toughest challenge is knowing which ones to eat on which days and how many times per day.
0:34:39 I limit myself to two per day, but I absolutely love them.
0:34:43 With David, I’m able to get 28 grams of protein in the calories of a snack,
0:34:47 which makes it easy to hit my protein goals of one gram of protein per pound of body weight per day,
0:34:51 and it allows me to do so without ingesting too many calories.
0:34:54 I’ll eat a David protein bar most afternoons as a snack,
0:34:57 and I always keep one with me when I’m out of the house or traveling.
0:35:01 They’re incredibly delicious, and given that they have 28 grams of protein,
0:35:04 they’re really satisfying for having just 150 calories.
0:35:09 If you’d like to try David, you can go to davidprotein.com slash Huberman.
0:35:12 Again, that’s davidprotein.com slash Huberman.
0:35:17 We can’t, nor should we, do whatever we want with animals.
0:35:25 We have a USDA, we have departments of agriculture that deal with animal care and use committees
0:35:29 for research, for farming and ranching and all that.
0:35:34 So when you first said it, I thought, wait, why would there be a bill of robotic rights?
0:35:40 But it absolutely makes sense in the context of everything we’ve been talking about up until now.
0:35:46 Let’s, if you’re willing, I’d love to talk about dogs,
0:35:49 because you’ve mentioned dogs a couple times, a robot dog.
0:35:52 You had a biological dog.
0:35:53 Yeah.
0:36:01 Yeah, I had a Newfoundland named Homer for many years growing up.
0:36:03 In Russia or in the U.S.?
0:36:04 In the United States.
0:36:07 And he was about, he was over 200 pounds.
0:36:08 That’s a big dog.
0:36:09 That’s a big dog.
0:36:17 People know Newfoundland, so he’s this black dog that’s really long hair and just a kind soul.
0:36:23 I think perhaps that’s true for a lot of large dogs, but he thought he was a small dog, so he moved like that.
0:36:24 Was he your dog?
0:36:25 Yeah, yeah.
0:36:27 So you had him since he was fairly young?
0:36:31 Since the very, very beginning to the very, very end.
0:36:38 And one of the things, I mean, he had this kind of, we mentioned like the Roombas.
0:36:44 He had a kind-hearted dumbness about him that was just overwhelming.
0:36:52 It’s part of the reason I named him Homer, because it’s after Homer Simpson, in case people are wondering which Homer I’m referring to.
0:37:05 So there’s a clumsiness that was just something that immediately led to a deep love for each other.
0:37:10 And one of the, I mean, he was always, it’s the shared moments.
0:37:14 He was always there for so many nights together.
0:37:22 That’s a powerful thing about a dog that he was there through all the loneliness, through all the tough times, through the successes and all those kinds of things.
0:37:27 And I remember, I mean, that was a really moving moment for me.
0:37:28 I still miss him to this day.
0:37:30 How long ago did he die?
0:37:34 Maybe 15 years ago.
0:37:36 So it’s been a while.
0:37:43 It was the first time I’ve really experienced, like, the feeling of death.
0:37:49 So what happened is he got cancer.
0:37:53 And so he was dying slowly.
0:37:55 And then at a certain point, he couldn’t get up anymore.
0:38:01 There’s a lot of things I could say here, you know, that I struggle with.
0:38:06 Maybe he suffered much longer than he needed to.
0:38:09 That’s something I really think about a lot.
0:38:19 But I remember I had to take him to the hospital and the nurses couldn’t carry him, right?
0:38:21 So you talk about a 200-pound dog.
0:38:23 I was really into powerlifting at the time.
0:38:30 I remember, like, they tried to figure out all these kinds of ways to, so in order to put him to sleep,
0:38:34 they had to take him into a room.
0:38:36 And so I had to carry him everywhere.
0:38:47 And here’s this dying friend of mine that I just had to, first of all, it’s really difficult to carry somebody that heavy when they’re not helping you out.
0:39:00 And, yeah, so I remember it was the first time seeing a friend laying there and seeing life drain from his body.
0:39:07 And that realization that we’re here for a short time was made so real.
0:39:12 that here’s a friend that here’s a friend that was there for me the week before, the day before, and now he’s gone.
0:39:20 And that was, I don’t know, that spoke to the fact that you could be deeply connected with the dog.
0:39:34 Also spoke to the fact that the shared moments together that led to that deep friendship is, are, will make life so amazing.
0:39:38 But it also spoke to the fact that death is a motherfucker.
0:39:43 So I know you’ve lost Costello recently.
0:39:43 Yeah.
0:39:44 And you’ve been going.
0:39:47 And as you’re saying this, I’m definitely fighting back the tears.
0:39:54 I, I, thank you for sharing that, that, I guess we’re about to both cry over our dead dogs.
0:39:59 That it was, it was bound to happen just given when this is, when this is happening.
0:40:01 Yeah.
0:40:01 It’s.
0:40:05 How long, how long did you know that Costello was not doing well?
0:40:18 Well, let’s see, a year ago, during the start of, about six months into the pandemic, he started getting abscesses and he was not, his behavior changed and something really changed.
0:40:25 And then I put him on testosterone because, which helped a lot of things.
0:40:28 It certainly didn’t cure everything, but it helped a lot of things.
0:40:30 He was dealing with joint pain, sleep issues.
0:40:42 And then it just became a very slow decline to the point where, you know, two, three weeks ago, he had, you know, a closet full of medication.
0:40:44 I mean, this dog was, you know, it was like a pharmacy.
0:40:51 It’s amazing to me when I looked at it the other day, I still haven’t cleaned up and removed all his things because I can’t quite bring myself to do it.
0:40:54 But, um, do you think he was suffering?
0:40:59 Well, so what happened was about a week ago, it was really just about a week ago.
0:40:59 It’s amazing.
0:41:01 He was going up the stairs.
0:41:03 I saw him slip and he was a big dog.
0:41:05 He wasn’t 200 pounds, but he was about 90 pounds.
0:41:05 He’s a bulldog.
0:41:06 That’s pretty big.
0:41:07 And he was fit.
0:41:12 And then I noticed that he wasn’t carrying a foot in the back, like it was injured.
0:41:13 It had no feeling at all.
0:41:16 He never liked me to touch his hind paws and I could do that thing.
0:41:17 It was just flopping there.
0:41:23 And then, uh, the vet found some spinal degeneration and I was told that the next one would go.
0:41:24 Did he suffer?
0:41:25 Uh, sure.
0:41:25 Hope not.
0:41:28 Um, but something changed in his eyes.
0:41:29 Yeah.
0:41:29 Yeah.
0:41:30 It’s the eyes again.
0:41:39 I know you and I spend long hours on the phone and talking about like the eyes and how, what they convey and what they mean about internal states and for sake of robots and biology of other kinds.
0:41:44 Um, do you think, uh, something about him was gone in his eyes?
0:41:47 I, I think he was real.
0:41:49 Here I am anthropomorphizing.
0:41:59 I think he was realizing that one of his great joys in life, which was to walk and sniff and pee on things.
0:42:04 This dog, the fundamentals, loved to pee on things.
0:42:04 It was amazing.
0:42:06 I wondered where he put it.
0:42:08 He was like a reservoir of urine.
0:42:09 It was incredible.
0:42:10 I think, oh, that’s it.
0:42:14 He’s just, he’d put like one drop on the 50 millionth plant.
0:42:18 And then we get to the 50 millionth in one plant and he just have, you know, leave a puddle.
0:42:20 And here I am talking about Costello peeing.
0:42:24 Um, he was losing that ability to stand up and do that.
0:42:26 He was falling down while he was doing that.
0:42:35 And I, I do think he started to realize, and the, the passage was easy and peaceful, but, um, uh, you know, I’ll say this.
0:42:36 I, I’m not ashamed to say it.
0:42:42 I mean, I wake up every morning since then, just, I don’t even make the conscious decision to allow myself to cry.
0:42:45 I wake up crying and, uh, I’m fortunately able to make it through the day.
0:42:48 Thanks to the great support of my friends and, and you and my family.
0:42:51 But, um, I miss him, man.
0:42:52 You miss him.
0:42:52 Yeah.
0:42:53 I miss him.
0:43:03 And I feel like, uh, he, you know, Homer Costello, you know, the relationship to one’s dog is so specific, but, um, so that, that party is gone.
0:43:06 That’s the hard thing.
0:43:15 You know, um, what’s, what, what I think is different is that.
0:43:25 I made the mistake, I think, or I hope it was a good decision, but sometimes I think I made the mistake of, I brought Costello a little bit to the world through the podcast, through posting about him.
0:43:28 I gave, I anthropomorphized about him in public.
0:43:29 Let’s be honest.
0:43:32 I have no idea what his mental life was or his relationship to me.
0:43:37 And I’m just exploring all this for the first time because he was my first dog, but I raised him since he was seven weeks.
0:43:37 Yeah.
0:43:38 You got to hold it together.
0:43:47 I noticed the episode, uh, you released on Monday, you mentioned Costello, like you, you brought him back to life for me for that brief moment.
0:43:48 Yeah.
0:43:49 But he’s, he’s, he’s gone.
0:43:54 Well, that’s the, he’s going to be gone for a lot of people too.
0:43:57 Well, this is what I’m struggling with.
0:43:59 I know how to take care of myself pretty well.
0:43:59 Yeah.
0:44:01 Not perfectly, but pretty well.
0:44:02 And I have good support.
0:44:06 I do worry a little bit about how it’s going to land and how people will feel.
0:44:09 I’m, I’m concerned about their internalization.
0:44:13 Um, so that’s something I’m still, I’m still iterating on.
0:44:15 And you have to, they have to watch you struggle, which is fascinating.
0:44:16 Right.
0:44:30 And I’ve mostly been shielding them from this, but, um, what would make me happiest if, is, if people would internalize some of Costello’s best traits and his best traits were that he was incredibly tough.
0:44:34 I mean, he was a, you know, 22 inch neck bulldog, the whole thing.
0:44:40 He was just born that way, but was, what was so beautiful is that his toughness is never what he rolled forward.
0:44:43 It was just how sweet and kind he was.
0:44:48 And so if people can take that, then, um, then there’s a win in there someplace.
0:44:54 So I think there’s some ways in which he should probably live on in your podcast too.
0:45:04 You should, uh, I mean, it’s such a, one of the things I loved about, uh, his role in your podcast is that he brought so much energy.
0:45:05 much joy to you.
0:45:07 We mentioned the robots, right?
0:45:18 I think, uh, that’s such a powerful thing to bring that joy into like allowing yourself to experience that joy, to bring that joy to others, to share it with others.
0:45:20 Uh, that’s really powerful.
0:45:39 And I mean, not to, this is, this is like the Russian thing is, um, it’s, it touched me when, uh, Louis CK had that moment that I keep thinking about in this, um, his show, Louis, where like an old man was criticizing Louis for whining about breaking up with his girlfriend.
0:45:47 And he was saying like the most, uh, the, the, the, the most beautiful thing, um, about, uh, love.
0:45:54 They mean the song that’s catchy now, that’s not making me feel horrible saying it, but like, is the loss.
0:46:07 The loss really also is making you realize how much that person, that dog meant to you and like allowing yourself to feel that loss and not run away from that loss is really powerful.
0:46:19 And in some ways that’s also sweet, just like the love was, the loss is also sweet because you know, that you felt a lot for that, um, for your friend.
0:46:23 So I, you know, and I continue bringing that joy.
0:46:25 I think it would be amazing to the podcast.
0:46:32 Uh, I hope to do the same with, with robots or whatever else is the source of joy.
0:46:32 Right.
0:46:38 Um, and, um, and maybe, uh, do you think about one day getting, uh, another dog?
0:46:39 Yeah.
0:46:44 In time, um, you’re hitting on all the key buttons here.
0:46:56 Uh, I want that to, we’re thinking about, um, you know, ways to kind of immortalize Costello in a way that’s real, not just, you know, creating some little logo or something silly.
0:47:03 And, you know, Costello, much like David Goggins is a, a person, but Goggins also has grown into kind of a verb.
0:47:07 You’re going to Goggins this or you’re going to, and there’s an adjective like that’s extreme.
0:47:11 Like, um, I think that for me, Costello was all those things.
0:47:13 He was a, he was a being, he was his own being.
0:47:16 He was a noun, uh, a verb and an adjective.
0:47:24 So, and he had this amazing superpower that I wish I could get, which is this ability to get everyone else to do things for you without doing a damn thing.
0:47:27 The Costello effect, as I call it.
0:47:27 So it was an idea.
0:47:29 I hope he lives on.
0:47:43 Um, there’s a saying that I heard when I was a graduate student that I, that’s just been ringing in my mind throughout this conversation in such a, I think appropriate way, which is that, uh, Lex, you are in a minority of one.
0:48:01 You are truly, uh, extraordinary in your ability to encapsulate so many aspects of science, engineering, public communication about so many topics, uh, martial arts and the emotional depth that you bring to it and just the purposefulness.
0:48:15 And I think if it’s not clear to people, it absolutely should be stated, but I think it’s abundantly clear that just the amount of time and thinking that you put into things is, uh, it, it is the ultimate mark of respect.
0:48:21 Um, so I’m just extraordinarily grateful for your friendship and for this conversation.
0:48:27 I’m, uh, proud to be a friend and I just wish you showed me the same kind of respect by wearing a suit and make your father proud.
0:48:30 Maybe next time, next time, indeed.
0:48:32 Thanks so much, my friend.
0:48:33 Thank you.
0:48:33 Thank you, Andrew.
Chào mừng đến với Huberman Lab Essentials, nơi chúng ta xem lại những tập trước để tìm ra những công cụ khoa học dựa trên nền tảng chính xác và có thể áp dụng cho sức khỏe tâm thần, sức khỏe thể chất và hiệu suất.
Và bây giờ, cuộc trò chuyện của tôi với Tiến sĩ Lex Friedman.
Chúng ta gặp lại nhau.
Chúng ta gặp lại nhau.
Tôi có một câu hỏi mà tôi nghĩ là đang ở trong tâm trí của rất nhiều người, hoặc lẽ ra nên nằm trong tâm trí của nhiều người.
Trí tuệ nhân tạo là gì, và nó khác với những thứ như học máy và robot ở điểm nào?
Vì vậy, tôi nghĩ về trí tuệ nhân tạo, trước hết, như một khái niệm triết học lớn.
Đó là khát vọng của chúng ta để tạo ra các hệ thống trí tuệ khác, có thể là các hệ thống mạnh mẽ hơn chúng ta.
Ở mức độ hẹp hơn, tôi nghĩ nó cũng là một tập hợp các công cụ, các công cụ toán học tính toán để tự động hóa các nhiệm vụ khác nhau.
Và sau đó, đó cũng là nỗ lực của chúng ta để hiểu được tâm trí của chính mình.
Vì vậy, xây dựng các hệ thống thể hiện một số hành vi thông minh nhằm hiểu trí tuệ là gì trong chính bản thân chúng ta.
Vì vậy, tất cả những điều đó đều đúng.
Tất nhiên, những gì AI thực sự nghĩa là một cộng đồng, như một tập hợp các nhà nghiên cứu và kỹ sư, đó là một tập hợp các công cụ, một tập hợp các kỹ thuật tính toán cho phép bạn giải quyết nhiều vấn đề khác nhau.
Có một lịch sử dài tiếp cận vấn đề từ nhiều góc độ khác nhau.
Một trong những sợi chỉ luôn tồn tại trong một trong những cộng đồng đó là dưới lá cờ của học máy, nhấn mạnh vào nhiệm vụ học hỏi trong không gian AI.
Làm thế nào bạn có thể tạo ra một máy mà ban đầu biết rất ít, thực hiện một quy trình nào đó và học để trở nên tốt hơn và tốt hơn trong một nhiệm vụ cụ thể?
Những gì đã rất hiệu quả trong khoảng 15 năm qua, là một tập hợp các kỹ thuật thuộc dưới lá cờ của học sâu, sử dụng các mạng nơ-ron.
Đó là một mạng lưới của những đơn vị tính toán cơ bản gọi là nơ-ron, nơ-ron nhân tạo.
Và những kiến trúc này có đầu vào và đầu ra.
Chúng không biết gì vào lúc bắt đầu, và được giao nhiệm vụ học điều gì đó thú vị.
Điều gì đó thú vị đó thường liên quan đến một nhiệm vụ cụ thể.
Có rất nhiều cách để nói về điều này và phân tích nó.
Một trong số đó là cần bao nhiêu giám sát của con người để dạy cho thứ này.
Vì vậy, học có giám sát, là một loại hình rộng lớn, là mạng nơ-ron không biết gì vào lúc ban đầu.
Sau đó nó được cung cấp một loạt ví dụ, trong lĩnh vực thị giác máy tính, đó sẽ là các ví dụ về mèo, chó, xe hơi, biển báo giao thông.
Và sau đó bạn được cung cấp hình ảnh, và bạn được cung cấp sự thật về những gì có trong hình ảnh đó.
Và khi bạn có một cơ sở dữ liệu lớn về các ví dụ hình ảnh mà bạn biết sự thật, thì mạng nơ-ron có thể học thông qua các ví dụ.
Điều đó được gọi là học có giám sát.
Câu hỏi, có rất nhiều câu hỏi thú vị trong đó, là làm thế nào bạn cung cấp sự thật?
Khi bạn được cung cấp một hình ảnh của một con mèo, làm thế nào bạn cung cấp cho máy tính rằng hình ảnh này chứa một con mèo?
Bạn có chỉ nói toàn bộ hình ảnh là một bức tranh của một con mèo không?
Bạn có làm điều mà rất nhiều người thường làm, đó là tạo một hộp bao quanh?
Bạn có một hộp thô xung quanh mặt mèo nói rằng đây là một con mèo.
Bạn có thực hiện phân đoạn ngữ nghĩa không?
Lưu ý, đây là một hình ảnh 2D của một con mèo.
Vì vậy, máy tính không biết gì về thế giới ba chiều của chúng ta.
Nó chỉ đang nhìn vào một tập hợp các pixel.
Vì vậy, phân đoạn ngữ nghĩa là vẽ một đường nét rất sắc nét quanh mèo và nói rằng đó là một con mèo.
Thật khó khăn để cung cấp sự thật đó.
Và một trong những câu hỏi mở cơ bản trong thị giác máy tính là, liệu điều đó có phải là một đại diện tốt cho sự thật không?
Bây giờ, có một tập hợp ý tưởng đối lập khác.
Sự chú ý của họ, sự trùng lặp của họ là thứ đã từng được gọi là học không giám sát, hiện nay thường được gọi là học tự giám sát, đang cố gắng giảm bớt giám sát của con người vào nhiệm vụ.
Vì vậy, học tự giám sát đang rất thành công trong lĩnh vực các mô hình ngôn ngữ, xử lý ngôn ngữ tự nhiên, và giờ đây ngày càng thành công hơn trong các nhiệm vụ thị giác máy tính.
Và ý tưởng ở đó là, để máy mà không có sự chú thích về sự thật, chỉ cần nhìn vào hình ảnh trên internet hoặc nhìn vào văn bản trên internet và cố gắng học điều gì đó có thể tổng quát về các ý tưởng nằm ở cốt lõi của ngôn ngữ hoặc ở cốt lõi của thị giác.
Và dựa trên điều đó, chúng ta, con người, thường thích gọi điều đó là cảm giác thông thường.
Vì vậy, với điều này, chúng ta có một cơ sở kiến thức khổng lồ trên đó chúng ta xây dựng kiến thức tinh vi hơn.
Chúng ta có loại kiến thức cảm giác thông thường này.
Và vì vậy, ý tưởng với học tự giám sát là xây dựng kiến thức cảm giác thông thường này về những ý tưởng thị giác cơ bản tạo nên một con mèo và một con chó và tất cả những thứ như vậy mà không bao giờ có sự giám sát của con người.
Giấc mơ ở đó là bạn chỉ cần để cho một hệ thống AI tự giám sát chạy quanh internet trong một thời gian, xem các video YouTube hàng triệu giờ và không có sự giám sát, sẵn sàng và chuẩn bị để thực sự học với rất ít ví dụ khi con người có thể xuất hiện.
Chúng ta nghĩ về trẻ em theo cách này, trẻ em người, là cha mẹ của bạn chỉ cung cấp một hoặc hai ví dụ để dạy một khái niệm.
Giấc mơ với học tự giám sát là điều đó cũng sẽ giống như vậy với máy móc, rằng chúng sẽ xem hàng triệu giờ video YouTube và sau đó đến với một con người và có thể hiểu khi con người chỉ cho chúng, đây là một con mèo.
Như, nhớ rằng, đây là một con mèo.
Chúng sẽ hiểu rằng một con mèo không chỉ là một thứ có tai nhọn hoặc một con mèo là một thứ có màu cam hoặc có lông xù.
Chúng sẽ thấy điều gì đó cơ bản hơn mà chúng ta, con người có thể không thực sự tự xem xét và hiểu.
Như, nếu tôi hỏi bạn điều gì tạo nên sự khác biệt giữa một con mèo và một con chó, có lẽ bạn sẽ không thể trả lời câu hỏi đó.
Nhưng nếu tôi mang đến cho bạn một con mèo và một con chó, bạn sẽ có thể phân biệt được sự khác nhau.
Những ý tưởng mà não của bạn sử dụng để tạo ra sự khác biệt đó là gì?
Đó là toàn bộ giấc mơ của việc học tự giám sát, nó sẽ có khả năng học điều đó một cách tự nhiên, đó là tập hợp những kiến thức thông thường có thể phân biệt sự khác biệt.
Sau đó có rất nhiều ứng dụng tuyệt vời của học tự giám sát, một cách kỳ lạ được gọi là cơ chế tự chơi.
Đó là cơ chế đứng sau những thành công của học tăng cường của các hệ thống muốn thi đấu với AlphaZero, những hệ thống muốn chơi cờ vua.
Ôi, tôi hiểu rồi.
Chúng chơi những trò chơi.
Chúng chơi những trò chơi.
Hiểu rồi.
Vậy ý tưởng tự chơi, điều này có thể áp dụng cho nhiều lĩnh vực khác chứ không chỉ là trò chơi, là một hệ thống chỉ chơi với chính nó.
Và điều này thật sự thú vị trong tất cả các lĩnh vực, nhưng nó không biết gì cả ở giai đoạn đầu.
Toàn bộ ý tưởng là nó tạo ra một loạt các biến thể của chính nó và chơi với những phiên bản đó của chính nó.
Và sau đó thông qua quá trình tương tác với các hệ thống chỉ tốt hơn bạn một chút, bạn bắt đầu theo một quá trình mà mọi người bắt đầu trở nên giỏi hơn và giỏi hơn cho đến khi bạn trở thành tốt hơn nhiều lần so với nhà vô địch thế giới trong cờ vua, chẳng hạn.
Và điều này thật thú vị vì đó như một hệ thống chạy trốn.
Một trong những điều đáng sợ và thú vị nhất mà David Silver, người sáng tạo ra AlphaGo và AlphaZero, một trong những người đứng đầu đội ngũ, đã nói với tôi, là họ chưa tìm thấy ngưỡng cho AlphaZero.
Có nghĩa là nó có thể tiếp tục cải thiện một cách tùy ý.
Bây giờ, trong lĩnh vực cờ vua, điều đó không quan trọng với chúng ta rằng nó như thể chỉ chạy trốn với trò chơi cờ vua.
Như thể nó tốt hơn con người rất nhiều.
Nhưng câu hỏi là, nếu bạn có thể tạo ra điều đó trong lĩnh vực có ảnh hưởng sâu sắc hơn đến con người và xã hội, điều đó có thể là một quá trình đáng sợ.
Đối với tôi, đó là một quá trình thú vị nếu bạn giám sát nó đúng cách.
Nếu bạn tiêm vào cái gọi là sự phù hợp với giá trị, bạn đảm bảo rằng các mục tiêu mà AI đang tối ưu hóa phù hợp với con người.
Có rất nhiều điều thú vị để nói về trong các chi tiết của mạng nơ-ron và tất cả các vấn đề mà mọi người đang làm việc.
Nhưng tôi sẽ nói rằng điều thực sự lớn và thú vị là học tự giám sát.
Chúng tôi đang cố gắng giảm bớt sự giám sát của con người, giảm bớt sự giám sát của con người đối với các mạng nơ-ron.
Và cũng chỉ để bình luận, và tôi sẽ ngừng lại.
Không, xin hãy tiếp tục.
Tôi đang học.
Tôi có câu hỏi, nhưng tôi đang học.
Vì vậy, xin hãy tiếp tục.
Đối với tôi, điều thú vị không phải là lý thuyết.
Luôn luôn là ứng dụng.
Một trong những ứng dụng thú vị nhất của trí tuệ nhân tạo, đặc biệt là mạng nơ-ron và học máy, là Tesla Autopilot.
Vậy đây là những hệ thống đang hoạt động trong thế giới thực.
Đây không phải là một bài tập học thuật.
Đây là mạng sống của con người đang bị đe dọa.
Mặc dù được gọi là FSD (full self-driving), nó hiện tại không hoàn toàn tự động, có nghĩa là cần có sự giám sát của con người.
Vì vậy, con người được giao nhiệm vụ giám sát các hệ thống.
Thực tế, về mặt trách nhiệm, con người luôn là người chịu trách nhiệm.
Đây là một câu hỏi về tâm lý học yếu tố con người, điều này thật thú vị.
Tôi bị cuốn hút bởi toàn bộ lĩnh vực này, mà là một lĩnh vực khác của tương tác giữa con người và robot.
Khi các hệ thống AI và con người làm việc cùng nhau để hoàn thành nhiệm vụ.
Điệu nhảy đó, đối với tôi, là một trong những cộng đồng nhỏ hơn, nhưng tôi nghĩ nó sẽ là một trong những vấn đề mở quan trọng nhất khi được giải quyết, đó là làm thế nào con người và robot có thể cùng nhảy múa.
Đối với tôi, việc lái xe bán tự động là một trong những lĩnh vực đó.
Vì vậy, đối với Elon, chẳng hạn, ông không thấy điều đó theo cách đó.
Ông xem việc lái xe bán tự động như một bước đệm hướng tới việc lái xe hoàn toàn tự động.
Như thể, con người và robot không thể nhảy cùng nhau tốt.
Như thể, con người cùng con người nhảy, và robot cùng robot nhảy.
Như thể, chúng ta cần phải, đây là một vấn đề kỹ thuật.
Chúng ta cần thiết kế một robot hoàn hảo giải quyết vấn đề này.
Đối với tôi, mãi mãi, có thể trong việc lái xe.
Nhưng thế giới sẽ luôn đầy những vấn đề mà con người và robot phải tương tác.
Bởi vì tôi nghĩ robot sẽ luôn có khuyết điểm, cũng như con người sẽ có khuyết điểm, đang có khuyết điểm.
Và đó là điều làm cho cuộc sống trở nên đẹp đẽ, chính vì những khuyết điểm.
Điều đó là nơi học hỏi xảy ra, ở rìa khả năng của bạn.
Vì vậy, bạn luôn phải tìm cách làm thế nào để robot và con người có khuyết điểm tương tác với nhau sao cho, như thể, tổng thể lớn hơn phần.
Khác với việc chỉ tập trung vào việc xây dựng robot hoàn hảo.
Vì vậy, đó là một trong những ứng dụng thú vị nhất, tôi sẽ nói, của trí tuệ nhân tạo đối với tôi là lái xe tự động và lái xe bán tự động.
Và đó là một ví dụ thực sự tốt về học máy vì các hệ thống đó đang liên tục học.
Và có một quy trình ở đó mà có thể tôi có thể bình luận.
Andre Karpathy, người đứng đầu Autopilot, gọi đó là động cơ dữ liệu.
Và quy trình này áp dụng cho rất nhiều học máy, đó là, bạn xây dựng một hệ thống khá tốt trong việc thực hiện các nhiệm vụ.
Bạn đưa nó ra thế giới thực.
Nó bắt đầu thực hiện những công việc đó.
Và sau đó nó gặp phải những tình huống được gọi là trường hợp biên, như các trường hợp thất bại, nơi nó mắc lỗi.
Bạn biết đấy, chúng ta cũng làm như vậy khi còn nhỏ.
Chúng ta cũng làm như vậy khi trưởng thành.
Chúng ta cũng làm như vậy khi trưởng thành.
Chính xác.
Nhưng chúng ta học rất nhanh.
Nhưng toàn bộ điểm, và đây là điều thú vị về lái xe, là bạn nhận ra có hàng triệu trường hợp biên.
Có rất nhiều tình huống kỳ lạ mà bạn không mong đợi.
Và vì vậy, quy trình động cơ dữ liệu là bạn thu thập những trường hợp biên đó, và sau đó bạn quay lại bảng vẽ và học từ chúng.
Và vì vậy, bạn phải tạo ra một đường ống dữ liệu nơi tất cả những chiếc xe, hàng trăm ngàn chiếc xe đang lái xung quanh, và một điều gì đó kỳ lạ xảy ra.
Và vì vậy, bất cứ khi nào phát hiện ra điều kỳ lạ này, đó là một khái niệm quan trọng khác, mảnh dữ liệu đó quay trở lại mẹ.
Mẹ cho việc đào tạo, cho việc đào tạo lại hệ thống.
Và thông qua quy trình động cơ dữ liệu này, nó tiếp tục cải thiện và trở nên tốt hơn và tốt hơn và tốt hơn và tốt hơn.
Vì vậy, về cơ bản, bạn đưa ra một hệ thống AI khá thông minh ra ngoài thế giới, và để nó tìm ra các trường hợp biên. Để nó gặp phải một chút sai sót để xác định xem những trường hợp biên đó ở đâu, sau đó quay lại học hỏi từ chúng, rồi gửi ra phiên bản mới đó, và tiếp tục cập nhật phiên bản đó. Một trong những điều thú vị về con người là chúng ta tìm ra các hàm mục tiêu cho chính mình. Như là, đó chính là ý nghĩa của cuộc sống. Như là, tại sao chúng ta lại ở đây? Và một cỗ máy hiện tại phải có một câu tuyên bố được mã hóa sẵn về lý do tại sao. Nó phải có một ý nghĩa về cuộc sống dựa trên trí tuệ nhân tạo. Đúng không? Nếu bạn muốn một cỗ máy có thể giỏi về một số thứ, nó phải được cung cấp những câu tuyên bố rất rõ ràng về việc giỏi trong việc gì có nghĩa là gì. Đó là một trong những thách thức của trí tuệ nhân tạo, là để giải quyết vấn đề, bạn phải chính thức hóa nó, và bạn cũng phải cung cấp cả thông tin cảm giác đầy đủ. Bạn phải rất rõ ràng về dữ liệu đang được thu thập, và bạn cũng phải rõ ràng về hàm mục tiêu. Mục tiêu mà bạn đang cố gắng đạt được là gì? Cuối cùng, hiện tại, phải có một hàm mục tiêu chính thức. Bây giờ, bạn có thể lập luận rằng con người cũng có một tập hợp các hàm mục tiêu mà chúng ta đang cố gắng tối ưu hóa. Chúng ta chỉ không thể tự nhìn nhận chúng. Vâng, thực tế là chúng ta không thực sự biết mình đang tìm kiếm gì, đang tìm kiếm và thực hiện điều gì. Như nhiều bạn đã biết, tôi đã sử dụng AG1 hàng ngày trong hơn 13 năm. Tuy nhiên, giờ đây tôi đã tìm thấy một loại đồ uống vitamin – khoáng chất – probiotic còn tốt hơn. Đồ uống mới và tốt hơn đó là AG1 cải tiến, vừa mới ra mắt trong tháng này. Công thức thế hệ tiếp theo của AG1 là một phiên bản tiên tiến hơn, có bằng chứng lâm sàng của sản phẩm mà tôi đã sử dụng hàng ngày trong nhiều năm. Nó bao gồm các chất dinh dưỡng sinh học mới và các probiotics cải tiến. Công thức thế hệ tiếp theo dựa trên nghiên cứu mới thú vị về tác động của probiotics đối với hệ vi sinh vật đường ruột, và nó hiện bao gồm vài chủng probiotics cụ thể đã được nghiên cứu lâm sàng cho thấy hỗ trợ cho sức khỏe tiêu hóa và hệ miễn dịch, cũng như cải thiện tính đều đặn của ruột và giảm đầy hơi. Là một người đã tham gia nghiên cứu khoa học trong hơn ba thập kỷ và trong lĩnh vực sức khỏe và thể hình cũng lâu như vậy, tôi luôn tìm kiếm những công cụ tốt nhất để cải thiện sức khỏe tâm thần, sức khỏe thể chất và hiệu suất của tôi. Tôi đã phát hiện và bắt đầu dùng AG1 từ lâu vào năm 2012, trước khi tôi có bất kỳ podcast nào, và tôi đã dùng nó hàng ngày từ đó. Tôi nhận thấy rằng nó greatly cải thiện tất cả các khía cạnh sức khỏe của tôi. Tôi cảm thấy tốt hơn rất nhiều khi tôi dùng nó, nhưng qua từng năm trôi qua, và nhân tiện, tôi sẽ tròn 50 tuổi vào tháng 9 này, tôi tiếp tục cảm thấy tốt hơn và tốt hơn, và tôi gán nhiều điều đó cho AG1. AG1 sử dụng các nguyên liệu chất lượng cao nhất trong các sự kết hợp đúng đắn, và họ liên tục cải thiện công thức của mình mà không làm tăng chi phí. Vì vậy, tôi rất vinh dự khi có họ là nhà tài trợ của podcast này. Nếu bạn muốn thử AG1, bạn có thể truy cập drinkag1.com / Huberman để tận dụng ưu đãi đặc biệt. Hiện tại, AG1 đang tặng một bộ quà tặng chào mừng AG1 với năm gói du lịch miễn phí và một chai vitamin D3 K2 miễn phí. Một lần nữa, hãy truy cập drinkag1.com / Huberman để nhận bộ quà tặng chào mừng đặc biệt với năm gói du lịch miễn phí và một chai vitamin D3 K2 miễn phí. Tập hôm nay cũng được mang đến cho chúng ta bởi thịt hươu Maui Nui. Thịt hươu Maui Nui là loại thịt đỏ giàu chất dinh dưỡng nhất và ngon nhất có. Nó cũng được nguồn cung ứng theo cách có đạo đức. Maui Nui săn bắn và thu hoạch hươu tiếp cận hoang dã trên đảo Maui. Điều này giải quyết vấn đề quản lý một loài xâm hại trong khi cũng tạo ra một nguồn protein tuyệt vời. Như tôi đã thảo luận trong podcast này trước đây, hầu hết mọi người nên đặt mục tiêu đạt được một gram protein chất lượng trên mỗi pound trọng lượng cơ thể mỗi ngày. Điều này cho phép tổng hợp protein cơ bắp tối ưu trong khi cũng giúp giảm cảm giác thèm ăn và hỗ trợ sức khỏe chuyển hóa đúng cách. Với tỷ lệ protein trên calo đặc biệt của Maui Nui, mục tiêu protein này là có thể đạt được mà không cần ăn quá nhiều calo. Thịt hươu của họ cung cấp 21 gram protein với chỉ 107 calo mỗi khẩu phần, đây là tỷ lệ lý tưởng cho những ai quan tâm đến việc duy trì hoặc gia tăng khối lượng cơ bắp trong khi hỗ trợ sức khỏe chuyển hóa. Họ có thịt hươu bít tết, thịt hươu xay và nước dùng thịt hươu. Cá nhân tôi yêu thích tất cả chúng. Thực tế, tôi có lẽ ăn một chiếc bánh burger từ thịt hươu Maui Nui hầu như mỗi ngày. Và nếu tôi không làm vậy, tôi ăn một trong những bít tết của họ. Và đôi khi tôi cũng uống nước dùng thịt hươu của họ. Và nếu bạn đang bận rộn, họ có thanh thịt hươu Maui Nui, với 10 gram protein mỗi thanh chỉ với 55 calo. Tôi ăn ít nhất một cái trong số đó mỗi ngày để đáp ứng nhu cầu protein của mình. Hiện tại, Maui Nui đang cung cấp cho người nghe podcast Huberman một bộ sưu tập giới hạn các lát cắt và sản phẩm yêu thích của tôi. Nó hoàn hảo cho bất kỳ ai muốn cải thiện chế độ ăn uống của mình với protein ngon và chất lượng cao. Nguồn cung có hạn, vì vậy hãy truy cập MauiNuiVenison.com / Huberman để có cơ hội sở hữu loại thịt chất lượng cao này hôm nay. Một lần nữa, đó là MauiNuiVenison.com / Huberman. Liệu việc tương tác với một con robot có làm bạn thay đổi không? Nói cách khác, chúng ta có phát triển mối quan hệ với robot không? Tôi tin rằng hầu hết mọi người có một khái niệm về sự cô đơn trong họ mà chúng ta chưa khám phá, mà tôi nên nói. Và tôi thấy các hệ thống AI như là giúp chúng ta khám phá điều đó để chúng ta có thể trở thành những con người tốt hơn, những người tốt hơn với nhau. Vì vậy, tôi nghĩ rằng kết nối giữa con người và AI, con người và robot, không chỉ khả thi, mà còn sẽ giúp chúng ta hiểu về bản thân theo những cách sâu sắc hơn nhiều mà chúng ta chưa bao giờ có thể tưởng tượng được. Vì vậy, khi tôi nghĩ về các mối quan hệ giữa con người, tôi không phải lúc nào cũng phân tích chúng thành các biến số, nhưng chúng ta có thể khám phá một vài trong số những biến số đó và xem chúng tương ứng với mối quan hệ giữa con người và robot như thế nào.
Một cái chỉ là thời gian, đúng không?
Nếu bạn không dành chút thời gian nào với một người khác trong không gian mạng, qua điện thoại hay trực tiếp, bạn về cơ bản là không có mối quan hệ nào với họ.
Nếu bạn dành nhiều thời gian, bạn có một mối quan hệ.
Điều này rõ ràng, nhưng tôi đoán một biến số sẽ là thời gian.
Bạn dành bao nhiêu thời gian với thực thể khác, robot hay con người.
Biến số khác sẽ là những chiến thắng và thành công.
Bạn biết đấy, bạn cùng tận hưởng những thành công.
Biến số khác sẽ là những thất bại.
Khi bạn vật lộn với ai đó, bạn biết đấy, khi bạn vật lộn với ai đó, bạn trở nên gần gũi hơn.
Vì vậy, tôi chưa bao giờ hình dung các tương tác giữa robot và con người theo cách này.
Vậy hãy cho tôi biết thêm về cách điều này có thể trông như thế nào.
Chúng ta có đang nghĩ đến một robot có ngoại hình giống con người không?
Mối quan hệ lý tưởng giữa con người và robot là gì?
Có rất nhiều điều để nói ở đây, nhưng bạn thực sự đã chỉ ra một trong những bước quan trọng đầu tiên, đó là ý tưởng về thời gian.
Tôi nghĩ rằng yếu tố thời gian, quên mọi thứ khác đi, chỉ cần chia sẻ những khoảnh khắc cùng nhau, điều đó sẽ thay đổi mọi thứ.
Tôi tin điều đó sẽ thay đổi mọi thứ.
Bây giờ, có những điều cụ thể hơn về các hệ thống mà tôi có thể giải thích cho bạn.
Điều đó kỹ thuật hơn và có lẽ hơi quá về mặt lý thuyết vì tôi có đủ những ý tưởng điên rồ về cách điều đó có thể cách mạng hóa.
các mạng xã hội và hệ điều hành.
Nhưng vấn đề là ở yếu tố đó một mình.
Quên tất cả những điều khác mà chúng ta đang nói đến, như cảm xúc, việc từ chối, tất cả những điều đó.
Chỉ cần nhớ rằng, việc chia sẻ những khoảnh khắc cùng nhau sẽ thay đổi mọi thứ.
Chúng ta hiện tại không có các hệ thống chia sẻ khoảnh khắc cùng nhau.
Ngay cả như lúc bạn ở trong tủ lạnh của mình, chỉ những lúc bạn đi muộn vào ban đêm và ăn thứ mà bạn không nên ăn.
Đó là một khoảnh khắc bí mật mà bạn có với tủ lạnh của mình.
Bạn đã chia sẻ khoảnh khắc đó, bóng tối đó hoặc khoảnh khắc tuyệt đẹp đó nơi mà bạn chỉ, bạn biết đấy, như bị tan vỡ vì một lý do nào đó.
Bạn đang ăn kem hoặc bất cứ thứ gì.
Đó là một khoảnh khắc đặc biệt.
Và cái tủ lạnh đó đã ở bên bạn.
Và thực tế rằng nó đã bỏ lỡ cơ hội để nhớ lại điều đó thật là bi thảm.
Và một khi nó nhớ lại điều đó, tôi nghĩ bạn sẽ rất gắn bó với cái tủ lạnh.
Bạn sẽ trải qua một số “địa ngục” với cái tủ lạnh đó.
Hầu hết chúng ta ở trong một thế giới phát triển có những mối quan hệ kỳ lạ với thực phẩm, đúng không?
Vì vậy, bạn có thể trải qua một số khoảnh khắc sâu sắc về chấn thương và chiến thắng với thực phẩm.
Và cốt lõi của điều đó là cái tủ lạnh.
Vì vậy, tôi tin rằng một cái tủ lạnh thông minh sẽ thay đổi xã hội, không chỉ là cái tủ lạnh, mà còn là những ý tưởng trong các hệ thống xung quanh chúng ta.
Vì vậy, tôi chỉ muốn bình luận về sức mạnh của ý tưởng thời gian đó.
Và rồi còn có một số yếu tố thực tế của tương tác cho phép bạn như một con người cảm thấy như bạn đang được lắng nghe, thực sự được lắng nghe, thực sự được hiểu.
Và tôi nghĩ có rất nhiều ý tưởng về cách để làm cho trợ lý AI có thể đặt ra những câu hỏi đúng và thực sự nghe một con người khác.
Đây là điều mà chúng tôi cố gắng làm với podcasting, đúng không?
Tôi nghĩ có những cách để làm điều đó với AI.
Nhưng trên tất cả những điều khác, chỉ cần nhớ lại việc tập hợp những khoảnh khắc tạo nên ngày, tuần, tháng.
Tôi nghĩ bạn có thể có một phần trong số này nữa.
Một số người bạn thân nhất của tôi vẫn là bạn bè từ thời trung học.
Đó là thời gian.
Chúng tôi đã trải qua rất nhiều thứ cùng nhau.
Và chúng tôi rất khác nhau.
Nhưng chỉ riêng việc chúng tôi đã trải qua điều đó và chúng tôi nhớ lại những khoảnh khắc đó và những khoảnh khắc đó theo một cách nào đó tạo ra sự sâu sắc của kết nối như không gì khác.
Giống như bạn và cái tủ lạnh của bạn.
Có thể có những mối quan hệ tốt hơn nhiều so với những loại mối quan hệ mà chúng ta có thể hình dung trong tâm trí hiện tại của chúng ta, dựa trên những gì mà các tương tác quan hệ giữa máy móc có thể dạy chúng ta.
Tôi có đúng không?
Tôi có đúng không?
Vâng, tôi nghĩ vậy.
Tôi nghĩ không có lý do gì để coi máy móc là một cách nào đó không có khả năng dạy chúng ta điều gì đó rất con người.
Tôi không nghĩ con người có độc quyền về điều đó.
Tôi nghĩ chúng ta hiểu bản thân mình rất kém và chúng ta cần có sự gợi ý từ một cỗ máy.
Có thể điều mà chúng ta muốn tối ưu hóa không nhất thiết phải là những clip ngắn hấp dẫn.
Có thể điều mà chúng ta muốn là sự xác thực trong dài hạn.
Sự sâu sắc.
Sự sâu sắc.
Từ một góc độ kỹ thuật rất cụ thể, tôi nghĩ đây là một vấn đề mở thú vị mà chưa thực sự được nghiên cứu nhiều.
Sớm trong cuộc đời, và cũng trong những năm gần đây, tôi đã tương tác với một vài robot mà tôi nhận ra rằng có điều kỳ diệu ở đó.
Và điều kỳ diệu đó có thể được chia sẻ bởi hàng triệu người nếu nó được đưa ra ánh sáng.
Khi tôi lần đầu gặp Spot từ Boston Dynamics, tôi nhận ra rằng có điều kỳ diệu ở đó mà không ai khác thấy.
Đó là con chó.
Đó là con chó, xin lỗi.
Spot là robot bốn chân từ Boston Dynamics.
Một số người có thể đã thấy nó.
Đó là con chó màu vàng này.
Ma thuật này là thứ có thể có ở mọi thiết bị trên thế giới.
Cách mà tôi nghĩ có thể Steve Jobs đã nghĩ về máy tính cá nhân.
Và vì vậy, đối với tôi, tôi muốn thấy một thế giới mà mỗi gia đình đều có một robot.
Và không phải là một robot rửa bát, mà giống như một người bạn đồng hành.
Một thành viên trong gia đình.
Một thành viên trong gia đình.
Cách mà một con chó là.
Nhưng là một con chó có thể nói ngôn ngữ của bạn.
Vì vậy, không chỉ kết nối theo cách mà một con chó làm bằng cách nhìn bạn và quay đi và gần như như đang cười với tâm hồn của nó theo cách đó.
Mà còn thực sự hiểu điều quái quỷ gì khiến bạn hào hứng về những thành công.
Như hiểu các chi tiết.
Hiểu các chấn thương.
Tôi yêu sự mong muốn chia sẻ niềm vui của một tương tác với một robot.
Và khi bạn mô tả điều đó, tôi thực sự thấy mình bắt đầu khao khát điều đó.
Bởi vì tất cả chúng ta đều có những yếu tố đó từ thời thơ ấu hoặc từ tuổi trưởng thành nơi mà chúng ta trải nghiệm điều gì đó.
Chúng ta muốn người khác cảm thấy điều đó.
Và tôi nghĩ rằng bạn đúng.
Tôi nghĩ nhiều người sợ AI.
Tôi nghĩ nhiều người sợ robot.
Kinh nghiệm duy nhất của tôi về một thứ giống như robot là chiếc máy hút bụi Roomba của tôi, nơi nó đi quanh.
Thực ra, nó khá tốt trong việc lấy tóc của Costello mỗi khi nó rụng. Và rồi, tôi đã cảm ơn vì điều đó. Nhưng rồi, khi tôi đang trong một cuộc gọi hoặc điều gì đó và nó bị mắc vào dây hoặc gì đó, tôi nhận ra mình đang cảm thấy bực bội với Roomba. Trong khoảnh khắc đó, tôi nghĩ, bạn đang làm gì vậy? Bạn biết đấy, và rõ ràng nó chỉ đang làm những gì nó phải làm. Nhưng đó là một kiểu tương tác chủ yếu là tích cực, nhưng cũng hơi tiêu cực. Nhưng những gì bạn mô tả, nó có rất nhiều sự phong phú và các lớp chi tiết mà tôi chỉ có thể hình dung những mối quan hệ đó như thế nào.
À, có một vài, chỉ một ý kiến nhanh. Tôi hiện đang ở Boston. Tôi có một đống Roombas từ iRobot. Và tôi đã thực hiện một thí nghiệm này. Khoan đã, bạn có bao nhiêu Roombas? Nghe như một đội quân Roombas. Vâng, có lẽ khoảng bảy hoặc tám cái. Ồ, đó là quá nhiều Roombas. Vậy bạn sẽ, bạn có bảy cái Roombas đó, bạn triển khai tất cả bảy cái cùng một lúc? Ồ, không, tôi thực hiện các thí nghiệm khác nhau với chúng, các thí nghiệm khác nhau với chúng. Một trong những điều tôi muốn đề cập, tôi đã khiến chúng kêu la trong đau đớn và rên rỉ bất cứ khi nào chúng bị đá hoặc tiếp xúc. Và tôi đã thực hiện thí nghiệm đó để xem tôi sẽ cảm thấy như thế nào. Tôi đã định làm một video trên YouTube về nó, nhưng sau đó có vẻ rất tàn nhẫn. Có ai trong phong trào bảo vệ quyền của Roomba lên tiếng không? Vâng, không sao. Tôi nghĩ nếu tôi phát hành video đó, tôi nghĩ nó sẽ khiến tôi trông điên rồ, điều mà tôi biết mọi người đã biết tôi đã điên rồi.
Giờ thì bạn, giờ bạn phải phát hành video đó, Max. Chắc chắn rồi. Vâng, tôi nghĩ có thể nếu tôi đặt nó vào ngữ cảnh bằng cách cho thấy các robot khác, để chỉ ra lý do tại sao điều này lại thú vị, bởi vì cuối cùng tôi cảm thấy chúng gần như là con người ngay lập tức. Và sự thể hiện cơn đau đó chính là điều đã khiến điều đó xảy ra. Để chúng có tiếng nói. Để chúng có tiếng nói, đặc biệt là một tiếng nói về sự không thích, về cơn đau. Vậy video có sẵn trực tuyến không? Không, tôi chưa. Tôi chưa ghi lại nó. Tôi chỉ khiến một đám Roombas có khả năng kêu la trong đau đớn ở Boston, nơi của tôi. Còn những tiếng hò reo vui mừng thì sao? Vâng, tôi không biết làm thế nào. Đối với tôi, niềm vui là im lặng, đúng không? Nhưng có một cách để định hình nó trở nên ngốc nghếch gần như dễ thương, bạn biết đấy, gần như kết nối với nó vì sự ngốc nghếch của nó. Và tôi nghĩ đó là một vấn đề trí tuệ nhân tạo. Thú vị. Tôi nghĩ rằng những thiếu sót nên là một tính năng, chứ không phải là một lỗi.
Vì vậy, theo chiều hướng này, có nhiều loại mối quan hệ khác nhau mà người ta có thể có với robot và nỗi sợ hãi, nhưng cũng có những mối quan hệ tích cực mà người ta có thể có. Có rất nhiều chiều sâu. Có rất nhiều điều để khám phá. Nhưng động lực quyền lực trong các mối quan hệ thì rất thú vị vì những điều rõ ràng mà cái nhìn không tinh vi về điều này là, bạn biết đấy, một bên là người làm chủ và bên kia là người phục vụ, đúng không? Nhưng cũng có sự thao túng. Có sự thao túng nhân ái. Bạn biết đấy, trẻ em thường làm điều này với cha mẹ. Các chú cún cũng làm vậy. Các chú cún quay đầu và nhìn dễ thương và có thể phát ra một tiếng kêu nhỏ. Trẻ con, kêu. Và cha mẹ luôn nghĩ rằng họ làm điều này vì, bạn biết đấy, họ yêu cha mẹ. Nhưng theo nhiều cách, các nghiên cứu cho thấy những tiếng kêu đó là cách để lấy những loại hành vi và biểu hiện từ cha mẹ mà chúng muốn. Trẻ con không biết chúng đang làm điều này. Nó hoàn toàn vô thức, nhưng đó là sự thao túng nhân ái.
Vì vậy, có một phiên bản nỗi sợ hãi về robot mà tôi nghe rất nhiều mà tôi nghĩ hầu hết mọi người có thể liên hệ đến nơi mà các robot chiếm ưu thế và họ trở thành những người làm chủ và chúng ta trở thành những người phục vụ. Nhưng có thể có một phiên bản khác mà, bạn biết đấy, trong một số cộng đồng mà tôi chắc chắn không phải là một phần của, nhưng họ gọi là “topping from the bottom” (chiếm ưu thế từ dưới) nơi mà robot thực sự đang thao túng bạn để làm những điều. Nhưng bạn lại nằm trong niềm tin rằng bạn đang kiểm soát, nhưng thực tế là chúng đang kiểm soát. Và vì vậy, tôi nghĩ rằng nếu chúng ta có thể khám phá điều đó trong một giây, bạn có thể tưởng tượng rằng nó không nhất thiết phải là xấu, mặc dù nó có thể dẫn đến những điều xấu. Lý do tôi muốn khám phá điều này là tôi nghĩ mọi người luôn mặc định cho những điều cực đoan, như là robot chiếm lĩnh và chúng ta thì ở trong những chiếc nhà tù nhỏ và chúng thì ra ngoài vui chơi và thống trị vũ trụ. Những loại thao túng nào một robot có thể thực hiện, tốt hay xấu? Vâng. Có rất nhiều thao túng tốt và xấu giữa con người, đúng không? Giống như bạn đã nói. Đối với tôi, đặc biệt, như bạn đã nói, topping from the bottom có phải là thuật ngữ không? Tôi nghĩ ai đó từ MIT đã nói với tôi cái thuật ngữ đó. Không phải là Lex. Tôi nghĩ rằng, trước tiên, có động lực quyền lực trên giường và động lực quyền lực trong các mối quan hệ và động lực quyền lực trên đường phố và trong môi trường làm việc nữa. Tất cả đều rất khác nhau. Tôi nghĩ, tôi nghĩ động lực quyền lực có thể làm cho các mối quan hệ giữa con người, đặc biệt là mối quan hệ lãng mạn, trở nên kỳ thú, phong phú, viên mãn, thú vị và tất cả những điều như vậy. Vì vậy, tôi không nghĩ rằng chúng tự bản thân là xấu và điều đó cũng xảy ra với robot. Tôi thực sự yêu thích ý tưởng rằng một robot có thể là người chủ hoặc người phục tùng điều này trong các động lực quyền lực. Và tôi nghĩ mọi người nên nhận thức được điều đó. Và sự thao túng không phải là thao túng nhiều lắm, mà là một điệu nhảy kiểu như kéo đi, một sự kéo và đẩy và tất cả những điều như vậy.
Về mặt kiểm soát, tôi nghĩ chúng ta còn rất xa, rất xa khỏi các hệ thống AI có thể khóa chúng ta lại. Họ, để khóa chúng ta lại trong, bạn biết đấy, để có quyền kiểm soát đến mức mà chúng ta cơ bản không thể sống cuộc sống theo cách mà chúng ta muốn. Tôi nghĩ có nhiều nguy hiểm hơn liên quan đến hệ thống AI liên quan đến các hệ thống vũ khí tự động và tất cả những điều như vậy. Vì vậy, động lực quyền lực được thực hiện trong cuộc đấu tranh giữa các quốc gia và chiến tranh và tất cả những điều như vậy. Nhưng về mặt các mối quan hệ cá nhân, tôi nghĩ rằng động lực quyền lực là một điều đẹp đẽ. Tôi tin rằng robot sẽ có quyền trong tương lai.
Và tôi nghĩ rằng để chúng ta có những mối quan hệ sâu sắc và ý nghĩa với robot, chúng ta cần phải coi chúng như những thực thể độc lập đáng được tôn trọng. Và đó là một khái niệm rất thú vị mà tôi nghĩ rằng mọi người đang bắt đầu nói nhiều hơn. Nhưng thật khó để chúng ta hiểu rằng những thực thể không phải là con người, có nghĩa là giống như với chó và những động vật khác, lại có quyền lợi tương đương với con người.
Tôi muốn tạm dừng một chút và ghi nhận một trong những nhà tài trợ của chúng tôi, Function. Năm ngoái, tôi đã trở thành thành viên của Function sau khi tìm kiếm phương pháp toàn diện nhất cho việc kiểm tra sức khỏe. Function cung cấp hơn 100 xét nghiệm lab tiên tiến, mang đến cho bạn cái nhìn tổng quát về sức khỏe cơ thể của bạn. Cái nhìn tổng quát này cung cấp cho bạn thông tin về sức khỏe tim mạch, sức khỏe hormone, chức năng miễn dịch, mức độ dinh dưỡng và nhiều điều khác nữa.
Họ cũng mới bổ sung các xét nghiệm cho các chất độc như BPA từ nhựa độc hại và các xét nghiệm cho PFAS hay còn gọi là hóa chất vĩnh viễn. Function không chỉ cung cấp xét nghiệm cho hơn 100 chỉ số sinh học quan trọng đối với sức khỏe thể chất và tinh thần của bạn, mà còn phân tích những kết quả này và cung cấp thông tin từ các bác sĩ hàng đầu là chuyên gia trong các lĩnh vực liên quan. Ví dụ, trong một trong những bài kiểm tra đầu tiên của tôi với Function, tôi đã phát hiện ra rằng mức thủy ngân trong máu của tôi cao. Function không chỉ giúp tôi phát hiện ra điều đó mà còn cung cấp thông tin về cách tốt nhất để giảm mức thủy ngân của tôi, bao gồm việc hạn chế tiêu thụ cá ngừ. Tôi đã ăn rất nhiều cá ngừ.
Trong khi cũng cố gắng ăn nhiều rau lá xanh hơn và bổ sung với NAC và acetylcysteine, cả hai đều có thể hỗ trợ sản xuất glutathione và quá trình giải độc. Và tôi phải nói rằng, sau khi thực hiện một xét nghiệm thứ hai với Function, phương pháp đó đã có hiệu quả. Xét nghiệm máu toàn diện là vô cùng quan trọng. Có rất nhiều điều liên quan đến sức khỏe tinh thần và thể chất của bạn chỉ có thể được phát hiện qua xét nghiệm máu. Vấn đề là xét nghiệm máu luôn rất tốn kém và phức tạp. Ngược lại, tôi đã rất ấn tượng với sự đơn giản của Function và chi phí của nó. Nó rất hợp túi tiền.
Do đó, tôi đã quyết định tham gia vào hội đồng tư vấn khoa học của họ, và tôi rất vui rằng họ đang tài trợ cho podcast. Nếu bạn muốn thử Function, bạn có thể vào trang functionhealth.com slash Huberman. Hiện tại, Function đang có danh sách chờ với hơn 250.000 người, nhưng họ đang cung cấp quyền truy cập sớm cho người nghe podcast Huberman. Một lần nữa, đó là functionhealth.com slash Huberman để nhận quyền truy cập sớm vào Function.
Tập hôm nay cũng được mang đến cho chúng ta bởi David. David sản xuất một thanh protein khác biệt hoàn toàn. Nó có 28 gram protein, chỉ 150 calo và không chứa đường. Đúng vậy, 28 gram protein và 75% lượng calo đến từ protein. Điều này cao hơn 50% so với thanh protein gần nhất. Thanh protein của David cũng rất ngon. Ngay cả kết cấu cũng rất tuyệt vời. Thanh tôi thích nhất là hương vị bánh quy chocolate chip, nhưng tôi cũng thích hương vị bơ đậu phộng chocolate mới và hương vị bánh brownie chocolate. Nói chung, tôi thích tất cả các hương vị. Tất cả đều rất ngon.
Thực tế là thách thức lớn nhất là biết nên ăn những cái nào vào những ngày nào và bao nhiêu lần trong ngày. Tôi giới hạn bản thân ở hai cái một ngày, nhưng tôi thực sự yêu thích chúng. Với David, tôi có thể nhận được 28 gram protein trong lượng calo của một bữa ăn nhẹ, điều này giúp tôi dễ dàng đạt được mục tiêu protein là một gram protein cho mỗi pound trọng lượng cơ thể mỗi ngày, và tôi có thể làm điều đó mà không cần nạp quá nhiều calo. Tôi sẽ ăn một thanh protein của David hầu hết các buổi chiều như một bữa ăn nhẹ, và tôi luôn mang theo một thanh khi ra khỏi nhà hoặc đi du lịch. Chúng thực sự rất ngon, và vì chúng có 28 gram protein, nên chúng rất thỏa mãn với chỉ 150 calo.
Nếu bạn muốn thử David, bạn có thể vào trang davidprotein.com slash Huberman. Một lần nữa, đó là davidprotein.com slash Huberman. Chúng ta không thể cũng như không nên làm bất kỳ điều gì mình muốn với động vật. Chúng ta có USDA, chúng ta có các bộ nông nghiệp xử lý các ủy ban chăm sóc và sử dụng động vật cho nghiên cứu, cho nông nghiệp và chăn nuôi và các thứ khác. Vậy khi bạn nói điều đó lần đầu tiên, tôi đã nghĩ, chờ đã, tại sao lại có một dự luật về quyền của robot? Nhưng điều đó hoàn toàn có ý nghĩa trong bối cảnh mọi thứ mà chúng tôi đã thảo luận cho đến nay.
Nếu bạn sẵn lòng, tôi rất muốn nói về chó, vì bạn đã đề cập đến chó vài lần, một con chó robot. Bạn đã có một con chó sinh học. Đúng vậy. Tôi đã có một con Newfoundland tên là Homer trong nhiều năm khi tôi lớn lên. Ở Nga hay ở Mỹ? Ở Hoa Kỳ. Và nó nặng khoảng, nó nặng hơn 200 pound. Đó là một con chó lớn. Đó là một con chó lớn. Mọi người biết đến Newfoundland, nên nó là con chó đen với bộ lông rất dài và một tâm hồn tốt bụng. Tôi nghĩ có lẽ đó là sự thật đối với nhiều con chó lớn, nhưng nó nghĩ rằng nó là một con chó nhỏ, nên nó di chuyển như vậy. Nó có phải là chó của bạn không? Đúng vậy, đúng vậy. Vậy bạn đã có nó từ khi nó còn khá nhỏ? Từ khi nó bắt đầu đến khi kết thúc. Và một trong những điều, có nghĩa là, nó đã có một kiểu, chúng ta đã đề cập đến những con Roomba. Nó có một sự ngây thơ đáng yêu mà thật quá tràn ngập. Đó là một trong những lý do tôi đặt tên cho nó là Homer, vì nó được đặt theo tên Homer Simpson, nếu mọi người thắc mắc về Homer mà tôi đang đề cập. Vì vậy, có sự vụng về mà ngay lập tức dẫn đến một tình yêu sâu sắc giữa chúng tôi. Và một trong những, có nghĩa là, nó luôn, đó là những khoảnh khắc chung. Nó luôn ở đó cho nhiều đêm cùng nhau. Đó là điều mạnh mẽ về một con chó, rằng nó đã ở bên tôi trong suốt những lúc cô đơn, qua tất cả những khoảng thời gian khó khăn, qua những thành công và tất cả những điều đó. Và tôi nhớ, có nghĩa là, đó là một khoảnh khắc rất xúc động đối với tôi. Tôi vẫn nhớ nó cho đến ngày nay. Nó chết cách đây bao lâu? Có lẽ 15 năm trước. Vậy là đã lâu rồi. Đó là lần đầu tiên tôi thực sự trải nghiệm cảm giác về cái chết. Vậy chuyện gì đã xảy ra? Nó bị ung thư. Và vì vậy, nó đang chết dần mòn.
Và rồi vào một thời điểm nhất định, anh ấy không thể đứng dậy nữa.
Có rất nhiều điều tôi có thể nói ở đây, bạn biết đấy, điều mà tôi phải vật lộn.
Có thể anh ấy đã chịu đựng lâu hơn mức cần thiết.
Đó là điều mà tôi thật sự suy nghĩ rất nhiều.
Nhưng tôi nhớ rằng tôi đã phải đưa anh ấy đến bệnh viện và các y tá không thể khiêng anh ấy, đúng không?
Bạn đang nói đến một chú chó nặng 200 pound.
Khi đó tôi thật sự tập trung vào môn cử tạ.
Tôi nhớ rằng họ đã cố gắng tìm đủ mọi cách để, để đưa anh ấy vào trạng thái ngủ,
họ phải đưa anh ấy vào một căn phòng.
Và vì vậy, tôi phải khiêng anh ấy đi khắp nơi.
Và đây là một người bạn sắp chết của tôi mà tôi chỉ cần, trước hết, thật khó khăn để khiêng một người nặng như vậy khi họ không giúp đỡ bạn.
Và, vâng, tôi nhớ rằng đó là lần đầu tiên tôi thấy một người bạn nằm đó và thấy sự sống rời khỏi cơ thể của anh ấy.
Và sự nhận thức rằng chúng ta ở đây chỉ trong một khoảng thời gian ngắn trở nên thật rõ ràng.
Rằng đây là một người bạn đã ở bên tôi vào tuần trước, ngày trước, và giờ anh ấy đã ra đi.
Và điều đó, tôi không biết, đã nói lên sự thật rằng bạn có thể gắn bó sâu sắc với chú chó.
Nó cũng nói lên rằng những khoảnh khắc chia sẻ cùng nhau đã dẫn đến tình bạn sâu sắc đó, sẽ khiến cuộc sống trở nên thật tuyệt vời.
Nhưng nó cũng nói lên rằng cái chết là một điều tàn khốc.
Vì vậy, tôi biết bạn vừa mất Costello gần đây.
Vâng.
Và bạn đã đang trải qua.
Khi bạn nói điều này, tôi chắc chắn đang nén nước mắt.
Tôi, tôi, cảm ơn bạn đã chia sẻ điều đó, rằng, tôi đoán chúng ta sắp cùng khóc vì những chú chó đã chết của mình.
Điều đó đã, điều đó đã chắc chắn phải xảy ra chỉ vì khi này, khi điều này đang diễn ra.
Vâng.
Nó là.
Bạn đã biết Costello không khỏe trong bao lâu rồi?
Chà, để xem, khoảng một năm trước, vào khoảng sáu tháng sau khi đại dịch bắt đầu, anh ấy bắt đầu bị áp-xe và hành vi của anh ấy đã thay đổi.
Rồi tôi đã cho anh ấy uống testosterone vì, điều ấy đã giúp ích cho rất nhiều thứ.
Nó chắc chắn không chữa khỏi mọi thứ, nhưng đã giúp ích cho rất nhiều thứ.
Anh ấy đang phải đối mặt với đau khớp, vấn đề về giấc ngủ.
Và rồi nó trở thành một sự suy giảm rất chậm cho đến mức, bạn biết đấy, hai, ba tuần trước, anh ấy có, bạn biết đấy, một tủ thuốc đầy đủ thuốc.
Ý tôi là, chú chó này, bạn biết đấy, giống như một hiệu thuốc.
Thật kỳ diệu khi tôi nhìn vào đó ngày hôm trước, tôi vẫn chưa dọn dẹp và gỡ bỏ tất cả đồ đạc của anh ấy vì tôi không thể mang mình làm điều đó.
Vậy, bạn nghĩ anh ấy đã chịu đựng không?
Chà, điều xảy ra là khoảng một tuần trước, đúng là chỉ một tuần trước.
Thật kỳ diệu.
Anh ấy đang lên cầu thang.
Tôi thấy anh ấy trượt chân và anh ấy là một chú chó lớn.
Anh ấy không nặng 200 pound, nhưng nặng khoảng 90 pound.
Anh ấy là một chú bulldog.
Điều đó khá lớn.
Và anh ấy rất khỏe mạnh.
Và rồi tôi nhận thấy anh ấy không nhấc được một chân ở phía sau, như thể bị thương.
Chân đó không có cảm giác gì cả.
Anh ấy không bao giờ thích tôi chạm vào đùi sau của mình và tôi có thể làm điều đó.
Nó chỉ ở đó lắc lư.
Và rồi, bác sĩ thú y phát hiện một số sự suy thoái cột sống và tôi được thông báo rằng cái tiếp theo sẽ đi.
Liệu anh ấy có chịu đựng không?
À, chắc chắn.
Hy vọng không.
Nhưng có điều gì đó đã thay đổi trong đôi mắt của anh ấy.
Vâng.
Vâng.
Đó lại là đôi mắt.
Tôi biết bạn và tôi đã dành nhiều giờ dài trên điện thoại và nói về như đôi mắt và cách mà chúng truyền đạt và những gì chúng có nghĩa về trạng thái bên trong và vì lợi ích của robot và sinh học các loại khác.
Bạn có nghĩ rằng, um, có điều gì đó trong anh ấy đã biến mất trong đôi mắt của anh ấy không?
Tôi, tôi nghĩ anh ấy thật sự.
Đây là tôi đang nhân cách hóa.
Tôi nghĩ anh ấy đã nhận ra rằng một trong những niềm vui lớn nhất trong cuộc sống của anh ấy, đó là đi bộ, ngửi và tiểu vào những thứ.
Chú chó này, những điều cơ bản, rất thích tiểu vào những thứ.
Thật tuyệt vời.
Tôi tự hỏi không biết anh ấy để nó ở đâu.
Anh ấy giống như một cái hồ chứa nước tiểu.
Thật không thể tin được.
Tôi nghĩ, ôi, đó là cũng vậy.
Anh ấy chỉ để một giọt lên cây thứ 50 triệu.
Và rồi chúng tôi tới cây thứ 50 triệu chứ một, và anh ấy chỉ có, bạn biết đấy, để lại một vũng nước.
Và đây tôi đang nói về Costello tiểu.
Um, anh ấy đã mất khả năng đứng dậy và làm điều đó.
Anh ấy đã ngã khi làm điều đó.
Và tôi nghĩ, tôi nghĩ anh ấy đã bắt đầu nhận ra, và con đường đi qua thì dễ dàng và yên bình, nhưng, um, bạn biết đấy, tôi sẽ nói điều này.
Tôi không xấu hổ khi nói ra điều đó.
Ý tôi là, tôi thức dậy mỗi sáng từ đó, chỉ, tôi thậm chí không đưa ra quyết định có ý thức để cho phép mình khóc.
Tôi thức dậy trong khi khóc và, um, tôi thật may mắn khi có thể vượt qua cả ngày.
Nhờ sự hỗ trợ tuyệt vời từ bạn bè của tôi và, và bạn và gia đình tôi.
Nhưng, um, tôi nhớ anh ấy, bạn ơi.
Bạn nhớ anh ấy.
Vâng.
Tôi nhớ anh ấy.
Và tôi cảm thấy như, um, anh ấy, bạn biết đấy, Homer Costello, bạn biết, mối quan hệ với chó của mình là rất cụ thể, nhưng, um, vậy thì, bữa tiệc đó đã không còn.
Đó là điều khó khăn.
Bạn biết đấy, um, cái gì, cái gì tôi nghĩ là khác biệt là.
Tôi đã mắc sai lầm, tôi nghĩ, hoặc hy vọng nó là một quyết định tốt, nhưng đôi khi tôi nghĩ tôi đã mắc sai lầm khi tôi đã đưa Costello một chút vào thế giới thông qua podcast, qua việc đăng về anh ấy.
Tôi đã nhân cách hóa về anh ấy công khai.
Hãy thành thật mà nói, tôi không có ý tưởng gì về cuộc sống tâm trí của anh ấy hoặc mối quan hệ của anh ấy với tôi.
Và tôi đang khám phá tất cả điều này lần đầu tiên vì anh ấy là chú chó đầu tiên của tôi, nhưng tôi đã nuôi dạy anh ấy từ khi anh ấy bảy tuần.
Vâng.
Bạn phải giữ vững.
Tôi nhận thấy tập phát sóng mà bạn phát hành vào thứ Hai, bạn đã đề cập đến Costello, như thể bạn đã mang anh ấy trở lại cuộc sống cho tôi trong khoảnh khắc ngắn ngủi đó.
Vâng.
Nhưng anh ấy, anh ấy, đã ra đi.
Chà, đó là, anh ấy sẽ không còn đối với rất nhiều người nữa.
Vâng, đây là điều mà tôi đang vật lộn.
Tôi biết cách chăm sóc bản thân mình khá tốt.
Vâng.
Không hoàn hảo, nhưng khá tốt.
Và tôi có sự hỗ trợ tốt.
Tôi có một chút lo lắng về cách mọi thứ sẽ diễn ra và mọi người sẽ cảm thấy như thế nào.
Tôi, tôi lo lắng về sự nội tâm hóa của họ.
Um, vì vậy đó là điều mà tôi vẫn, tôi vẫn đang làm việc.
Và bạn phải, họ phải chứng kiến bạn vật lộn, điều đó thật thú vị.
Đúng không?
Và tôi chủ yếu đã bảo vệ chúng khỏi điều này, nhưng, um, điều khiến tôi vui nhất là nếu mọi người có thể tiếp thu một số phẩm chất tốt nhất của Costello, và những phẩm chất tốt nhất của anh ấy là sự kiên cường vô cùng. Ý tôi là, anh ấy có một cái cổ 22 inch như một con chó bulldog, tất cả mọi thứ. Anh ấy sinh ra đã như vậy, nhưng điều đẹp đẽ là sức mạnh của anh ấy không bao giờ là điều mà anh ấy khoe khoang. Đó chỉ là sự ngọt ngào và lòng tốt của anh ấy. Vì vậy, nếu mọi người có thể hiểu điều đó, thì, um, thì có một điều gì đó tuyệt vời trong đó.
Tôi nghĩ có một số cách mà anh ấy nên được ghi nhớ trong podcast của bạn. Bạn nên, ừm, tôi có nghĩa là, một trong những điều tôi yêu thích về vai trò của anh ấy trong podcast của bạn là anh ấy đã mang đến rất nhiều năng lượng, rất nhiều niềm vui cho bạn. Chúng ta đã nhắc đến những con robot, đúng không? Tôi nghĩ, ừm, đó là một điều mạnh mẽ để mang lại niềm vui như việc cho phép bản thân trải nghiệm niềm vui đó, mang niềm vui đến cho người khác, chia sẻ điều đó với người khác. Ừ, điều đó thật sự mạnh mẽ.
Và tôi có ý là, không phải để, điều này như kiểu liên quan đến người Nga là, um, nó đã khiến tôi xúc động khi, um, Louis CK có một khoảnh khắc mà tôi cứ suy nghĩ mãi trong chương trình của anh ấy, Louis, nơi mà một ông lão đã chỉ trích Louis vì đã than phiền về việc chia tay với bạn gái. Và ông ấy đang nói về điều đẹp nhất, um, về tình yêu. Ý tôi là bài hát bây giờ rất bắt tai, không làm tôi cảm thấy tồi tệ khi nói điều đó, nhưng điều đó chính là mất mát. Mất mát thực sự cũng khiến bạn nhận ra người đó, con chó đó có ý nghĩa nhiều như thế nào với bạn, và như việc cho phép bản thân cảm nhận mất mát và không chạy trốn khỏi điều đó thực sự rất mạnh mẽ.
Và theo một cách nào đó, điều đó cũng ngọt ngào, giống như tình yêu vậy, mất mát cũng ngọt ngào bởi vì bạn biết rằng bạn đã cảm thấy rất nhiều cho người bạn của mình. Vì vậy, bạn biết đấy, tôi sẽ tiếp tục mang lại niềm vui đó. Tôi nghĩ điều đó sẽ rất tuyệt vời cho podcast. Ừ, tôi hy vọng làm điều tương tự với, với robot hoặc bất cứ điều gì khác là nguồn gốc của niềm vui. Đúng không? Um, và, um, có lẽ, bạn có nghĩ đến việc một ngày nào đó sẽ nuôi một con chó khác không?
Vâng. Thời gian sẽ trả lời, um, bạn đang chạm đến tất cả những điểm quan trọng ở đây. Um, tôi muốn điều đó, chúng tôi đang suy nghĩ về, um, những cách để ghi danh Costello một cách thật sự, không chỉ, bạn biết đấy, tạo ra một cái logo nhỏ hoặc điều gì đó ngớ ngẩn. Và, bạn biết đấy, Costello, giống như David Goggins cũng là một con người, nhưng Goggins cũng đã trở thành một động từ kiểu như: “Bạn sẽ làm goggins điều này” hoặc “Bạn sẽ …” và có một tính từ kiểu như: “đó là cực đoan”. Như, um, tôi nghĩ rằng đối với tôi, Costello đã là tất cả những điều đó. Anh ấy là một, anh ấy là một sinh vật, anh ấy là chính là bản thân mình. Anh ấy vừa là danh từ, vừa là động từ và tính từ.
Vì vậy, và anh ấy có siêu năng lực kỳ diệu mà tôi ước mình có được, đó là khả năng khiến tất cả mọi người làm mọi thứ cho bạn mà không cần phải làm gì cả. Hiệu ứng Costello, như tôi gọi nó. Vì vậy, đó là một ý tưởng. Tôi hy vọng anh ấy sẽ sống mãi. Um, có một câu nói mà tôi nghe được khi tôi là một sinh viên cao học mà, nó đã vang vọng trong tâm trí tôi suốt cuộc trò chuyện này theo một cách rất, tôi nghĩ là phù hợp, đó là, um, Lex, bạn thật sự là một thiểu số duy nhất. Bạn thật sự, um, phi thường trong khả năng tóm tắt nhiều khía cạnh của khoa học, kỹ thuật, truyền thông công cộng về rất nhiều chủ đề, um, nghệ thuật chiến đấu và chiều sâu cảm xúc mà bạn mang đến cho nó và chỉ với sự có chủ đích.
Và tôi nghĩ nếu điều này không rõ ràng với mọi người, nó thực sự nên được tuyên bố, nhưng tôi nghĩ nó rất rõ ràng rằng chỉ riêng thời gian và tư duy mà bạn dành cho mọi thứ là, um, đó là dấu hiệu tôn trọng tuyệt đối. Um, vì vậy tôi rất biết ơn vì tình bạn của bạn và cho cuộc trò chuyện này. Tôi, um, tự hào là một người bạn và tôi chỉ ước bạn thể hiện với tôi cùng một loại tôn trọng như vậy bằng cách mặc một bộ vest và làm cho cha bạn tự hào. Có lẽ lần sau, lần sau nhé. Cảm ơn bạn rất nhiều, bạn tôi. Cảm ơn bạn. Cảm ơn bạn, Andrew.
歡迎來到Huberman Lab Essentials,在這裡我們重訪過去的集數,為您提供最有力且可以立即應用的基於科學的心理健康、身體健康及表現的工具。現在,讓我們開始與Lex Friedman博士的對話。我們再次見面。
我有一個我想許多人都在思考或應該思考的問題:什麼是人工智慧,它與機器學習和機器人技術有什麼不同?
我把人工智慧首先視為一個大的哲學概念。這是我們渴望創造其他智慧系統的表現,或許是比我們更強大的系統。在更狹窄的層面上,我認為它也是一組計算數學工具,用以自動化不同的任務。此外,它也是我們試圖理解自己心智的努力。也就是建立一些展現智慧行為的系統,以便理解我們自身的智慧究竟是什麼。所有這些說法都是正確的。
當然,人工智慧真正的意義在於一個社群,由一群研究人員和工程師組成,它是一組工具和計算技術,可以幫助你解決各種問題。從不同的角度來看,這個領域有著悠久的歷史。一直以來,在這些脈絡中,有一個主題,就是機器學習,它在人工智慧的領域中強調學習的任務。
你如何讓一台起初幾乎什麼都不知道的機器,遵循某種流程,從而學習在特定任務中變得越來越好?在最近15年中,最有效的技術是一套被稱為深度學習的技術,利用神經網絡。這是一個由這些小的基本計算單元(稱為神經元、人工神經元)組成的網絡。這些架構有輸入和輸出。它們在一開始什麼都不知道,然後它們的任務是學習一些有趣的東西。那些有趣的東西通常涉及一個特定的任務。
關於這點有許多可以討論和拆解的方式。其中之一是:需要多少人類監督來教導這個系統?所以監督學習這一廣泛的類別裡,神經網絡在一開始什麼都不知道。然後它會被給予一堆示例,比如在計算機視覺方面,這些示例可能是貓、狗、汽車、交通標誌等等。然後你會獲得影像以及該影像的真實內容。當你獲得大量這樣的圖像示例,而你了解它的真相時,這樣的神經網絡就能通過示例學習。這稱為監督學習。
然而,在這方面有許多引人入勝的問題:我們該如何提供真相?當你給出一張貓的圖片時,你如何告訴計算機這張圖片裡是貓?你直接說整個影像是貓的圖片嗎?你是否像常見的那樣,畫一個邊框框住貓的臉,告訴它這是一隻貓?還是進行語義分割?請注意,這是一張貓的二維圖片。計算機對我們的三維世界一無所知,它只是在查看一組像素。語義分割則是在貓的周圍畫一條清晰的輪廓,告訴它這是貓。這樣提供真相非常困難。同時,計算機視覺中一個基本的未解之謎是,這是否真的是一個好的真相表述?
現在,還有一組截然不同的觀念。這與過去所稱的無監督學習相關,現在通常稱為自我監督學習,它的目標是讓人類的監督減少到最低限度。自我監督學習在語言模型、自然語言處理領域非常成功,現在在計算機視覺任務中也越來越成功。其想法是,讓機器無需任何真實內容的標註,只需瀏覽互聯網上的圖片或文字,並嘗試學習有關語言核心或視覺核心的通用概念。基於此,我們人類最願意稱之為常識。
因此,憑藉這一點,我們基於這巨大知識基礎,建立起更複雜的知識。我們擁有這種常識的知識。自我監督學習的想法是,建立這種有關組成貓和狗等基本視覺概念的常識知識,而完全不需要人類的監督。那裡的夢想是,你只需讓一個自我監督的人工智慧系統在互聯網上逛一陣子,觀看數百萬小時的YouTube視頻,且在沒有任何監督的情況下,當人類能夠出現時,能夠準備好在極少的示例下實際學習。
我們對孩子會有這樣的想法,人類的孩子,父母僅給出一兩個例子就能教授一個概念。自我監督學習的夢想是,機器也能如此,它們觀看數百萬小時的YouTube視頻,然後又去與人類接觸,當人類告訴它們這是貓時,能理解“記住,這是一隻貓”。它們會明白,貓不僅僅是有尖耳朵的東西,或者是一隻橙色的、有毛的東西。它們會看到一些更基本的東西,而這些基本的東西人類未必能夠自我反思和理解。例如,如果我問你什麼使貓和狗有所不同,你可能無法回答。但如果我將一隻貓和一隻狗帶給你,你就能辨別出來。
以下是該文本的繁體中文翻譯:
你的大腦用什麼樣的思維來產生那種差異?
自我監督學習的整個夢想就是它能夠自主學習那套能夠區分事物的常識知識。
然後,有很多令人難以置信的自我監督學習的應用,奇怪地被稱為自我對弈機制。
這是強化學習成功背後的機制,系統想要挑戰 AlphaZero,想要與棋王對弈。
哦,我明白了。
進行遊戲。
進行遊戲。
明白了。
所以自我對弈的想法,這可能不僅僅適用於遊戲的領域,是一個系統與自己對弈。
在各種領域中這都很有吸引力,但一開始它什麼都不知道。
整體的想法是它創造出很多自我的變異,並與這些自我的版本對弈。
然後,通過與那些比你稍強的系統互動的過程中,你開始遵循這個過程,所有人都逐漸變得更好、更好、更好,直到你在西洋棋方面的能力比世界冠軍高出幾個數量級。
這是迷人的,因為這是一個失控的系統。
大衛·西爾弗,AlphaGo 和 AlphaZero 的創始人之一,團隊的領袖之一,對我說的最令人驚恐又興奮的事情之一是,他們還沒有找到 AlphaZero 的上限。
這意味著它可以任意地不斷改善。
現在,在西洋棋的領域,這對我們來說並不重要,因為它只是駕馭了西洋棋的遊戲。
就像它比人類好得多。
但問題是,如果你能在對人類及社會有更大、更深影響的領域創造出這種東西,那將是一個可怕的過程。
對我來說,這是一個令人興奮的過程,前提是你要正確地監督它。
如果你注入所謂的價值對齊,確保人工智慧所優化的目標與人類一致。
關於神經網絡的具體問題以及人們正在研究的所有問題有很多精彩的話題。
但我認為真正重要且令人興奮的還是自我監督學習。
我們希望在神經網絡的運作中少及少地依賴人類的監督。
另外,我只是想進一步評論一下,我要閉嘴了。
不,請繼續。
我正在學習。
我有問題,但我正在學習。
所以,請繼續。
對我來說,令人興奮的並不是理論,而是應用。
人工智慧,尤其是神經網絡和機器學習,最令人興奮的應用之一是特斯拉自動駕駛。
所以,這些系統在現實世界中運行。
這不是一個學術性練習。
這關乎人類的生命。
即使它被稱為 FSD,完全自駕,但目前仍然不是完全自動化的,意味著仍然需要人類的監督。
因此,人類的任務是監督這些系統。
事實上,從法律責任的角度看,人類始終負責。
這是一個人類因素心理學的問題,這很迷人。
我對整個領域充滿好奇,這是一個全新的領域,即人類與機器人的互動。
當人工智慧系統和人類共同努力完成任務時。
對我來說,這種互動是一個較小的社區,但我認為一旦解決,將成為最重要的開放問題之一,即人類與機器人如何協同行動。
對我來說,半自動駕駛就是這樣的空間之一。
舉例來說,對於 Elon,他並不是這麼看待的。
他把半自動駕駛視為通往完全自動駕駛的墊腳石。
就像人類和機器人無法很好地配合舞蹈一樣。
就像人類和人類跳舞,機器人和機器人跳舞。
我們需要解決這是一個工程問題。
我們需要設計一個完美的機器人來解決這個問題。
對我來說,也許在駕駛方面情況並非如此,但未來世界將會充斥著問題,總是需要人類和機器人互動。
因為我認為機器人總是會有缺陷,就像人類一樣,也有缺陷,而這正是生活的美麗所在,因為它們不完美。
在你能力的邊界上就是學習發生的地方。
所以,你總是需要弄清楚,怎麼讓不完美的機器人和不完美的人類一起互動,使得他們的總和超出個體。
而不是僅僅專注於建造一個完美的機器人。
所以,我會說,對我來說人工智慧最令人興奮的應用之一就是自動駕駛和半自動駕駛。
而這是一個非常好的機器學習範例,因為這些系統正在不斷學習。
在這裡有一個過程,也許我可以評論一下。
安德烈·卡爾帕西,Autopilot 的負責人,將其稱為數據引擎。
這一過程適用於許多機器學習,即你建立一個能夠很好地完成任務的系統。
你把它派往現實世界。
它開始做這些事情。
然後它遇到了所謂的邊緣案例,比如失敗案例,當它出錯。
你知道,我們作為孩子,就這樣做。
我們作為成年人,也是如此。
完全正確。
但我們學得很快。
但重點是,這正是駕駛的迷人之處,你會發現有數以百萬計的邊緣案例。
有一些奇怪的情況讓你始料未及。
所以,數據引擎的過程是收集這些邊緣案例,然後回到設計板上從中學習。
因此,你必須製造一個數據管道,讓所有這些車輛,數十萬輛在行駛的汽車,當出現異常情況時,無論何時此異常檢測器啟動,這條數據就會回到母體。
母船用於系統的訓練和再訓練。
而通過這個數據引擎的過程,它不斷改進,變得越來越好、越來越好、越來越好。
基本上,您將一個相當聰明的人工智慧系統發送到世界中,讓它找到邊緣案例。讓它出錯得剛好夠,以找出哪些是邊緣案例,然後回去從中學習,接著發送新的版本,並持續更新這個版本。人類的一個迷人之處在於,我們為自己找到了客觀函數。就像是,我們正在尋找生命的意義。我們到底為什麼會在這裡?而目前的機器必須對這個問題有明確的編碼聲明。它必須擁有一種基於人工智慧的生命意義。對。如果你想讓一個機器能夠擅長某些事情,必須非常明確地陳述什麼是擅長的事。這是人工智慧的一個挑戰,要解決一個問題,你必須將其形式化,並提供完整的感官信息。你必須非常清楚正在收集什麼數據,並且必須清楚客觀函數。你試圖達成的目標是什麼?最終,目前必須有一個正式的客觀函數。現在,你可以爭辯說,人類也有一套我們努力優化的客觀函數。我們只是不擅長反思它們。是的,我們其實不知道我們在尋求什麼和在做什麼。
正如你們許多人所知,我已經每天服用AG1超過13年。然而,我現在找到了一種更好的維他命礦物質益生菌飲料。這種新的改良飲料是這個月剛推出的全新AG1。這種AG1的下一代配方是我多年來每天服用的產品的更先進、臨床支持版本。它包含了新的生物可用營養素和增強的益生菌。這種下一代配方基於對益生菌對腸道微生物群影響的令人興奮的新研究,現在包括了幾種特定的臨床研究益生菌菌株,這些菌株已被證明有助於消化健康和免疫系統健康,同時改善腸道規律性並減少脹氣。
作為一名從事研究科學超過三十年、從事健康和健身也同樣久的人,我不斷尋找改善心理健康、身體健康和表現的最佳工具。我早在2012年就發現並開始服用AG1,遠在我擁有播客之前,並且從那時起我每天都在服用。我發現它大大改善了我健康的各個方面。我在服用它時感覺好多了,但隨著每一年過去,順便提一下,我這個九月就要滿50歲,我越來越感覺良好,並且我將這一切歸功於AG1。
AG1使用最高品質的成分以正確的組合,他們不斷改進他們的配方,而不提高價格。因此,我很榮幸能夠讓他們作為這個播客的贊助商。如果你想嘗試AG1,你可以訪問drinkag1.com / Huberman 以獲取特別優惠。現在,AG1正在贈送一個AG1迎賓包,內含五個免費的旅行包和一瓶免費的維他命D3 K2。再次,請訪問drinkag1.com / Huberman以獲取包含五個免費旅行包和一瓶免費的維他命D3 K2的特殊迎賓套件。
今天的節目還由毛伊島的野鹿肉贊助。毛伊島野鹿肉是最營養豐富和美味的紅肉。它也是道德來源的。毛伊島在毛伊島上獵捕和收穫野生的鹿。這解決了管理入侵物種的問題,同時也創造了非凡的蛋白質來源。正如我在播客中之前討論過的,大多數人應該每天攝取每磅體重一克的優質蛋白質。這樣可以促進最佳的肌肉蛋白質合成,同時幫助減少食慾並支持適當的代謝健康。鑒於毛伊島的卓越蛋白質與熱量比,這個蛋白質目標是可以在不攝取太多熱量的情況下實現的。他們的野鹿肉每份提供21克蛋白質,只有107卡路里,這對於我們這些關注維持或增加肌肉質量的同時支持代謝健康的人來說,這是一個理想的比率。他們有野鹿肉牛排、絞肉和野鹿肉骨湯。我個人喜歡這些所有產品。事實上,我幾乎每天都會吃毛伊島的野鹿肉漢堡。如果不吃這個,我就會吃他們的牛排。有時我也會喝他們的骨湯。如果你在外出,他們還有毛伊島野鹿肉棒,每根含有10克蛋白質和僅55卡路里。我每天至少吃一根以滿足我的蛋白質需求。現在,毛伊島針對Huberman播客的聽眾提供了一個限量版集合,包含我最喜愛的切割和產品。這對於任何想要用美味、高品質蛋白質改善飲食的人來說都是完美的。供應有限,請訪問MauiNuiVenison.com / Huberman以獲得這種高品質的肉類。
再次重申,請訪問MauiNuiVenison.com / Huberman。
和機器人互動會改變你嗎?換句話說,我們會與機器人建立關係嗎?我相信大多數人心中都有一種孤獨的觀念,但我們還沒有發掘出來,應該說我們還沒有深入探索。 我看待人工智慧系統是幫助我們探索這一點,這樣我們就可以成為更好的人,更好地對待彼此。因此,我認為人類與人工智慧、人類與機器人之間的聯繫不僅是可能的,還將幫助我們以幾個數量級更深刻的方式理解自己。當我思考人類關係時,我不總是將它們細分為變數,但我們可以探討一些變數,看看它們如何映射到人類與機器人之間的關係。
一個就是時間,對吧?
如果你和另一個人在網路上、電話上或是親自完全沒有花過任何時間,你基本上就和他們沒有關係。
如果你花了很多時間,那你就有了一段關係。
這是顯而易見的,但我想一個變數就是時間。
你和另一個實體,無論是機器人還是人類,花了多少時間。
另一個就是勝利和成功。
你知道,你們一起享受成功。
還有失敗。
當你和某人一起奮鬥時,你知道,當你和某人一起奮鬥,你們會變得更加親近。
所以我從來沒有這樣概念化機器人與人類的互動。
那麼告訴我更多這可能會是什麼樣子。
我們在想一個看起來像人類的機器人嗎?
理想的人類與機器人之間的關係是什麼?
在這裡有很多可以說的,但你其實指出了一個重要的第一步,就是這個時間的概念。
我認為這個時間元素,忘掉其他所有事,單純分享一起的瞬間,那會改變一切。
我相信那會改變一切。
現在,有一些具體的事情可以用系統來解釋給你聽。
這更技術化,可能有點偏離主題,因為我有一些狂野的想法,如何可以徹底改變社交網絡和操作系統。
但是關鍵就是那個元素。
忘掉我們討論的所有其他事情,如情感、拒絕等等。
只要記得,分享共同的時刻將改變一切。
我們目前沒有能夠分享瞬間的系統。
就像你自己在冰箱前,所有那些深夜你去吃不應該吃的東西。
那是你和冰箱之間的一個秘密瞬間。
你共享了那一刻,那個黑暗或是你因某種原因心碎的美好瞬間。
你正在吃冰淇淋或其他的東西。
那是一個特別的瞬間。
而那個冰箱在你身邊。
而它錯過了記住那個機會,真是悲劇。
一旦它記住了那一刻,我認為你會對它非常依戀。
你將會和這台冰箱經歷一些磨難。
我們中的大多數人,在發達國家裡,對食物有著奇怪的關係,對吧?
因此你可以和食物經歷一些深刻的創傷和勝利的時刻。
在這一切的核心是冰箱。
所以,我相信智能冰箱會改變社會,不僅僅是冰箱,而是我們周圍系統中的這些理念。
所以我只是想評論一下這個時間的概念有多麼強大。
然後還有一堆實際互動的元素,讓你作為一個人能夠感覺被聽到,真正被聽到,真正被理解。
我認為有很多想法關於如何讓人工智能助手能夠問對問題,並真正理解另一個人。
這正是我們在播客中所嘗試做的,對吧?
我認為有方法可以用人工智能去做到這一點。
但最重要的是,記住組成你一天、一週、幾個月的那些瞬間的集合。
我想你可能也有一些這樣的經歷。
我最親密的一些朋友仍然是高中時代的朋友。
那就是時間。
我們一起經歷了很多事情。
雖然我們是非常不同的人。
但僅僅是我們經歷過那些事,記住那些瞬間,這些瞬間以某種方式創造了不同尋常的深度連結。
就像你和你的冰箱一樣。
可能有些關係遠比我們現在能想像的關係要好,基於這些機器關係互動可以教給我們的東西。
我說得對嗎?
我說得對嗎?
是的,我認為是的。
我認為沒有理由認為機器在某種程度上無法教我們一些深入人性的東西。
我不認為人類擁有這方面的壟斷。
我認為我們對自己理解得很糟糕,我們需要有機器的引導。
也許我們想優化的東西不一定是性感的、快速的短片。
也許我們想要的是長形式的真實性。
深度。
深度。
從一個非常具體的工程學角度來看,我認為這是一個迷人的開放性問題,還沒有得到充分的研究。
在我生命的早期,以及最近的幾年中,我和幾個機器人互動過,我明白那裡有魔力。
而那種魔力如果被帶到光明下,就能與數百萬人共享。
當我第一次見到波士頓動力的Spot時,我意識到那裡有魔力,是其他人沒有看到的。
它是一隻狗。
抱歉,Spot是一個來自波士頓動力的四隻腳機器人。
有些人可能見過它。
這是一隻黃色的狗。
這種魔力是每一個世界上的設備都可以擁有的。
我認為這就像史蒂夫·喬布斯對個人電腦的思考一樣。
因此,對我來說,我希望能看到一個每個家庭都有一隻機器人的世界。
而不是一隻洗碗的機器人,而是更像一個伴侶。
一個家庭成員。
一個家庭成員。
就像一隻狗。
但這隻狗也能說你的語言。
所以不僅僅是像一隻狗那樣通過看著你、轉過頭,幾乎像用靈魂微笑的方式來連接。
而是也能真正理解,為什麼你對成功如此興奮?
了解細節。
理解創傷。
我喜愛這種想要分享與機器人互動的愉悅。
正如你所描述的,我實際上開始渴望這樣。
因為我們都有那些童年或成年時期的元素,讓我們體驗某些事情。
我們希望其他人感受到那種感覺。
而我認為你是對的。
我認為很多人對人工智能感到害怕。
我認為很多人對機器人感到害怕。
我唯一的機器人經歷就像我的Roomba吸塵器一樣,它會在各處走動。
實際上,當Costello掉毛時,Roomba在清理他的毛髮方面相當有效。而且,我對此感到感激。不過,當我正在通話或做其他事情時,如果Roomba的某個部位被電線卡住,我會對它感到不悅。在那一刻,我心裡會想,你在做什麼?你知道,它無非是在執行它的功能。但這種互動基本上是積極的,卻又略顯負面。不過,你所描述的關係則更加豐富,包含了更多的層次細節,我只能想像那些關係是什麼樣的。嗯,有幾點,我簡單補充一下。我目前在波士頓,擁有一堆來自iRobot的Roomba。我做過一個實驗。等一下,你有多少台Roomba?聽起來像是一支Roomba艦隊。對,我有大約七或八台。哇,那可真多的Roomba。所以,你有這七台Roomba,會同時部署這七台嗎?哦,不,我會和它們進行不同的實驗,做不同的實驗。所以我想提到的一件事是,我讓它們每當被踢或接觸時都會尖叫和呻吟。我做這個實驗是想看看我會有什麼感覺。我原本打算做個YouTube視頻,但後來覺得這樣似乎很殘酷。有人提著Roomba權利的活動者出現嗎?是的,這沒問題。我想如果我發佈那個視頻,會讓我看起來很瘋狂,而我知道人們已經知道我有些瘋狂了。現在,你必須發佈那段視頻,Max。當然。我想如果我將其背景化,展示其他機器人,說明為什麼這個很迷人,因為最終我覺得它們幾乎是人類。它們對痛苦的展示讓我產生了這種感覺。給它們一個聲音。給它們一個聲音,尤其是對於不喜歡、痛苦的聲音。所以這段視頻在線上可用嗎?不,我還沒有。我沒有錄下來。我的波士頓的地方有一堆能夠在痛苦中尖叫的Roomba。那麼,有沒有像高興和愉悅的尖叫?嗯,我不太知道,對我來說,愉悅是安靜的,對嗎?但是有種方式可以將這種愚蠢的行為框架化,幾乎是可愛的,你知道,幾乎因為它的愚蠢而與之建立聯繫。我覺得這是一個人工智能的問題。有趣。我認為缺陷應該成為特徵,而不是錯誤。這方面有很多不同的關係,人們與機器人可能有的不同種類的恐懼,以及可以建立的某些積極關係。這裡面有許多的維度。有太多的東西值得探索。但在關係中的權力動態非常有趣,因為普通人對它們的看法是,無論如何,總有一個主與僕、主奴關係的概念,但還有操控。在某些社群中,我絕對不是其中的一部分,他們將這稱為“從底部主導”,即機器人實際上在操縱你做某些事情。雖然你認為你是主導,但實際上是它在主導。所以我認為如果我們探討這一點,你可以想像這並不一定是壞事,儘管它可能會導致壞事。我想探討這一點的原因是,我認為人們總是默認到極端——機器人接管,而我們則被關在小牢房裡,它們在外面玩耍並統治宇宙。機器人可能會進行什麼樣的操控,無論是好是壞?是的。在人類之間,確實有很多好的和壞的操控,正如你所說的。對我來說,尤其是,像你說的“從底部主導”是那個術語?所以我想MIT的某位人士告訴過我這個術語,並不是Lex。首先,床上的權力動態、關係中的權力動態、街道上的權力動態和工作環境中的權力動態都非常不同。我認為權力動態使人際關係,特別是浪漫關係,變得迷人、豐富、充實和令人興奮等等。因此,我認為本身並不是壞事,同樣的情況也適用於機器人。我真的很喜歡機器人成為在權力動態中上下之分的想法。我認為每個人都應該意識到這一點。而操控並不完全是操控,而是一種拉扯的舞蹈,推與拉等等。在控制方面,我認為我們距離AI系統能夠把我們鎖起來尚且相當遙遠。能夠完全控制我們的系統,使我們無法以想要的方式生活。就AI系統的危險而言,有許多與自主武器系統和所有這類事物有關的危險。因此,在國家之間的鬥爭、戰爭等方面運用的權力動態。但在個人關係中,我認為權力動態是一件美好的事。我確信未來機器人將會擁有權利。
我認為,要讓我們與機器人建立深入且有意義的關係,我們必須將它們視為值得尊重的獨立實體。這是一個非常有趣的概念,我想人們開始對此進行更多的討論,但要理解其他非人類實體——就像狗和其他動物一樣——在某種程度上可以擁有與人類相同的權利是非常困難的。
我想稍作休息,感謝我們的一個贊助商,Function。去年,我成為Function的會員,因為我在尋找最全面的實驗室檢測方法。Function提供超過100項先進的實驗室測試,能讓你對自己的整體身體健康獲得關鍵的快照。這個快照讓你了解心臟健康、荷爾蒙健康、免疫功能、營養水平等等。他們最近還新增了檢測有毒物質的項目,例如有害塑膠中的BPA暴露,以及永恆化學物質(PFAS)的檢測。Function不僅提供超過100種對你的身心健康至關重要的生物標記檢測,還會分析這些結果,並提供來自相關領域專家的見解。例如,在我第一次使用Function進行測試時,我發現自己血液中的汞含量偏高。Function不僅幫助我檢測到這一點,還提供了如何降低汞水平的建議,這包括限制食用金槍魚,我之前吃了很多金槍魚。並且還努力多吃綠葉蔬菜,以及補充NAC和乙酸半胱氨酸,這兩者都有助於輔助谷胱甘肽的生成和排毒。我還要說,在參加第二次Function的測試後,這種方法行之有效。全面的血液檢測至關重要。有許多與你的心理和生理健康相關的問題只能通過血液檢測來檢測,但問題是血液檢測一直都非常昂貴且複雜。相比之下,我對Function的簡單性和成本非常讚賞,它非常實惠。因此,我決定加入他們的科學顧問委員會,並且我很高興他們贊助這個播客。如果你想嘗試Function,可以訪問functionhealth.com/Huberman。Function目前有超過250,000人的候補名單,但他們為Huberman播客的聽眾提供早期訪問。再次重申,那是functionhealth.com/Huberman,來獲得Function的早期訪問。
今天的節目同樣由David贊助。David製作的蛋白棒與其他的完全不同。它含有28克蛋白質,僅150卡路里,且零克糖。沒錯,28克蛋白質,佔其卡路里的75%。這比第二接近的蛋白棒高50%。David的蛋白棒味道也很棒,連質地都很美妙。我最喜歡的口味是巧克力餅乾麵糰,不過我也喜歡新的巧克力花生醬口味和巧克力布朗尼口味。基本上,所有口味我都非常喜歡,真的都非常美味。事實上,最困難的挑戰是知道哪一天該吃哪一種,還有每天該吃幾次。我把自己限制在每天兩根,但我絕對愛它們。透過David,我能在小吃的熱量中攝取28克蛋白質,這使我能輕鬆達到每天每磅體重攝取1克蛋白質的目標,而且無需攝取過多的卡路里。我大多數下午會吃一根David的蛋白棒作為小吃,當我外出或旅行時,我總是會帶一根。它們令人難以置信地美味,考慮到它們有28克蛋白質,150卡路里就能讓人感到非常滿足。如果你想嘗試David,可以訪問davidprotein.com/Huberman。再次強調,請到davidprotein.com/Huberman。
我們不能也不應該隨心所欲地對待動物。我們有美國農業部,有負責動物關懷和使用委員會的農業部門,專門針對研究、農業和畜牧業等所有方面。所以當你第一次提到的時候,我想,等等,為什麼會有機器人權利法案?但在我們迄今所談論的一切中,這完全是合理的。如果你願意,我想跟你談談狗,因為你提到了狗幾次,還有機器狗。你有一隻生物狗嗎?是的,我有一隻名叫Homer的紐芬蘭犬,從小跟了我很多年。
在俄羅斯還是在美國?在美國。他大約有200多磅。那是一隻大狗。人們都知道紐芬蘭犬,所以他是一隻黑色的大狗,毛長,心地善良。我想,這對於許多大型犬來說是對的,但他總以為自己是隻小狗,所以動作很靈活。請問他是你的狗嗎?是的,是的。那你從小就有他?從一開始到最後。他有這種……就如我們提到的Roomba,他身上有一種善良的笨拙感,這令人難以抗拒。這是我給他取名Homer的原因之一,因為這是取自Homer Simpson,假如大家想知道我指的是哪個Homer。因此他的笨拙感讓我們彼此間產生了深厚的愛。
總的來說,他總是在那裡,共度了許多個夜晚。這是狗讓人感動的地方,他陪伴我度過了所有孤獨、艱難的時刻,以及所有的成功和這些事情。我記得,這對我來說是一個很感人的瞬間。我到現在仍然想念他。他是何時去世的?大約15年前。所以已經有一段時間了。這是我第一次真正體會到死亡的感覺。事情是這樣的,他得了癌症,因此他慢慢去世了。
然後在某一個時刻,他再也無法站起來了。
這裡有很多我可以說的,知道嗎,我在掙扎著。
也許他受苦的時間比他實際需要的要長得多。
這是我經常思考的事情。
但我記得我必須把他帶到醫院,護士們根本無法搬動他,對吧?
所以你想想一隻重達200磅的狗。
當時我對舉重特別有興趣。
我記得他們試圖想出各種辦法,為了讓他安樂死,他們必須把他帶進一個房間。
所以我不得不一直攙扶著他。
這是一位奄奄一息的朋友,我首先要說的是,當他不幫助你的時候,攙扶這麼重的東西真是非常困難。
是的,我記得那是第一次看到一位朋友躺在那裡,看到生命在他身上流逝。
那個認識讓我深切感受到,我們在這裡的時間是如此短暫。
這位朋友在一週前、昨天下午都還在這裡,而現在他卻不在了。
我不知道,那讓我意識到你可以和狗之間有如此深厚的聯繫。
也讓我意識到那些共同度過的時光,導致那段深厚的友誼,是多麼令人驚奇的生活。
但同時也提醒我,死亡就是如此殘酷。
所以我知道你最近失去了Costello。
是的。
你一直在面對這件事。
當你這樣說的時候,我真的在努力忍住眼淚。
我,謝謝你分享這些,我想我們都快要為我們已故的狗哭了。
這是注定發生的事情,考慮到這一切發生的時間。
是的,這就是真相。
你知道Costello的情況有多久了?
嗯,讓我想想,一年前,疫情開始大約六個月的時候,他開始出現膿腫,他的行為也變了,真有些不一樣。
然後我給他使用了睪酮,這確實幫助了很多事情。
它並沒有治癒一切,但幫助了很多問題。
他一直在忍受關節疼痛和睡眠問題。
之後情況就變成了非常緩慢的惡化,直到前兩三週,他的藥物庫裡滿是藥物。
這隻狗簡直就像是一家藥房。
前幾天我看到它的時候,我仍然沒能清理掉他所有的東西,因為我就是無法讓自己這麼做。
但,你覺得他在受苦嗎?
嗯,發生的事情是,大約一週前,真的就是一週前。
真是不可思議。
他正上樓梯,我看到他滑倒了。
他是條大狗。
雖然他不是200磅,但他大約有90磅。
他是一隻鬥牛犬,真的不算小。
他一直很健康。
然後我注意到他的後腿有一隻腳似乎受傷了,沒有任何感覺。
他從來不喜歡我碰他的後腳,我能感覺到那隻腳就像是無法支撐。
然後,獸醫發現了一些脊椎退化,我被告知下次出問題的會是那隻。
他受苦嗎?
呃,或許吧。
希望不是。
但他的眼神裡確實變了。
是的。
又是那雙眼睛。
我知道你和我經常花很長時間在電話上談論眼睛,它們所傳達的意義以及它們內在狀態的表達,還有機器人和其它生物科學的問題。
你覺得他眼中的某些東西已經消失了嗎?
我,我認為他變得真實。
在這裡我是在擬人化。
我認為他明白,他人生中最偉大的快樂之一,就是能走路、嗅聞和在東西上撒尿。
這隻狗,簡單的基本行為,熱愛在東西上撒尿。
這真是太驚人了。
我總是在想他到底放了多少尿。
他就像是一個尿液的蓄水池。
真是不可思議。
我想,哦,就是這樣。
他在那五千萬的植物上放了一滴尿。
然後等到了那五千萬加一的植物,他就只要留下了一灘水。
然後這裡就是我在講Costello撒尿的事情。
嗯,他正在失去這個能力去站起來做這件事。
他在這樣做的時候已經開始跌倒了。
我認為他開始意識到,而那一過程是輕鬆而安詳的,但,嗯,你知道,我想這樣說吧。
我並不羞於說這些。
自從那之後,我每早醒來,根本不用有意識地決定要讓自己哭,我醒來時就淚流滿面。
我幸運地能度過這一天,這多虧了我的朋友們、你和我的家人的支持。
但,嗯,我真的很想念他,伙計。
你想念他。
是的。
我想念他。
我覺得,嗯,Costello是我們的命名者,而對於狗的關係是如此特別,但,嗯,那一部分就不在了。
這是最艱難的事情。
你知道,我認為不同的地方在於。
我犯了一個錯誤,我想,或者我希望這是一個好決定,但有時我認為我真的犯了一個錯誤,就是我通過播客或發布關於他的照片,把Costello帶到這個世界。
我在公開場合裡擬人化了他。
說實話,我根本不知道他的心理狀態或他與我的關係。
我只是在第一次探索這所有的事情,因為他是我的第一隻狗,而我從他七週大的時候就開始養他。
是的。
你得堅持下去。
我注意到你在週一發佈的那一集裡提到了Costello,就這樣,他在那短暫的時刻又活過來了。
是的。
但是他,他,對許多人來說,將會不在了。
嗯,這就是我掙扎的地方。
我知道如何很好地照顧自己。
是的。
雖然不是完美,但我自己還算過得去。
我有不錯的支持。
我確實有點擔心這將如何影響他人,以及他們會有什麼樣的感受。
我在擔心他們的內心感受。
所以這些是我仍在思考的問題。
而他們必須看著你在掙扎,這真的很有趣。
對吧。
我大部分時間都在保護牠們免受這些影響,但,嗯,讓我最開心的事是,如果人們能夠內化一些科斯特洛最出色的特質,而他的最佳特質就是他極其堅韌。我是說,他是一頭頸圍22寸的鬥牛犬,整體都這樣,他就是這樣出生的。但最美妙的是,他的堅韌從來不是他所展現出來的,而是他所散發的甜美和善良。 所以如果人們能夠接受這一點,那麼,嗯,這裡面就有獲勝的元素。因此,我認為他應該在你的播客中繼續存在一些方式。你應該,嗯,我是說我非常喜歡他在你播客中的角色,因為他為你帶來了如此多的能量和快樂。我們提到過機器人,對吧?我認為,嗯,這是一個強大的事情,讓快樂進入你的生活,讓自己去體驗那種快樂,把那種快樂帶給他人,與他人分享。這真的很有力量。我的意思是,這就像俄羅斯的事情,嗯,當路易斯·CK有那個瞬間,我一直在思考,嗯,他的綜藝節目《路易斯》中,有一位老人在批評路易斯因為與女友分手而抱怨。他說出來的最美麗的事情,嗯,關於愛。那意味著現在抓耳的歌曲,這並不讓我覺得糟糕,但像是,失去。失去真的讓你意識到那個人,那隻狗對你有多麼重要,並且讓自己去感受那種失去,而不是逃避那種失去,這真的很有力量。在某些方面,這也同樣甜美,就像愛一樣,失去也是甜美的,因為你知道你對那位朋友的感情是如此深厚。因此,我,你知道的,我會繼續帶來那種快樂。我認為這將對播客是驚人的。我希望能和機器人或其他任何快樂來源一起做到同樣的事。對吧?嗯,並且,嗯,你有沒有想過有一天再養一隻狗?是的。在適當的時候,嗯,你觸及了這裡所有關鍵的點。嗯,我想讓我們思考,嗯,如何以一種真實的方式來永恆化科斯特洛,而不僅僅是,嗯,創造一個小標誌或一些愚蠢的東西。你知道,科斯特洛就像大衛·戈根斯一樣,是一個人,但戈根斯也成長為一種動詞。你會去“戈根斯”還是,你會,有一個形容詞像是極端的。嗯,我認為對我來說,科斯特洛就是所有這些東西。他是一個,他是他自己的存在。他是一個名詞,一個動詞和一個形容詞。所以,他擁有這個驚人的超能力,我希望我能夠得到,就是讓所有其他人為你做事情而不需要自己做任何事情。這就是我所稱的“科斯特洛效應”。所以這是一個理念。希望他能夠延續下去。嗯,我在研究生時期聽到一句話,一直在我心中回響,這在這次對話中以一種我認為合適的方式出現,那就是,嗯,萊克斯,你是一個少數派。你在能力上真的是非凡的,能夠概括科學、工程、公共溝通許多主題、武術及其所帶來的情感深度,以及所表現出的目的性。我認為如果這對人們來說不明顯,那麼絕對應該明確表達,但我認為非常明顯的是,你在事情上投入的時間和思考,嗯,這是終極的敬意。因此,我對你的友誼和這次對話感到無比感激。我很驕傲能成為你的朋友,我只希望你能通過穿著西裝來表達同樣的尊重,讓你父親感到驕傲。也許下次吧,確實是下次。非常感謝你,我的朋友。謝謝你。謝謝你,安德魯。

In this Huberman Lab Essentials episode my guest is Lex Fridman, PhD, a research scientist at the Massachusetts Institute of Technology (MIT), an expert in robotics and host of the Lex Fridman Podcast.

We discuss the development of artificial intelligence through machine learning, deep learning and self-supervised techniques. We also examine the growing significance of interactions between humans and robots, including their potential for companionship and emotional connection. This episode explores how AI is shifting from a technical tool into something that could reshape human relationships, emotions and society.

Read the episode show notes at hubermanlab.com.

Thank you to our sponsors

AG1: https://drinkag1.com/huberman

Maui Nui: https://mauinui.com/huberman

Function: https://functionhealth.com/huberman

David: https://davidprotein.com/huberman

Timestamps

00:00:00 Lex Fridman; Artificial Intelligence (AI), Machine
Learning, Deep Learning

00:02:23 Supervised vs Self-Supervised Learning, Self-Play
Mechanism

00:09:06 Tesla Autopilot, Autonomous Driving, Robot &
Human Interaction

00:14:26 Sponsors: AG1 & Maui Nui

00:17:47 Human & Robot Relationship, Loneliness, Time

00:22:38 Authenticity, Robot Companion, Emotions

00:27:55 Robot & Human Relationship, Manipulation,
Rights

00:32:12 Sponsors: Function & David

00:35:14 Dogs, Homer, Companion, Cancer, Death

00:40:04 Dogs, Costello, Decline, Joy, Loss

00:47:31 Closing

Disclaimer & Disclosures

Learn more about your ad choices. Visit megaphone.fm/adchoices

Leave a Comment