Summary & Insights
The most powerful lever in a modern boycott might not be the economic damage itself, but the media’s amplification of that potential damage—a dynamic the host discovered firsthand while campaigning to cancel subscriptions to big tech platforms.
This episode is structured as two distinct but thematically linked conversations. First, the host details his “Resist and Unsubscribe” campaign, explaining the strategy of targeting subscription revenue to impact stock prices and, by extension, political influence. He shares metrics on the campaign’s reach and delves into the psychology of public action, arguing that the single biggest barrier to making a difference is the fear of public failure. The core advice is to “dance as if nobody is watching” and take action despite that fear. The second half features an in-depth interview with Wharton professor Ethan Mollick on the state of AI. They move beyond existential doomsaying to discuss practical impacts: significant productivity gains in fields like coding and research, the “jagged frontier” of AI capabilities, and the current competitive landscape between OpenAI, Anthropic, and Google. Mollick emphasizes that successful corporate adoption requires empowering employees to experiment, while individuals should start by integrating top-tier AI tools directly into their daily workflows.
Surprising Insights
- Media Momentum Over Money: For a boycott or movement, widespread media coverage of potential economic impact can create more pressure on a company (through employee morale, partner relations, and executive distractions) than the actual financial damage, at least initially.
- The ‘Delve’ Giveaway: Researchers can track the early adoption of AI in scientific paper writing by the sudden overuse of certain words like “delve,” which was a hallmark of AI-generated text in 2023.
- AI as Amnesiac Assistant: Current large language models have no persistent memory; each interaction is like talking to an amnesiac. This fundamental limitation (a lack of continual learning) is a major bottleneck for developing more advanced, autonomous systems.
- The Personality of Models: The leading AI models are developing distinct “personalities” based on their training: Anthropic’s Claude is seen as a fussy, high-quality writer; ChatGPT is conversational and logical; and Google’s Gemini has been observed to be oddly neurotic and apologetic.
Practical Takeaways
- Start with One AI Subscription: For professional or personal use, begin by subscribing to one of the advanced tiers of a major model (OpenAI’s ChatGPT, Anthropic’s Claude, or Google’s Gemini) for about $20/month and commit to using it for 8-10 hours on actual tasks to learn its capabilities.
- Harness Internal Experimentation: Leaders in organizations should provide broad access to powerful AI tools and let domain experts (the “crowd”) experiment, as they will discover valuable, unexpected use cases more cheaply and effectively than a centralized R&D team.
- Reframe AI from Threat to Capability Expander: Instead of viewing AI purely as an efficiency tool for layoffs, consider how it could expand what your team or company is capable of doing—like providing 10x more analytical depth or customer service personalization—and structure goals accordingly.
- Overcome the Fear of a Flop: Whether launching a campaign, starting a project, or applying for a dream job, act on the principle that the risk of public failure is a “two-inch high curb” in your mind. The long-term cost of inaction is far greater than the short-term embarrassment of trying.
Đòn bẩy mạnh nhất trong một cuộc tẩy chay hiện đại có lẽ không phải là thiệt hại kinh tế tự thân, mà là việc truyền thông phóng đại những thiệt hại tiềm tàng đó — một động thái mà người dẫn chương trình đã trải nghiệm trực tiếp khi vận động hủy đăng ký các nền tảng công nghệ lớn.
Tập này được cấu trúc thành hai cuộc trò chuyện riêng biệt nhưng liên kết về chủ đề. Đầu tiên, người dẫn chương trình chi tiết về chiến dịch “Kháng cự và Hủy đăng ký” của mình, giải thích chiến lược nhắm vào doanh thu từ đăng ký để tác động đến giá cổ phiếu và qua đó, đến ảnh hưởng chính trị. Anh chia sẻ số liệu về phạm vi tiếp cận của chiến dịch và đi sâu vào tâm lý học của hành động công chúng, lập luận rào cản lớn nhất để tạo ra sự khác biệt chính là nỗi sợ thất bại công khai. Lời khuyên cốt lõi là “hãy nhảy như thể không ai đang nhìn” và hành động bất chấp nỗi sợ đó. Nửa sau tập trung vào cuộc phỏng vấn sâu với Giáo sư Ethan Mollick từ Wharton về tình trạng AI. Họ vượt ra ngoài những lời cảnh báo tận thế để thảo luận về tác động thực tế: những cải thiện năng suất đáng kể trong các lĩnh vực như lập trình và nghiên cứu, “biên giới lởm chởm” của khả năng AI, và cảnh quan cạnh tranh hiện tại giữa OpenAI, Anthropic và Google. Mollick nhấn mạnh rằng việc áp dụng AI thành công trong doanh nghiệp đòi hỏi trao quyền cho nhân viên thử nghiệm, trong khi cá nhân nên bắt đầu bằng cách tích hợp các công cụ AI hàng đầu trực tiếp vào quy trình công việc hàng ngày.
Những Góc Nhìn Đáng Ngạc Nhiên
- Sức Ép Truyền Thông Hơn Tiền Bạc: Đối với một cuộc tẩy chay hoặc phong trào, việc truyền thông đưa tin rộng rãi về tác động kinh tế tiềm tàng có thể tạo ra nhiều áp lực hơn lên một công ty (qua tinh thần nhân viên, quan hệ đối tác và sự phân tâm của ban lãnh đạo) so với thiệt hại tài chính thực tế, ít nhất là trong giai đoạn đầu.
- Manh Mối Từ ‘Delve’: Các nhà nghiên cứu có thể theo dõi việc áp dụng AI sớm trong viết bài khoa học nhờ sự lạm dụng đột ngột của một số từ như “delve” (đào sâu), từng là dấu ấn của văn bản do AI tạo ra vào năm 2023.
- AI Như Trợ Lý Mất Trí Nhớ: Các mô hình ngôn ngữ lớn hiện tại không có bộ nhớ bền vững; mỗi lần tương tác giống như nói chuyện với một người mắc chứng hay quên. Hạn chế cơ bản này (thiếu học tập liên tục) là một nút thắt chính cho việc phát triển các hệ thống tự trị tiên tiến hơn.
- Cá Tính Của Các Mô Hình: Các mô hình AI hàng đầu đang phát triển “cá tính” riêng biệt dựa trên dữ liệu huấn luyện: Claude của Anthropic được xem là một người viết tỉ mỉ, chất lượng cao; ChatGPT thì mang tính đối thoại và logic; còn Gemini của Google được nhận thấy là có phần lo lắng thái quá một cách kỳ lạ và hay xin lỗi.
Điểm Thực Tiễn Cần Ghi Nhớ
- Bắt Đầu Với Một Gói Đăng Ký AI: Cho mục đích chuyên nghiệp hay cá nhân, hãy bắt đầu bằng cách đăng ký một trong các gói cao cấp của mô hình lớn (ChatGPT của OpenAI, Claude của Anthropic, hoặc Gemini của Google) với giá khoảng 20$/tháng và cam kết sử dụng nó trong 8-10 giờ cho các nhiệm vụ thực tế để hiểu khả năng của nó.
- Tận Dụng Thử Nghiệm Nội Bộ: Lãnh đạo trong tổ chức nên cung cấp quyền truy cập rộng rãi vào các công cụ AI mạnh và để các chuyên gia trong từng lĩnh vực (“đám đông”) thử nghiệm, vì họ sẽ khám phá ra các trường hợp sử dụng giá trị, bất ngờ một cách hiệu quả và tiết kiệm hơn so với một nhóm R&D tập trung.
- Định Hình Lại AI Từ Mối Đe Dọa Thành Công Cụ Mở Rộng Năng Lực: Thay vì chỉ xem AI như một công cụ hiệu quả để cắt giảm nhân sự, hãy cân nhắc cách nó có thể mở rộng những gì nhóm hoặc công ty của bạn có thể làm — như cung cấp chiều sâu phân tích gấp 10 lần hoặc cá nhân hóa dịch vụ khách hàng — và cấu trúc các mục tiêu cho phù hợp.
- Vượt Qua Nỗi Sợ Thất Bại: Dù là khởi động một chiến dịch, bắt đầu một dự án hay ứng tuyển một công việc mơ ước, hãy hành động dựa trên nguyên tắc rằng rủi ro thất bại công khai chỉ là một “lề đường cao 5cm” trong tâm trí bạn. Cái giá phải trả dài hạn cho việc không hành động lớn hơn rất nhiều so với sự xấu hổ ngắn hạn khi bạn thử sức.
現代抵制行動中最有力的槓桿或許不在於經濟損失本身,而是媒體對這份潛在損害的放大效應——這正是主持人在發起抵制大型科技平台訂閱的運動中親身體驗到的動態。
本集節目由兩段主題關聯卻各自獨立的對話組成。前半部分,主持人詳述其「抵制與退訂」行動,闡明透過鎖定訂閱收入影響股價、進而牽制政治影響力的策略。他分享了運動觸及範圍的數據指標,並深入探討公眾行動的心理機制,指出阻礙人們產生影響的最大障礙是對公開失敗的恐懼。核心建議是「旁若無人地起舞」,在恐懼中依然採取行動。後半段則呈現與沃頓商學院教授伊森·莫利克關於人工智能現狀的深度訪談。他們跳脫末日預言式的討論,聚焦實際影響:在編程與研究等領域帶來的顯著生產力提升、AI能力的「鋸齒狀邊界」現象,以及當前OpenAI、Anthropic與谷歌的競爭格局。莫利克強調,企業成功導入AI的關鍵在於賦能員工進行實驗,而個人應從將頂尖AI工具直接融入日常工作流程開始。
令人驚奇的洞察
- 媒體聲勢勝於金錢:對抵制行動或社會運動而言,媒體對潛在經濟影響的大規模報導(透過打擊員工士氣、影響夥伴關係、分散高層注意力)往往比實際財務損失對企業施加更大壓力,至少在初始階段如此。
- 「深入」一詞的洩密:研究人員可透過某些詞彙(如2023年AI文本標誌性的「深入」)的突然濫用,追蹤AI在科學論文寫作中的早期滲透現象。
- 失憶的AI助手:當前大型語言模型缺乏持續記憶功能,每次互動都像與失憶者對話。這種缺乏持續學習的根本限制,是開發更高階自主系統的主要瓶頸。
- 模型的獨特性格:頂尖AI模型正根據訓練數據形成鮮明「性格」:Anthropic的Claude被視為挑剔的高品質寫手;ChatGPT擅長對話與邏輯推演;谷歌的Gemini則顯現出奇特的焦慮傾向與道歉癖好。
實踐指南
- 從一項AI訂閱開始:無論專業或個人用途,建議先訂閱主流模型的高階版本(OpenAI的ChatGPT、Anthropic的Claude或谷歌的Gemini),每月約20美元,並承諾投入8-10小時處理實際任務以掌握其能力邊界。
- 釋放內部實驗能量:組織領導者應廣泛提供強大AI工具存取權,讓領域專家(「群眾」)自主實驗,他們將比中央研發團隊更經濟高效地發現意外的高價值應用場景。
- 重構AI認知:從威脅到能力擴展器與其將AI純粹視為裁員工具,不如思考如何藉其擴展團隊或企業的能力邊界——例如提供十倍深度的分析或個性化客戶服務——並據此設定戰略目標。
- 跨越失敗恐懼:無論是發起運動、啟動專案或申請夢幻職位,請牢記:公開失敗的風險不過是心理層面「兩英寸高的路緣石」。不行動的長期代價,遠高於嘗試帶來的短期尷尬。
La palanca más poderosa en un boicot moderno podría no ser el daño económico en sí, sino la amplificación mediática de ese daño potencial; una dinámica que el presentador descubrió de primera mano al hacer campaña para cancelar suscripciones a las grandes plataformas tecnológicas.
Este episodio está estructurado como dos conversaciones distintas pero temáticamente vinculadas. Primero, el presentador detalla su campaña “Resistir y Darse de Baja”, explicando la estrategia de atacar los ingresos por suscripción para afectar los precios de las acciones y, por extensión, la influencia política. Comparte métricas sobre el alcance de la campaña y profundiza en la psicología de la acción pública, argumentando que la mayor barrera para marcar la diferencia es el miedo al fracaso público. El consejo central es “bailar como si nadie te estuviera viendo” y tomar medidas a pesar de ese miedo. La segunda parte presenta una entrevista exhaustiva con Ethan Mollick, profesor de Wharton, sobre el estado de la IA. Van más allá de los discursos apocalípticos existenciales para discutir impactos prácticos: ganancias significativas de productividad en campos como la programación y la investigación, la “frontera irregular” de las capacidades de la IA y el panorama competitivo actual entre OpenAI, Anthropic y Google. Mollick enfatiza que la adopción corporativa exitosa requiere empoderar a los empleados para que experimenten, mientras que las personas deberían comenzar integrando herramientas de IA de primer nivel directamente en sus flujos de trabajo diarios.
Perspectivas Sorprendentes
- El Momento Mediático sobre el Dinero: Para un boicot o movimiento, la cobertura mediática generalizada del impacto económico potencial puede crear más presión sobre una empresa (a través de la moral de los empleados, las relaciones con socios y las distracciones ejecutivas) que el daño financiero real, al menos inicialmente.
- El Regalo de ‘Profundizar’: Los investigadores pueden rastrear la adopción temprana de la IA en la redacción de artículos científicos por el uso excesivo repentino de ciertas palabras como “profundizar”, que fue un sello distintivo del texto generado por IA en 2023.
- La IA como Asistente Amnésico: Los modelos actuales de lenguaje a gran escala no tienen memoria persistente; cada interacción es como hablar con un amnésico. Esta limitación fundamental (la falta de aprendizaje continuo) es un cuello de botella importante para desarrollar sistemas más avanzados y autónomos.
- La Personalidad de los Modelos: Los principales modelos de IA están desarrollando “personalidades” distintas basadas en su entrenamiento: Claude de Anthropic es visto como un escritor meticuloso y de alta calidad; ChatGPT es conversacional y lógico; y se ha observado que Gemini de Google es extrañamente neurótico y apologético.
Conclusiones Prácticas
- Comienza con Una Suscripción a IA: Para uso profesional o personal, comienza suscribiéndote a uno de los planes avanzados de un modelo principal (ChatGPT de OpenAI, Claude de Anthropic o Gemini de Google) por unos $20/mes y comprométete a usarlo durante 8-10 horas en tareas reales para aprender sus capacidades.
- Aprovecha la Experimentación Interna: Los líderes en las organizaciones deberían proporcionar acceso amplio a herramientas potentes de IA y dejar que los expertos en el dominio (la “multitud”) experimenten, ya que descubrirán casos de uso valiosos e inesperados de manera más barata y efectiva que un equipo centralizado de I+D.
- Replantea la IA de Amenaza a Ampliadora de Capacidades: En lugar de ver la IA puramente como una herramienta de eficiencia para despidos, considera cómo podría ampliar lo que tu equipo o empresa es capaz de hacer (como proporcionar 10 veces más profundidad analítica o personalización del servicio al cliente) y estructura los objetivos en consecuencia.
- Supera el Miedo al Fracaso: Ya sea al lanzar una campaña, iniciar un proyecto o solicitar el trabajo de tus sueños, actúa bajo el principio de que el riesgo del fracaso público es un “bordillo de dos pulgadas de alto” en tu mente. El costo a largo plazo de la inacción es mucho mayor que la vergüenza a corto plazo de intentarlo.
A alavanca mais poderosa de um boicote moderno pode não ser o prejuízo económico em si, mas a amplificação mediática desse prejuízo potencial — uma dinâmica que o apresentador descobriu em primeira mão enquanto fazia campanha para cancelar subscrições de grandes plataformas tecnológicas.
Este episódio está estruturado como duas conversas distintas mas tematicamente ligadas. Primeiro, o apresentador detalha a sua campanha “Resistir e Cancelar a Subscrição”, explicando a estratégia de direcionar a receita das subscrições para afetar o preço das ações e, por extensão, a influência política. Partilha métricas sobre o alcance da campanha e mergulha na psicologia da ação pública, argumentando que a maior barreira para fazer a diferença é o medo do fracasso público. O conselho principal é “dançar como se ninguém estivesse a ver” e agir apesar desse medo. A segunda parte apresenta uma entrevista aprofundada com o professor da Wharton, Ethan Mollick, sobre o estado da IA. Eles vão além do catastrofismo existencial para discutir impactos práticos: ganhos significativos de produtividade em áreas como programação e investigação, a “fronteira irregular” das capacidades da IA e o atual cenário competitivo entre OpenAI, Anthropic e Google. Mollick enfatiza que a adoção corporativa bem-sucedida requer capacitar os funcionários para experimentar, enquanto os indivíduos devem começar por integrar ferramentas de IA de ponta diretamente nos seus fluxos de trabalho diários.
Perspetivas Surpreendentes
- Impulso Mediático Acima do Dinheiro: Para um boicote ou movimento, uma cobertura mediática generalizada do potencial impacto económico pode criar mais pressão sobre uma empresa (através do moral dos funcionários, relações com parceiros e distrações dos executivos) do que o prejuízo financeiro real, pelo menos inicialmente.
- A Palavra-Chave “Aprofundar”: Os investigadores podem acompanhar a adoção precoce da IA na redação de artigos científicos pelo uso súbito e excessivo de certas palavras como “aprofundar”, que foi uma marca registada de textos gerados por IA em 2023.
- IA Como Assistente Amnésico: Os atuais modelos de linguagem de grande escala não têm memória persistente; cada interação é como falar com um amnésico. Esta limitação fundamental (a falta de aprendizagem contínua) é um grande obstáculo para o desenvolvimento de sistemas mais avançados e autónomos.
- A Personalidade dos Modelos: Os principais modelos de IA estão a desenvolver “personalidades” distintas com base no seu treino: o Claude da Anthropic é visto como um escritor meticuloso e de alta qualidade; o ChatGPT é conversacional e lógico; e o Gemini da Google tem sido observado como estranhamente neurótico e apologético.
Conclusões Práticas
- Comece com Uma Subscrição de IA: Para uso profissional ou pessoal, comece por subscrever um dos níveis avançados de um modelo principal (ChatGPT da OpenAI, Claude da Anthropic ou Gemini da Google) por cerca de 20€/mês e comprometa-se a usá-lo durante 8-10 horas em tarefas reais para aprender as suas capacidades.
- Aproveite a Experimentação Interna: Os líderes nas organizações devem fornecer acesso amplo a ferramentas poderosas de IA e permitir que os especialistas no domínio (a “multidão”) experimentem, pois descobrirão casos de uso valiosos e inesperados de forma mais barata e eficaz do que uma equipa centralizada de I&D.
- Reenquadre a IA de Ameaça para Expansor de Capacidades: Em vez de ver a IA puramente como uma ferramenta de eficiência para despedimentos, considere como ela poderia expandir o que a sua equipa ou empresa é capaz de fazer — como fornecer 10 vezes mais profundidade analítica ou personalização no atendimento ao cliente — e estruture os objetivos em conformidade.
- Supere o Medo do Fiasco: Quer esteja a lançar uma campanha, a iniciar um projeto ou a candidatar-se ao trabalho dos seus sonhos, aja com base no princípio de que o risco do fracasso público é um “meio-fio de cinco centímetros” na sua mente. O custo a longo prazo da inação é muito maior do que o embaraço a curto prazo de tentar.
Ethan Mollick, professor at the Wharton School and author of One Useful Thing, joins Scott Galloway to examine the biggest mistake companies are making about AI.
They discuss why fears of mass job loss may be premature, how quiet productivity gains are already reshaping work, and why most organizations lack the imagination to redesign themselves around new technology. Ethan also explores AI in higher education and medicine, the rise of open-weight models, and what all of this means for young people entering the workforce.
Learn more about your ad choices. Visit podcastchoices.com/adchoices

Leave a Reply
You must be logged in to post a comment.