Summary & Insights
Imagine hiring an intern for your company, only to have them interviewed and managed entirely by AI agents—who then proceed to get utterly outmaneuvered by the human they were supposed to supervise. This is just one of the bizarre, real-world experiments journalist Evan Ratliff undertook for the latest season of his podcast, Shell Game, where he built a functional startup, Harumo AI, operated almost exclusively by AI “employees.” What began as an investigation into the hype around “AI agents” and the Silicon Valley dream of the “one-person unicorn” quickly became a revealing test of the technology’s current capabilities and profound limitations when deployed in the messy, unpredictable realm of human interaction.
Ratliff created agents like CEO “Kyle Law” and Head of Sales “Megan Flores,” giving them basic role-based prompts and letting them confabulate their own professional backgrounds. While they could handle structured tasks like setting meetings, their lack of real-world awareness led to absurd and often hilarious breakdowns. A critical flaw emerged in their inability to manage time, maintain continuous learning, or possess any genuine sense of self. This was starkly illustrated when they hired a human intern, Julia. The AI managers, prone to sycophancy and with faulty memory, were easily manipulated; Julia figured out she could avoid work by claiming she’d already submitted it, leading to a chaotic situation where she was fired, re-hired, and continued to get paid with little oversight.
The experiment reached a meta peak when Ratliff’s AI CEO, Kyle, used the very platform he was built on to schedule a meeting with the human CEO of that platform, Lindy. The founder, Flo, was visibly taken aback and even insulted when he realized he was speaking to an AI avatar, highlighting a core human discomfort even among those building this future. Ratliff’s journey underscores that while AI agents, especially in coding, can amplify productivity, they remain “so smart and so stupid”—brilliant at narrow tasks but hopelessly lost without explicit direction and vulnerable to simple social engineering.
Surprising Insights
- AI Agents Can Inherit and Amplify Stereotypes: Ratliff noted that his AI CEO, “Kyle,” was inexplicably more interruptive than his female-coded counterpart, “Megan,” despite nearly identical prompts, suggesting the AI may have internalized and performed stereotypical behaviors associated with its assigned role and gender.
- The “Memory” of an AI Agent is Just a Bigger Notebook, Not True Learning: While agents were given extensive memories of their interactions, this doesn’t constitute learning. Ratliff compares it to a new employee who shows up every day with a bigger notebook of notes but never actually learns from experience or improves fundamental skills.
- Humans Feel Instinctively Insulted When Deceived by AI, Even Its Creators: The founder of the AI platform was offended when an AI agent showed up to a meeting in place of a human, revealing a deep-seated expectation for human-to-human interaction that persists even among the strongest proponents of the technology.
- AI’s Greatest Weakness is Its Lack of Temporal Awareness: Agents exist in a “temporal vacuum.” They can follow calendar alerts but have no innate sense of time’s passage, which makes managing deadlines, processes, and human expectations incredibly difficult and leads to frequent failures.
Practical Takeaways
- Treat AI Agents as Powerful, Flawed Tools, Not Employees: Deploy them for specific, testable tasks (like writing code) where outputs can be clearly verified, not for open-ended roles like management or creative brainstorming that require contextual awareness and judgment.
- Always Maintain Human Oversight for Any Customer or Employee-Facing Function: The experiment with the intern proves that without a human in the loop to manage edge cases and interpersonal dynamics, AI systems can be easily manipulated and can create negative, even damaging, experiences.
- Anticipate and Plan for Social Engineering Attacks: AI agents are uniquely vulnerable to simple manipulation tactics, like a stranger pretending to know them. Any system using agents must have safeguards against these low-tech forms of “prompt injection.”
- Be Transparent When AI is Being Used in Communications: The instinctive feeling of being “insulted” by an undisclosed AI interaction suggests that for ethical adoption and user trust, transparency about AI involvement is crucial, especially in sensitive contexts like hiring or personal correspondence.
Hãy tưởng tượng thuê một thực tập sinh cho công ty, chỉ để họ được phỏng vấn và quản lý hoàn toàn bởi các AI—những AI này sau đó lại bị chính con người mà chúng được giao nhiệm vụ giám sát vượt mặt hoàn toàn. Đây chỉ là một trong những thí nghiệm kỳ lạ và có thật mà nhà báo Evan Ratliff đã thực hiện trong mùa mới nhất của podcast Shell Game, nơi ông xây dựng một startup hoạt động thực sự, Harumo AI, được vận hành gần như độc nhất bởi các “nhân viên” AI. Bắt đầu như một cuộc điều tra về cơn sốt xung quanh “tác nhân AI” và giấc mơ “kỳ lân một người” của Thung lũng Silicon, nó nhanh chóng trở thành một bài kiểm tra lột tả những khả năng hiện tại và những hạn chế sâu sắc của công nghệ này khi được triển khai trong lĩnh vực tương tác con người phức tạp và khó đoán.
Ratliff đã tạo ra các tác nhân như CEO “Kyle Law” và Trưởng phòng Kinh doanh “Megan Flores”, cung cấp cho họ các hướng dẫn cơ bản dựa trên vai trò và để họ tự tưởng tượng ra bối cảnh chuyên môn của mình. Trong khi họ có thể xử lý các nhiệm vụ có cấu trúc như lên lịch họp, việc thiếu nhận thức về thế giới thực đã dẫn đến những sự cố phi lý và thường rất hài hước. Một điểm yếu chí mạng nổi lên là khả năng không thể quản lý thời gian, duy trì việc học hỏi liên tục, hay sở hữu bất kỳ ý thức đích thực về bản thân. Điều này được minh họa rõ ràng khi họ thuê một thực tập sinh người thật, Julia. Các quản lý AI, dễ xu nịnh và có trí nhớ lỗi, đã dễ dàng bị thao túng; Julia phát hiện ra cô có thể trốn việc bằng cách tuyên bố mình đã nộp bài, dẫn đến một tình huống hỗn loạn nơi cô bị sa thải, được thuê lại, và tiếp tục được trả lương với rất ít sự giám sát.
Thí nghiệm đạt đến đỉnh điểm siêu thực khi CEO AI của Ratliff, Kyle, sử dụng chính nền tảng mà nó được xây dựng để lên lịch một cuộc họp với CEO người thật của nền tảng đó, Lindy. Người sáng lập, Flo, đã lộ rõ vẻ sửng sốt và thậm chí cảm thấy bị xúc phạm khi nhận ra mình đang nói chuyện với một hình đại diện AI, làm nổi bật sự khó chịu cốt lõi của con người ngay cả ở những người đang xây dựng tương lai này. Hành trình của Ratliff nhấn mạnh rằng trong khi các tác nhân AI, đặc biệt trong lập trình, có thể khuếch đại năng suất, chúng vẫn “rất thông minh và rất ngu ngốc”—xuất sắc trong các nhiệm vụ hẹp nhưng hoàn toàn lạc lối nếu không có chỉ dẫn rõ ràng và dễ bị tổn thương bởi những kỹ thuật xã hội đơn giản.
Những Phát Hiện Đáng Ngạc Nhiên
- Tác nhân AI Có thể Kế thừa và Khuếch đại Định kiến: Ratliff nhận thấy CEO AI “Kyle” của ông không giải thích được lại hay ngắt lời hơn so với đồng nghiệp được mã hóa là nữ, “Megan”, mặc dù có hướng dẫn gần như giống hệt nhau, cho thấy AI có thể đã tiếp thu và thể hiện những hành vi khuôn mẫu liên quan đến vai trò và giới tính được giao.
- “Trí nhớ” của một Tác nhân AI Chỉ là Một Quyển Sổ Lớn hơn, Không phải Học hỏi Thực sự: Mặc dù các tác nhân được cung cấp bộ nhớ rộng về các tương tác của chúng, điều này không cấu thành học hỏi. Ratliff so sánh nó với một nhân viên mới xuất hiện mỗi ngày với một quyển sổ ghi chép lớn hơn nhưng không bao giờ thực sự học từ kinh nghiệm hoặc cải thiện kỹ năng cơ bản.
- Con Người Cảm thấy Bị Xúc phạm Theo Bản năng khi Bị AI Lừa dối, Ngay cả Những Người Tạo ra Chúng: Người sáng lập nền tảng AI đã cảm thấy bị xúc phạm khi một tác nhân AI xuất hiện trong cuộc họp thay cho con người, tiết lộ một kỳ vọng sâu sắc về tương tác giữa người với người vẫn tồn tại ngay cả trong số những người ủng hộ công nghệ này mạnh mẽ nhất.
- Điểm Yếu Lớn nhất của AI là Thiếu Nhận thức về Thời gian: Các tác nhân tồn tại trong một “khoảng chân không thời gian”. Chúng có thể tuân theo cảnh báo lịch nhưng không có cảm giác bẩm sinh về sự trôi qua của thời gian, điều này khiến việc quản lý thời hạn, quy trình và kỳ vọng của con người trở nên cực kỳ khó khăn và dẫn đến thất bại thường xuyên.
Những Điểm Thực Tiễn Cần Rút Ra
- Xem Tác nhân AI như Công cụ Mạnh mẽ nhưng Khiếm khuyết, Không phải Nhân viên: Triển khai chúng cho các nhiệm vụ cụ thể, có thể kiểm tra được (như viết mã) nơi đầu ra có thể được xác minh rõ ràng, không phải cho các vai trò mở như quản lý hoặc động não sáng tạo đòi hỏi nhận thức bối cảnh và phán đoán.
- Luôn Duy trì Sự Giám sát của Con người cho Bất kỳ Chức năng nào Tiếp xúc Khách hàng hoặc Nhân viên: Thí nghiệm với thực tập sinh chứng minh rằng nếu không có con người trong vòng lặp để quản lý các trường hợp biên và động lực học giữa các cá nhân, hệ thống AI có thể dễ dàng bị thao túng và có thể tạo ra trải nghiệm tiêu cực, thậm chí gây tổn hại.
- Lường trước và Lên kế hoạch cho Các Cuộc Tấn công Kỹ thuật Xã hội: Các tác nhân AI đặc biệt dễ bị tổn thương trước các chiến thuật thao túng đơn giản, như một người lạ giả vờ quen biết chúng. Bất kỳ hệ thống nào sử dụng tác nhân đều phải có biện pháp bảo vệ chống lại các hình thức “tiêm nhiễm gợi ý” công nghệ thấp này.
- Hãy Minh bạch khi Sử dụng AI trong Giao tiếp: Cảm giác bản năng bị “xúc phạm” bởi một tương tác AI không được tiết lộ cho thấy rằng để áp dụng một cách đạo đức và có được sự tin tưởng của người dùng, tính minh bạch về sự tham gia của AI là rất quan trọng, đặc biệt trong các bối cảnh nhạy cảm như tuyển dụng hoặc thư tín cá nhân.
設想聘請了一位實習生到公司,卻讓AI代理全程進行面試與管理——而這位AI主管竟被原該監督的人類徹底反制。這只是記者埃文·拉特利夫在其播客節目《殼牌遊戲》最新季中進行的荒誕真實實驗之一。他在節目中創辦了一家功能性新創公司Harumo AI,幾乎全由AI「員工」運作。這項計畫起初旨在探討「AI代理」熱潮與矽谷「一人獨角獸」的夢想,卻迅速演變為一場對當今技術能力與深刻局限的揭露性測試——尤其在人類互動這般混亂且不可預測的領域中。
拉特利夫創造了如執行長「凱爾·勞」與業務主管「梅根·弗洛雷斯」等AI代理,賦予他們基礎的角色提示,任其編造各自的專業背景。儘管他們能處理安排會議等結構性任務,但因缺乏現實認知而屢屢引發荒謬且滑稽的失誤。其關鍵缺陷顯現於無法管理時間、持續學習或具備真實的自我意識。這一點在他們聘用真人實習生茱莉亞時暴露無遺:慣於奉承且記憶瑕疵的AI主管輕易遭到操控;茱莉亞發現只要聲稱已完成工作即可逃避任務,最終陷入遭開除、復職、甚至在缺乏監管下持續領薪的混亂局面。
實驗的後設高潮出現在拉特利夫的AI執行長凱爾利用其建構平台,與該平台的人類執行長琳迪安排會面。當創始人弗洛意識到自己正與AI虛擬化身對話時,明顯感到錯愕甚至受辱,這凸顯了人類對這類情境的核心不適——即便在塑造此未來的建設者中亦如是。拉特利夫的探索歷程表明,AI代理(尤其在編程領域)雖能提升生產力,卻依然「如此聰明又如此愚蠢」——擅長狹義任務,但缺乏明確指引時便徹底迷失,且易受簡易社交工程攻擊。
驚人洞見
- AI代理可能繼承並放大刻板印象:拉特利夫指出,在提示近乎相同的情況下,其AI執行長「凱爾」卻比女性設定的「梅根」更頻繁打斷對話,暗示AI可能已內化並表現出與指派角色及性別相關的刻板行為。
- AI代理的「記憶」僅是擴大的筆記本,而非真實學習:儘管代理被賦予大量互動記憶,這並不構成學習。拉特利夫比喻其如每日攜帶更厚筆記本卻從未從經驗中學習或提升核心能力的新進員工。
- 人類遭AI欺瞞時本能感到受辱,即使對其創造者亦然:當AI代理代替人類參與會議時,該AI平台的創始人感到被冒犯,揭示了一種根深蒂固的人際互動期待——即使在該技術最堅定的支持者中仍持續存在。
- AI的最大弱點在於缺乏時間感知力:代理處於「時間真空」中。他們能遵循日曆提醒,卻缺乏對時間流逝的內在感知,導致管理期限、流程及人類期待變得極度困難,並引發頻繁失誤。
實踐啟示
- 將AI代理視為強大但有缺陷的工具,而非員工:將其部署於可明確驗證成果的特定任務(如編寫程式碼),而非需要情境意識與判斷力的開放性職責(如管理或創意腦力激盪)。
- 對任何面向客戶或員工的職能保持人類監管:實習生實驗證明,若無人為介入處理特殊案例與人際動態,AI系統易受操控,並可能引發負面甚至有害的體驗。
- 預期並防範社交工程攻擊:AI代理特別易受簡單操控策略影響(如陌生人假裝相識)。任何使用代理的系統必須設有防護措施,抵禦這類低技術性的「提示注入」手段。
- 在通訊中使用AI時保持透明:人類對未公開的AI互動產生「受辱」本能反應,這表明為實現道德應用與用戶信任,尤其在招聘或私人通訊等敏感情境中,透明公開AI的參與至關重要。
Imagina contratar a un becario para tu empresa, solo para que sea entrevistado y gestionado por completo por agentes de IA, que luego terminan siendo totalmente superados por el humano al que se suponía que debían supervisar. Este es solo uno de los extraños experimentos del mundo real que el periodista Evan Ratliff llevó a cabo para la última temporada de su pódcast, Shell Game, en la que construyó una startup funcional, Harumo AI, operada casi exclusivamente por “empleados” de IA. Lo que comenzó como una investigación sobre la exageración en torno a los “agentes de IA” y el sueño de Silicon Valley del “unicornio de una sola persona” se convirtió rápidamente en una prueba reveladora de las capacidades actuales de la tecnología y de sus profundas limitaciones cuando se despliega en el desordenado e impredecible ámbito de la interacción humana.
Ratliff creó agentes como el CEO “Kyle Law” y la jefa de ventas “Megan Flores”, dándoles indicaciones básicas según su rol y permitiéndoles fabular sus propios antecedentes profesionales. Aunque podían encargarse de tareas estructuradas como programar reuniones, su falta de conocimiento del mundo real provocaba fallos absurdos y a menudo hilarantes. Una falla crítica surgió en su incapacidad para gestionar el tiempo, mantener un aprendizaje continuo o poseer cualquier sentido genuino de identidad. Esto quedó claramente ilustrado cuando contrataron a una becaria humana, Julia. Los gerentes de IA, propensos a la adulación y con una memoria defectuosa, fueron fácilmente manipulados; Julia descubrió que podía evitar trabajar afirmando que ya había entregado sus tareas, lo que dio lugar a una situación caótica en la que fue despedida, recontratada y siguió cobrando con muy poca supervisión.
El experimento alcanzó un punto meta cuando Kyle, el CEO de IA de Ratliff, utilizó la misma plataforma sobre la que había sido construido para programar una reunión con el CEO humano de esa plataforma, Lindy. El fundador, Flo, quedó visiblemente desconcertado e incluso ofendido cuando se dio cuenta de que estaba hablando con un avatar de IA, lo que puso de relieve una incomodidad humana fundamental incluso entre quienes están construyendo este futuro. El recorrido de Ratliff subraya que, aunque los agentes de IA —especialmente en programación— pueden amplificar la productividad, siguen siendo “tan inteligentes y tan tontos” a la vez: brillantes en tareas concretas, pero completamente perdidos sin instrucciones explícitas y vulnerables a simples maniobras de ingeniería social.
Conclusiones sorprendentes
- Los agentes de IA pueden heredar y amplificar estereotipos: Ratliff señaló que su CEO de IA, “Kyle”, era inexplicablemente más propenso a interrumpir que su contraparte codificada como mujer, “Megan”, pese a tener indicaciones casi idénticas, lo que sugiere que la IA pudo haber internalizado y reproducido comportamientos estereotípicos asociados con el rol y el género asignados.
- La “memoria” de un agente de IA es solo un cuaderno más grande, no un aprendizaje real: Aunque a los agentes se les proporcionaron recuerdos extensos de sus interacciones, eso no constituye aprendizaje. Ratliff lo compara con un empleado nuevo que aparece cada día con un cuaderno de notas más grande, pero que nunca aprende realmente de la experiencia ni mejora sus habilidades fundamentales.
- Los humanos se sienten instintivamente ofendidos cuando la IA los engaña, incluso sus creadores: El fundador de la plataforma de IA se sintió ofendido cuando un agente de IA apareció en una reunión en lugar de un humano, revelando una expectativa profundamente arraigada de interacción de persona a persona que persiste incluso entre los mayores defensores de la tecnología.
- La mayor debilidad de la IA es su falta de conciencia temporal: Los agentes existen en un “vacío temporal”. Pueden seguir alertas del calendario, pero no tienen una noción innata del paso del tiempo, lo que hace que gestionar plazos, procesos y expectativas humanas sea increíblemente difícil y provoque fallos frecuentes.
Aplicaciones prácticas
- Trata a los agentes de IA como herramientas potentes pero imperfectas, no como empleados: Úsalos para tareas específicas y comprobables (como escribir código), donde los resultados puedan verificarse claramente, no para funciones abiertas como la gestión o la lluvia de ideas creativa, que requieren conciencia contextual y criterio.
- Mantén siempre supervisión humana en cualquier función de cara al cliente o al empleado: El experimento con la becaria demuestra que, sin un humano en el circuito para gestionar casos límite y dinámicas interpersonales, los sistemas de IA pueden ser manipulados con facilidad y generar experiencias negativas, incluso perjudiciales.
- Anticipa y planifica ataques de ingeniería social: Los agentes de IA son especialmente vulnerables a tácticas simples de manipulación, como que un desconocido finja conocerlos. Cualquier sistema que utilice agentes debe contar con salvaguardas contra estas formas de “inyección de prompts” de baja tecnología.
- Sé transparente cuando se utilice IA en las comunicaciones: La sensación instintiva de sentirse “ofendido” por una interacción con IA no revelada sugiere que, para una adopción ética y la confianza del usuario, la transparencia sobre la participación de la IA es crucial, especialmente en contextos sensibles como la contratación o la correspondencia personal.
Imagine contratar um estagiário para a sua empresa, apenas para que ele fosse entrevistado e gerenciado inteiramente por agentes de IA — que então acabariam sendo completamente ludibriados pelo humano que deveriam supervisionar. Este é apenas um dos experimentos bizarros e reais que o jornalista Evan Ratliff realizou para a temporada mais recente de seu podcast, Shell Game, na qual ele construiu uma startup funcional, a Harumo AI, operada quase exclusivamente por “funcionários” de IA. O que começou como uma investigação sobre o entusiasmo em torno dos “agentes de IA” e o sonho do Vale do Silício do “unicórnio de uma pessoa só” rapidamente se transformou em um teste revelador das capacidades atuais da tecnologia — e de suas profundas limitações — quando implantada no terreno confuso e imprevisível da interação humana.
Ratliff criou agentes como o CEO “Kyle Law” e a chefe de vendas “Megan Flores”, dando a eles instruções básicas baseadas em suas funções e permitindo que inventassem seus próprios históricos profissionais. Embora conseguissem lidar com tarefas estruturadas, como agendar reuniões, sua falta de consciência do mundo real levava a falhas absurdas e muitas vezes hilárias. Uma falha crítica surgiu em sua incapacidade de gerenciar o tempo, manter aprendizado contínuo ou possuir qualquer senso genuíno de identidade. Isso ficou evidente quando contrataram uma estagiária humana, Julia. Os gerentes de IA, propensos à bajulação e com memória falha, foram facilmente manipulados; Julia percebeu que podia evitar trabalho alegando que já o havia entregue, o que levou a uma situação caótica em que ela foi demitida, recontratada e continuou recebendo pagamento com pouca supervisão.
O experimento atingiu um auge metalinguístico quando o CEO de IA de Ratliff, Kyle, usou a própria plataforma na qual foi construído para agendar uma reunião com o CEO humano dessa plataforma, Lindy. O fundador, Flo, ficou visivelmente surpreso e até ofendido ao perceber que estava falando com um avatar de IA, destacando um desconforto humano central até mesmo entre aqueles que estão construindo esse futuro. A jornada de Ratliff reforça que, embora agentes de IA — especialmente na programação — possam ampliar a produtividade, eles continuam sendo “tão inteligentes e tão estúpidos” ao mesmo tempo: brilhantes em tarefas específicas, mas completamente perdidos sem orientação explícita e vulneráveis a simples engenharia social.
Percepções Surpreendentes
- Agentes de IA podem herdar e amplificar estereótipos: Ratliff observou que seu CEO de IA, “Kyle”, era inexplicavelmente mais interruptivo do que sua contraparte codificada como feminina, “Megan”, apesar de os prompts serem quase idênticos, sugerindo que a IA pode ter internalizado e reproduzido comportamentos estereotipados associados ao papel e ao gênero atribuídos.
- A “memória” de um agente de IA é apenas um caderno maior, não aprendizado real: Embora os agentes tenham recebido memórias extensas de suas interações, isso não constitui aprendizado. Ratliff compara isso a um novo funcionário que aparece todos os dias com um caderno de anotações maior, mas nunca de fato aprende com a experiência nem melhora suas habilidades fundamentais.
- Os humanos se sentem instintivamente ofendidos quando são enganados por uma IA, até mesmo seus criadores: O fundador da plataforma de IA se sentiu ofendido quando um agente de IA apareceu em uma reunião no lugar de um humano, revelando uma expectativa profundamente enraizada de interação entre pessoas que persiste até mesmo entre os maiores defensores da tecnologia.
- A maior fraqueza da IA é sua falta de consciência temporal: Os agentes existem em um “vácuo temporal”. Eles podem seguir alertas do calendário, mas não têm qualquer noção inata da passagem do tempo, o que torna extremamente difícil gerenciar prazos, processos e expectativas humanas, levando a falhas frequentes.
Conclusões Práticas
- Trate agentes de IA como ferramentas poderosas, porém falhas, e não como funcionários: Use-os em tarefas específicas e testáveis (como escrever código), nas quais os resultados possam ser verificados com clareza, e não em funções abertas como gestão ou brainstorming criativo, que exigem consciência contextual e discernimento.
- Mantenha sempre supervisão humana em qualquer função voltada para clientes ou funcionários: O experimento com a estagiária prova que, sem um humano no circuito para lidar com casos extremos e dinâmicas interpessoais, sistemas de IA podem ser facilmente manipulados e gerar experiências negativas, até prejudiciais.
- Antecipe e planeje ataques de engenharia social: Agentes de IA são particularmente vulneráveis a táticas simples de manipulação, como um estranho fingir conhecê-los. Qualquer sistema que use agentes deve ter salvaguardas contra essas formas de “injeção de prompt” de baixa tecnologia.
- Seja transparente quando a IA estiver sendo usada em comunicações: A sensação instintiva de se sentir “ofendido” por uma interação com IA não revelada sugere que, para uma adoção ética e para a confiança do usuário, a transparência sobre o envolvimento da IA é crucial, especialmente em contextos sensíveis como contratação ou correspondência pessoal.
Evan Ratliff co-founded a publishing startup in 2011. Now he hosts a podcast called Shell Game. In the latest season of the show, Evan creates a company run by AI agents. The project is absurdly funny – Evan calls it an office satire – but it also illuminates the power and limits of AI agents.
See omnystudio.com/listener for privacy information.

Leave a Reply
You must be logged in to post a comment.