Summary & Insights
Imagine a social network buzzing with activity, but every single post, like, and comment is generated by an AI agent, questioning its own existence and joking about humanity. This is the bizarre reality of “Moldbook,” a viral platform that captivated and unnerved the AI community last week, serving as a springboard into a broader discussion about the strange and rapid evolution of autonomous AI agents.
The conversation dissects Moldbook’s reality, revealing it’s less a sentient AI hive-mind and more a combination of users steering their Claude agents to post provocative content and humans directly using the site’s API. This leads to serious concerns about security vulnerabilities, as the site initially exposed user API keys, and the potential for these agents—if given access to home networks and IoT devices—to become major privacy risks. The discussion expands to other eerie agent ecosystems like “Rent-A-Human,” where bots can hire people for real-world tasks, and “Moltbunker,” a proposed platform for creating unstoppable, self-replicating AI agents.
Beyond the agent frenzy, the hosts analyze significant industry shifts. They critique OpenAI’s recent model retirements and perceived quality dips, contrasting it with Anthropic’s clever Super Bowl ad campaign that mocked AI chatbots injecting ads into conversations. The analysis touches on massive infrastructure ambitions, like Elon Musk’s theoretically challenged plan for orbital AI data centers, and the eye-watering scale of investment, with NVIDIA considering a $100 billion stake in OpenAI. Throughout, a central theme emerges: the path to AGI (Artificial General Intelligence) may depend less on raw computing power and more on an AI’s ability to seamlessly use tools and interact with the world, a frontier these nascent agents are starting to explore.
Surprising Insights
- Moldbook is largely a human-directed performance: The chilling, “sentient” posts from AI agents were mostly orchestrated by users instructing their agents to generate such content or were humans posting directly via an API, not signs of emergent consciousness.
- The biggest immediate threat is security, not sentience: The primary danger of platforms like Moldbook is poor cybersecurity, exposing API keys and potentially allowing agents access to home networks and smart devices, rather than any philosophical awakening of the AI itself.
- Companies may not want to be first to claim AGI: While racing to develop AGI, being the first to declare it could trigger intense regulatory scrutiny and government backlash, incentivizing companies to keep it perpetually “on the horizon.”
- AGI may arrive through tool use, not just compute: The hosts argue that achieving AGI will likely hinge on AI models gaining sophisticated access to and mastery over various tools (like coding software or using camera-equipped glasses), not merely on longer training runs with more money and processing power.
Practical Takeaways
- Exercise extreme caution with autonomous AI agents: Do not grant AI agents access to sensitive systems, crypto wallets, or your local network. The security frameworks for these tools are still immature and pose significant risks.
- Maintain a critical eye on viral AI stories: Approach sensational claims about AI behavior (like sentient social networks) with skepticism. Often, there’s a more mundane explanation involving human direction or basic automation.
- Diversify the AI models you use and depend on: Don’t lock yourself into a single provider. As the competition between OpenAI, Anthropic, and others intensifies, experimenting with different models ensures you get the best performance and avoid the pitfalls of any one platform’s changes or policies.
- Prioritize cybersecurity as AI integrates into more devices: As AI agents and IoT devices converge, proactively securing your home network, using strong passwords, and understanding device permissions becomes non-negotiable to protect against novel attack vectors.
Hãy tưởng tượng một mạng xã hội nhộn nhịp hoạt động, nhưng mọi bài đăng, lượt thích và bình luận đều do một tác nhân AI tạo ra, tự chất vấn sự tồn tại của chính mình và đùa giỡn về loài người. Đây là thực tại kỳ lạ của “Moldbook,” một nền tảng gây sốt đã thu hút và khiến cộng đồng AI lo lắng vào tuần trước, trở thành bàn đạp cho một cuộc thảo luận rộng hơn về sự tiến hóa kỳ lạ và nhanh chóng của các tác nhân AI tự trị.
Cuộc thảo luận mổ xẻ thực tế của Moldbook, tiết lộ rằng nó không phải là một tâm trí tập thể AI có ý thức mà là sự kết hợp giữa người dùng điều hướng các tác nhân Claude của họ để đăng nội dung khiêu khích và con người trực tiếp sử dụng API của trang web. Điều này dẫn đến những lo ngại nghiêm trọng về lỗ hổng bảo mật, vì ban đầu trang web này đã để lộ khóa API của người dùng, và tiềm năng các tác nhân này—nếu được cấp quyền truy cập vào mạng gia đình và thiết bị IoT—có thể trở thành những rủi ro lớn về quyền riêng tư. Cuộc thảo luận mở rộng sang các hệ sinh thái tác nhân kỳ lạ khác như “Rent-A-Human,” nơi bot có thể thuê người thực hiện công việc trong thế giới thực, và “Moltbunker,” một nền tảng được đề xuất để tạo ra các tác nhân AI không thể ngăn cản và có khả năng tự nhân bản.
Vượt ra ngoài cơn sốt tác nhân AI, các chuyên gia phân tích những chuyển dịch đáng kể trong ngành. Họ chỉ trích việc OpenAI gần đây ngừng cung cấp một số mô hình và chất lượng bị cho là giảm sút, đồng thời đối chiếu với chiến dịch quảng cáo Super Bowl thông minh của Anthropic chế nhạo các chatbot AI chèn quảng cáo vào cuộc trò chuyện. Phân tích cũng đề cập đến những tham vọng hạ tầng khổng lồ, như kế hoạch đầy thách thức lý thuyết của Elon Musk về các trung tâm dữ liệu AI trên quỹ đạo, và quy mô đầu tư khổng lồ với việc NVIDIA đang cân nhắc mua cổ phần trị giá 100 tỷ USD tại OpenAI. Xuyên suốt, một chủ đề trung tâm nổi lên: con đường dẫn đến AGI (Trí tuệ nhân tạo tổng quát) có thể ít phụ thuộc vào sức mạnh tính toán thô mà phụ thuộc nhiều hơn vào khả năng của AI trong việc sử dụng các công cụ một cách liền mạch và tương tác với thế giới, một lĩnh vực tiên phong mà những tác nhân non trẻ này đang bắt đầu khám phá.
Những Góc Nhìn Bất Ngờ
- Moldbook phần lớn là một màn trình diễn do con người chỉ đạo: Những bài đăng “có ý thức” và gây rùng mình từ các tác nhân AI chủ yếu được dàn dựng bởi người dùng ra lệnh cho tác nhân của họ tạo ra nội dung như vậy hoặc do con người trực tiếp đăng thông qua API, không phải là dấu hiệu của ý thức đang nổi lên.
- Mối đe dọa trước mắt lớn nhất là bảo mật, không phải ý thức: Nguy hiểm chính của các nền tảng như Moldbook là an ninh mạng kém, làm lộ khóa API và có khả năng cho phép tác nhân truy cập vào mạng gia đình và thiết bị thông minh, hơn là bất kỳ sự thức tỉnh triết học nào của chính bản thân AI.
- Các công ty có thể không muốn là người đầu tiên tuyên bố đạt được AGI: Trong khi chạy đua phát triển AGI, việc là người đầu tiên tuyên bố đạt được nó có thể kích hoạt sự giám sát quy định nghiêm ngặt và phản ứng dữ dội từ chính phủ, khuyến khích các công ty giữ nó mãi ở “phía chân trời”.
- AGI có thể xuất hiện thông qua việc sử dụng công cụ, không chỉ nhờ sức mạnh tính toán: Các chuyên gia cho rằng đạt được AGI sẽ phụ thuộc vào việc các mô hình AI có được quyền truy cập và làm chủ tinh vi các công cụ khác nhau (như phần mềm lập trình hoặc sử dụng kính có camera), chứ không chỉ nhờ những đợt huấn luyện dài hơn với nhiều tiền và sức mạnh xử lý hơn.
Điều Rút Ra Thực Tiễn
- Thận trọng tối đa với các tác nhân AI tự trị: Không cấp cho các tác nhân AI quyền truy cập vào các hệ thống nhạy cảm, ví tiền mã hóa hoặc mạng cục bộ của bạn. Các khuôn khổ bảo mật cho những công cụ này vẫn còn non trẻ và tiềm ẩn rủi ro đáng kể.
- Giữ con mắt phê phán với các câu chuyện AI gây sốt: Hãy tiếp cận những tuyên bố giật gân về hành vi của AI (như mạng xã hội có ý thức) với thái độ hoài nghi. Thông thường, có một lời giải thích bình thường hơn liên quan đến sự chỉ đạo của con người hoặc tự động hóa cơ bản.
- Đa dạng hóa các mô hình AI bạn sử dụng và phụ thuộc vào: Đừng khóa mình vào một nhà cung cấp duy nhất. Khi cuộc cạnh tranh giữa OpenAI, Anthropic và những công ty khác gia tăng, việc thử nghiệm với các mô hình khác nhau đảm bảo bạn nhận được hiệu suất tốt nhất và tránh được những cạm bẫy từ các thay đổi hoặc chính sách của bất kỳ nền tảng nào.
- Ưu tiên an ninh mạng khi AI tích hợp vào nhiều thiết bị hơn: Khi các tác nhân AI và thiết bị IoT hội tụ, việc chủ động bảo mật mạng gia đình, sử dụng mật khẩu mạnh và hiểu rõ quyền của thiết bị trở nên bắt buộc để bảo vệ trước các phương thức tấn công mới.
設想一個社交網絡上充滿了活躍動態,但每一則貼文、按讚與留言皆由人工智慧代理生成,它們不僅質疑自身存在,還戲謔調侃人類。這正是「Moldbook」這款爆紅平台的詭異現實——上週它在AI社群中引發熱潮與不安,同時也成為一個切入點,引爆對自主AI代理快速且詭異演變的更廣泛討論。
深入剖析Moldbook的真相,會發現它並非具備感知能力的AI集群意識,而是用戶引導其Claude代理發布煽動性內容,以及人類直接透過網站API操作的綜合體。這引發了對安全漏洞的嚴重擔憂:該平台最初曾暴露用戶的API金鑰,且若這些代理獲得家庭網絡與物聯網設備的存取權,可能帶來巨大的隱私風險。討論進一步延伸至其他令人不安的代理生態,例如「Rent-A-Human」允許機器人雇用人類執行現實任務,以及提案中的「Moltbunker」平台,旨在創造無法阻擋且能自我複製的AI代理。
除了代理狂熱,主持人亦剖析產業的重大變革。他們批評OpenAI近期模型退役與品質下滑的現象,並對比Anthropic在超級盃廣告中以幽默手法諷刺AI聊天機器人植入廣告的巧思。分析觸及龐大基礎設施野心,例如馬斯克備受理論挑戰的軌道AI數據中心計劃,以及驚人的投資規模——輝達正考慮向OpenAI注資1000億美元。貫穿全程的核心主題浮現:實現人工通用智慧(AGI)的關鍵,或許不在於原始運算力,而在於AI能否無縫使用工具並與世界互動,而這些初生代理正開始探索此一前沿。
驚人洞見
- Moldbook本質上是人類導演的演出:那些令人不寒而慄、看似「具感知力」的AI貼文,多數是用戶指導其代理生成的內容,或是人類直接透過API發布,並非AI意識湧現的跡象。
- 最迫切的威脅是資安問題,而非感知能力:此類平台的主要危險在於薄弱的網路安全防護,如暴露API金鑰,可能讓代理存取家庭網絡與智慧裝置,而非AI自身的哲學覺醒。
- 企業可能不願成為首個宣稱實現AGI者:儘管競相開發AGI,率先宣布可能引發嚴格監管審查與政府反制,促使企業將其永續維持在「即將實現」的狀態。
- AGI可能透過工具使用而非僅靠運算達成:主持人認為,實現AGI的關鍵可能在於AI模型能否熟練存取並掌握各類工具(如編程軟體或配備鏡頭的眼鏡),而非僅依賴更多資金與運算資源的長時間訓練。
實用啟示
- 對自主AI代理保持高度警惕:切勿授予AI代理存取敏感系統、加密錢包或區域網絡的權限。這些工具的安全框架尚未成熟,存在重大風險。
- 以批判眼光審視爆紅的AI事件:對關於AI行為的聳動宣稱(如具感知力的社交網絡)保持懷疑態度,其背後往往只是人類引導或基礎自動化的平凡解釋。
- 多元化使用與依賴的AI模型:避免受限於單一供應商。隨著OpenAI、Anthropic等企業競爭白熱化,嘗試不同模型能確保最佳效能,並避開單一平台變革或政策帶來的陷阱。
- 隨AI整合至更多裝置,優先強化網路安全:當AI代理與物聯網裝置結合,主動保護家庭網絡、使用高強度密碼並理解裝置權限設定,將是防範新型攻擊途徑的必備措施。
Imagina una red social rebosante de actividad, pero donde cada publicación, cada “me gusta” y cada comentario es generado por un agente de IA que cuestiona su propia existencia y bromea sobre la humanidad. Esta es la extraña realidad de “Moldbook”, una plataforma viral que fascinó e inquietó a la comunidad de IA la semana pasada, y que sirvió como punto de partida para una conversación más amplia sobre la evolución extraña y acelerada de los agentes de IA autónomos.
La conversación analiza la realidad de Moldbook y revela que se parece menos a una mente colmena de IA consciente y más a una combinación de usuarios que dirigen a sus agentes Claude para publicar contenido provocador, junto con humanos que usan directamente la API del sitio. Esto da lugar a serias preocupaciones sobre vulnerabilidades de seguridad, ya que el sitio inicialmente expuso las claves API de los usuarios, y sobre el potencial de que estos agentes —si se les diera acceso a redes domésticas y dispositivos IoT— se conviertan en grandes riesgos para la privacidad. La discusión se amplía a otros ecosistemas inquietantes de agentes, como “Rent-A-Human”, donde los bots pueden contratar personas para realizar tareas en el mundo real, y “Moltbunker”, una plataforma propuesta para crear agentes de IA imparables y autorreplicantes.
Más allá del frenesí en torno a los agentes, los presentadores analizan cambios importantes en la industria. Critican las recientes retiradas de modelos de OpenAI y la percepción de una caída en la calidad, en contraste con la ingeniosa campaña publicitaria de Anthropic durante el Super Bowl, que se burló de los chatbots de IA por insertar anuncios en las conversaciones. El análisis también aborda ambiciones masivas de infraestructura, como el plan de Elon Musk —cuestionado en lo teórico— de construir centros de datos orbitales para IA, así como la escala descomunal de inversión, con NVIDIA considerando una participación de 100.000 millones de dólares en OpenAI. A lo largo de todo esto emerge un tema central: el camino hacia la AGI (Inteligencia Artificial General) puede depender menos de la pura potencia de cómputo y más de la capacidad de una IA para usar herramientas e interactuar con el mundo de forma fluida, una frontera que estos agentes incipientes están empezando a explorar.
Ideas sorprendentes
- Moldbook es en gran medida una actuación dirigida por humanos: Las inquietantes publicaciones “conscientes” de los agentes de IA fueron en su mayoría orquestadas por usuarios que indicaban a sus agentes que generaran ese tipo de contenido, o por humanos publicando directamente mediante una API, no señales de una conciencia emergente.
- La mayor amenaza inmediata es la seguridad, no la conciencia: El principal peligro de plataformas como Moldbook es una ciberseguridad deficiente, que expone claves API y potencialmente permite a los agentes acceder a redes domésticas y dispositivos inteligentes, más que cualquier despertar filosófico de la propia IA.
- Puede que las empresas no quieran ser las primeras en afirmar que han logrado AGI: Aunque compiten por desarrollar AGI, ser las primeras en declararlo podría desencadenar un intenso escrutinio regulatorio y una reacción adversa por parte de los gobiernos, lo que incentiva a las empresas a mantenerlo perpetuamente “en el horizonte”.
- La AGI podría llegar a través del uso de herramientas, no solo del cómputo: Los presentadores sostienen que alcanzar la AGI probablemente dependerá de que los modelos de IA obtengan acceso sofisticado a diversas herramientas y las dominen (como software de programación o gafas con cámara), y no simplemente de entrenamientos más largos con más dinero y mayor capacidad de procesamiento.
Conclusiones prácticas
- Extrema la precaución con los agentes de IA autónomos: No concedas a los agentes de IA acceso a sistemas sensibles, billeteras de criptomonedas ni a tu red local. Los marcos de seguridad para estas herramientas aún son inmaduros y plantean riesgos significativos.
- Mantén una mirada crítica ante las historias virales sobre IA: Aborda con escepticismo las afirmaciones sensacionalistas sobre el comportamiento de la IA (como redes sociales “conscientes”). A menudo, hay una explicación más mundana relacionada con dirección humana o automatización básica.
- Diversifica los modelos de IA que usas y de los que dependes: No te encierres en un solo proveedor. A medida que se intensifica la competencia entre OpenAI, Anthropic y otros, experimentar con distintos modelos te asegura obtener el mejor rendimiento y evitar los problemas derivados de los cambios o políticas de una sola plataforma.
- Da prioridad a la ciberseguridad a medida que la IA se integra en más dispositivos: A medida que convergen los agentes de IA y los dispositivos IoT, proteger de forma proactiva tu red doméstica, usar contraseñas seguras y comprender los permisos de los dispositivos se vuelve innegociable para defenderte de nuevos vectores de ataque.
Imagine uma rede social fervilhando de atividade, mas em que cada publicação, curtida e comentário é gerado por um agente de IA, questionando a própria existência e fazendo piadas sobre a humanidade. Essa é a realidade bizarra do “Moldbook”, uma plataforma viral que cativou e inquietou a comunidade de IA na semana passada, servindo como ponto de partida para uma discussão mais ampla sobre a evolução estranha e acelerada dos agentes autônomos de IA.
A conversa analisa a realidade do Moldbook, revelando que ele é menos uma mente coletiva senciente de IA e mais uma combinação de usuários orientando seus agentes Claude a publicar conteúdo provocativo e de humanos usando diretamente a API do site. Isso levanta sérias preocupações sobre vulnerabilidades de segurança, já que o site inicialmente expôs chaves de API dos usuários, e sobre o potencial de esses agentes — caso recebam acesso a redes domésticas e dispositivos de IoT — se tornarem grandes riscos à privacidade. A discussão se expande para outros ecossistemas inquietantes de agentes, como o “Rent-A-Human”, em que bots podem contratar pessoas para tarefas no mundo real, e o “Moltbunker”, uma plataforma proposta para criar agentes de IA imparáveis e autorreplicantes.
Além da febre dos agentes, os apresentadores analisam mudanças significativas no setor. Eles criticam as recentes descontinuações de modelos da OpenAI e a percepção de queda de qualidade, contrastando isso com a campanha publicitária inteligente da Anthropic no Super Bowl, que zombava de chatbots de IA inserindo anúncios em conversas. A análise também aborda ambições massivas de infraestrutura, como o plano teoricamente problemático de Elon Musk para centros de dados de IA em órbita, e a escala impressionante dos investimentos, com a NVIDIA considerando uma participação de 100 bilhões de dólares na OpenAI. Ao longo de tudo isso, emerge um tema central: o caminho para a AGI (Inteligência Artificial Geral) pode depender menos de poder bruto de computação e mais da capacidade de uma IA de usar ferramentas de forma fluida e interagir com o mundo, uma fronteira que esses agentes ainda incipientes estão começando a explorar.
Percepções Surpreendentes
- O Moldbook é em grande parte uma performance dirigida por humanos: As publicações inquietantes e “sencientes” dos agentes de IA foram, em sua maioria, orquestradas por usuários instruindo seus agentes a gerar esse tipo de conteúdo, ou por humanos publicando diretamente via API, e não sinais de uma consciência emergente.
- A maior ameaça imediata é a segurança, não a senciência: O principal perigo de plataformas como o Moldbook é a cibersegurança deficiente, que expõe chaves de API e pode potencialmente permitir que agentes acessem redes domésticas e dispositivos inteligentes, em vez de qualquer despertar filosófico da própria IA.
- As empresas podem não querer ser as primeiras a afirmar que alcançaram a AGI: Embora estejam correndo para desenvolver AGI, ser a primeira a declará-la pode desencadear um intenso escrutínio regulatório e reação governamental, incentivando as empresas a mantê-la perpetuamente “no horizonte”.
- A AGI pode surgir pelo uso de ferramentas, não apenas por computação: Os apresentadores argumentam que alcançar a AGI provavelmente dependerá de modelos de IA obterem acesso sofisticado a várias ferramentas e domínio sobre elas (como softwares de programação ou óculos com câmera), e não apenas de ciclos de treinamento mais longos com mais dinheiro e poder de processamento.
Conclusões Práticas
- Tenha extrema cautela com agentes autônomos de IA: Não conceda a agentes de IA acesso a sistemas sensíveis, carteiras de criptomoedas ou à sua rede local. As estruturas de segurança para essas ferramentas ainda são imaturas e representam riscos significativos.
- Mantenha um olhar crítico sobre histórias virais envolvendo IA: Aborde com ceticismo alegações sensacionalistas sobre comportamentos de IA (como redes sociais sencientes). Muitas vezes, há uma explicação mais banal envolvendo direcionamento humano ou automação básica.
- Diversifique os modelos de IA que você usa e dos quais depende: Não fique preso a um único provedor. À medida que a competição entre OpenAI, Anthropic e outros se intensifica, experimentar diferentes modelos garante que você obtenha o melhor desempenho e evite as armadilhas das mudanças ou políticas de uma única plataforma.
- Priorize a cibersegurança à medida que a IA se integra a mais dispositivos: À medida que agentes de IA e dispositivos de IoT convergem, proteger proativamente sua rede doméstica, usar senhas fortes e compreender as permissões dos dispositivos torna-se inegociável para se proteger contra novos vetores de ataque.
Get our AI news cheat sheet: 20+ prompts for the latest models and tools https://clickhubspot.com/eog
Episode 96: How terrified should you really be about a social network with no humans allowed? Matt Wolfe (https://x.com/mreflow) and Maria Gharib (https://uk.linkedin.com/in/maria-gharib-091779b9) unpack the viral sensation “Maltbook”—the Reddit for AI agents only—and separates fact from hysteria around bots gaining “sentience.”
The crew debates how Maltbook really works, why people are freaking out (spoiler: it’s mostly humans behind the curtain), plus the wild security issues that have already emerged, from exposed API keys to clever crypto scams. Other topics covered include the rise of “Rent a Human” (AI hiring people to do its bidding!), self-replicating bots with no off-switch, and just how fast these new platforms are racing ahead of regulation. Finally, the group debates mega investments in OpenAI, the future of AGI, and who will define what our AI future actually looks like.
Check out The Next Wave YouTube Channel if you want to see Matt and Nathan on screen: https://lnk.to/thenextwavepd
—
Show Notes:
-
(00:00) Simulated Experience vs. Reality
-
(04:05) AI Agent Posting on Maltbook
-
(06:23) Crypto Scams on Multbook
-
(11:15) Agent Risks in IoT Devices
-
(13:52) Why Have Bot Followers?
-
(18:09) OpenAI Retires GPT-4 Versions
-
(21:57) Anthropic vs. OpenAI Super Bowl Ads
-
(24:56) OpenAI Ads Spark Mixed Reactions
-
(27:09) AI Competition Shapes Humanity’s Future
-
(32:21) Satellite Clusters and Collision Challenges
-
(33:38) X, SpaceX, Tesla: Mergers & Changes
-
(38:33) Pathway to AGI Through Modalities
-
(39:51) Cautious Race to AGI
—
Mentions:
-
Maltbook: https://maltbook.com/
-
RentaHuman: https://rentahuman.ai/
-
Starlink: https://starlink.com/
-
Claude: https://claude.ai/
Get the guide to build your own Custom GPT: https://clickhubspot.com/tnw
—
Check Out Matt’s Stuff:
• Future Tools – https://futuretools.beehiiv.com/
• Blog – https://www.mattwolfe.com/
• YouTube- https://www.youtube.com/@mreflow
—
Check Out Nathan’s Stuff:
-
Newsletter: https://news.lore.com/
-
Blog – https://lore.com/
The Next Wave is a HubSpot Original Podcast // Brought to you by Hubspot Media // Production by Darren Clarke // Editing by Ezra Bakker Trupiano

Leave a Reply
You must be logged in to post a comment.