0
0
Summary & Insights

The moment a private company builds something powerful enough to rival a state’s advantage, the people with guns will inevitably want a say. This is the stark reality facing AI companies like Anthropic, as unpacked by Ben Thompson in a conversation examining the recent standoff between the AI lab and the U.S. Department of War. Thompson argues that if AI truly represents a new form of power akin to nuclear weapons—a comparison often made by Anthropic’s own CEO—then we must grapple with the geopolitical and physical-world consequences its development triggers, moving beyond theoretical debates about AI alignment.

Thompson dissects the fundamental tension: cutting-edge AI is being built by private companies for a broad commercial market, but its potential as a force multiplier makes it irresistible and deeply concerning to nation-states. The recent conflict, where the government designated Anthropic a supply chain risk after it refused to remove safeguards against mass surveillance and autonomous weapons, is a mere opening salvo. This isn’t merely a contract dispute; it’s a preview of a recurring struggle over who controls transformative technology. Thompson stresses his analysis is descriptive, not normative—he is not endorsing the government’s actions but pointing out that they are a predictable reaction in a world where power ultimately flows from those who can enforce it.

The conversation extends this logic to the international stage, particularly the precarious situation of Taiwan and its semiconductor industry. Thompson critiques a myopic focus on slowing Chinese AI advancement by withholding chips, warning that if a massive AI capability gap opens between the U.S. and China, it could make military action against Taiwan not just possible but rational from Beijing’s perspective. His view is that interdependence, such as allowing China to depend on Taiwanese fabs, creates a safer equilibrium than attempting total technological isolation—a classic example of the brutal trade-offs that define realpolitik.

Ultimately, Thompson identifies a dangerous blind spot in parts of the AI community: a failure to align their thinking with a world that still operates on physical power and geopolitical competition. The choice, as he frames it, is not between good and bad options but between flawed alternatives. The path forward is fraught, demanding that companies navigate not just technical alignment with human values, but political alignment with the realities of state power. The ideal resolution—new laws passed by Congress to govern digital surveillance and military AI use—seems distant, but the alternative of leaving monumental decisions solely in the hands of private executives may prove intolerable to the governments that hold ultimate authority.

Surprising Insights

  • The most stable geopolitical strategy regarding AI and Taiwan might be to make China more dependent on Taiwanese semiconductor manufacturing, not less, as this interdependence could deter conflict.
  • The historical model for regulating nuclear weapons may not apply to AI, because nuclear programs were state-initiated and physically trackable, whereas AI is being driven by private, commercial markets and is based on replicable software.
  • A significant motivation behind the U.S. government’s pressure on AI companies could be not just to gain access, but to prevent them from building an independent “power base” outside of state control.
  • OpenAI’s reported compromise with the Pentagon—agreeing to cooperate but reserving the right to block specific model uses like digital surveillance—essentially sets up a continual “jailbreak competition” with the U.S. government.
  • There is a pronounced cultural rift within the industry: OpenAI’s stance appears closer to mainstream American public opinion, while Anthropic’s resistance aligns more closely with the prevailing sentiment of the San Francisco tech talent pool.

Practical Takeaways

  • For AI companies navigating government demands: Engage politically. Rather than relying solely on principled refusal, invest in lobbying and advocacy to shape the new laws that are desperately needed, turning a confrontation into a legislative campaign.
  • When making strategic decisions with geopolitical impact (e.g., chip sales), explicitly weigh secondary and tertiary consequences, such as how your actions might influence an adversary’s risk calculus regarding military conflict.
  • Incorporate “guns and power” analysis into risk assessments. Scenario planning should include not just market and technical risks, but also potential state-level reactions, from regulatory attacks to more extreme measures.
  • For individuals in the tech industry: Recognize that building transformative technology is an inherently political act that will draw the interest of states. Engaging with those politics is not optional.
  • In public communication about AI ethics and safety, connect concerns (like mass surveillance) directly to tangible, existing legal loopholes and advocate for specific legislative fixes, making the argument more actionable and less abstract.

Khi một công ty tư nhân xây dựng được thứ gì đó đủ mạnh để cạnh tranh với lợi thế của nhà nước, những người cầm súng chắc chắn sẽ muốn có tiếng nói. Đây là thực tế phũ phàng mà các công ty AI như Anthropic đang đối mặt, như được Ben Thompson phân tích trong một cuộc thảo luận về cuộc đối đầu gần đây giữa phòng thí nghiệm AI này và Bộ Chiến tranh Hoa Kỳ. Thompson lập luận rằng nếu AI thực sự đại diện cho một dạng thức quyền lực mới tương tự vũ khí hạt nhân — một sự so sánh thường được chính CEO của Anthropic đưa ra — thì chúng ta phải đối mặt với những hậu quả địa chính trị và thực tế mà sự phát triển của nó gây ra, vượt ra khỏi những tranh luận lý thuyết về việc kiểm soát AI.


Thompson mổ xẻ mâu thuẫn cơ bản: AI đỉnh cao đang được các công ty tư nhân xây dựng cho thị trường thương mại rộng lớn, nhưng tiềm năng trở thành hệ số nhân sức mạnh của nó khiến các quốc gia-dân tộc không thể cưỡng lại và vô cùng lo ngại. Cuộc xung đột gần đây, khi chính phủ coi Anthropic là rủi ro chuỗi cung ứng sau khi công ty này từ chối gỡ bỏ các biện pháp bảo vệ chống giám sát hàng loạt và vũ khí tự động, chỉ là phát súng mở màn. Đây không chỉ đơn thuần là tranh chấp hợp đồng; đó là bản xem trước của một cuộc đấu tranh lặp đi lặp lại về việc ai kiểm soát công nghệ đột phá. Thompson nhấn mạnh phân tích của ông mang tính mô tả, không phải quy chuẩn — ông không tán thành hành động của chính phủ mà chỉ ra rằng đó là phản ứng có thể dự đoán được trong một thế giới nơi quyền lực cuối cùng xuất phát từ những người có thể thực thi nó.


Cuộc thảo luận mở rộng logic này ra phạm vi quốc tế, đặc biệt là tình thế bấp bênh của Đài Loan và ngành công nghiệp bán dẫn của họ. Thompson chỉ trích việc tập trung thiển cận vào việc làm chậm tiến bộ AI của Trung Quốc bằng cách ngừng cung cấp chip, cảnh báo rằng nếu một khoảng cách năng lực AI khổng lồ mở ra giữa Mỹ và Trung Quốc, nó có thể khiến hành động quân sự chống lại Đài Loan không chỉ khả thi mà còn hợp lý từ góc nhìn của Bắc Kinh. Quan điểm của ông là sự phụ thuộc lẫn nhau, chẳng hạn như để Trung Quốc phụ thuộc vào các nhà máy bán dẫn Đài Loan, tạo ra một trạng thái cân bằng an toàn hơn là cố gắng cô lập công nghệ hoàn toàn — một ví dụ điển hình cho sự đánh đổi tàn khốc định nghĩa chính trị hiện thực.


Cuối cùng, Thompson chỉ ra một điểm mù nguy hiểm trong một bộ phận cộng đồng AI: sự thất bại trong việc điều chỉnh tư duy phù hợp với một thế giới vẫn vận hành dựa trên sức mạnh vật chất và cạnh tranh địa chính trị. Sự lựa chọn, như ông đặt vấn đề, không phải giữa các phương án tốt và xấu mà là giữa các lựa chọn thay thế đầy khiếm khuyết. Con đường phía trước đầy chông gai, đòi hỏi các công ty không chỉ điều hướng sự phù hợp về kỹ thuật với các giá trị con người, mà còn phải phù hợp về chính trị với thực tế quyền lực nhà nước. Giải pháp lý tưởng — những luật mới được Quốc hội thông qua để quản lý giám sát kỹ thuật số và việc sử dụng AI quân sự — có vẻ còn xa vời, nhưng việc để những quyết định mang tính bước ngoặt chỉ nằm trong tay các lãnh đạo công ty tư nhân có thể trở nên không thể chấp nhận được đối với các chính phủ nắm giữ quyền lực tối cao.


Những Góc Nhìn Đáng Suy Ngẫm



  • Chiến lược địa chính trị ổn định nhất liên quan đến AI và Đài Loan có thể là khiến Trung Quốc phụ thuộc nhiều hơn vào sản xuất chất bán dẫn Đài Loan, chứ không phải ít hơn, vì sự phụ thuộc lẫn nhau này có thể ngăn chặn xung đột.

  • Mô hình lịch sử để kiểm soát vũ khí hạt nhân có thể không áp dụng được cho AI, vì các chương trình hạt nhân do nhà nước khởi xướng và có thể theo dõi về mặt vật lý, trong khi AI được thúc đẩy bởi thị trường thương mại tư nhân và dựa trên phần mềm có thể sao chép.

  • Một động cơ đáng kể đằng sau áp lực của chính phủ Mỹ lên các công ty AI có thể không chỉ để giành quyền tiếp cận, mà còn để ngăn họ xây dựng một “căn cứ quyền lực” độc lập ngoài tầm kiểm soát nhà nước.

  • Thỏa hiệp được báo cáo của OpenAI với Lầu Năm Góc — đồng ý hợp tác nhưng bảo lưu quyền chặn các cách sử dụng mô hình cụ thể như giám sát kỹ thuật số — về cơ bản thiết lập một cuộc “đấu tranh đột phá kiểm soát” liên tục với chính phủ Mỹ.

  • Tồn tại một vết nứt văn hóa rõ rệt trong ngành: Lập trường của OpenAI dường như gần với quan điểm chủ đạo của công chúng Mỹ hơn, trong khi sự kháng cự của Anthropic lại phù hợp hơn với tâm tư phổ biến của nhóm nhân tài công nghệ San Francisco.


Những Điều Rút Ra Thực Tiễn



  • Đối với các công ty AI đang điều hướng yêu cầu của chính phủ: Hãy tham gia chính trị. Thay vì chỉ dựa vào sự từ chối mang tính nguyên tắc, hãy đầu tư vào vận động hành lang và tranh luận để định hình các luật mới đang rất cần thiết, biến một cuộc đối đầu thành một chiến dịch lập pháp.

  • Khi đưa ra quyết định chiến lược có tác động địa chính trị (ví dụ: bán chip), hãy cân nhắc rõ ràng các hậu quả thứ cấp và tam cấp, chẳng hạn như hành động của bạn có thể ảnh hưởng thế nào đến tính toán rủi ro của đối thủ liên quan đến xung đột quân sự.

  • Kết hợp phân tích “súng đạn và quyền lực” vào đánh giá rủi ro. Hoạch định kịch bản nên bao gồm không chỉ rủi ro thị trường và kỹ thuật, mà còn cả các phản ứng tiềm năng ở cấp nhà nước, từ các cuộc tấn công quy định đến những biện pháp cực đoan hơn.

  • Đối với cá nhân trong ngành công nghệ: Hãy nhận ra rằng việc xây dựng công nghệ đột phá là một hành động vốn dĩ mang tính chính trị và sẽ thu hút sự quan tâm của các nhà nước. Việc tham gia vào chính trị đó là không thể tránh khỏi.

  • Trong truyền thông công chúng về đạo đức và an toàn AI, hãy kết nối các mối quan tâm (như giám sát hàng loạt) trực tiếp với các lỗ hổng pháp lý hiện hữu, cụ thể và vận động cho các sửa đổi lập pháp cụ thể, làm cho lập luận trở nên khả thi hơn và bớt trừu tượng.


當一家私營企業打造出足以匹敵國家優勢的強大事物時,掌握槍桿子的人必然會要求發言權。這是人工智慧公司Anthropic所面臨的殘酷現實——本·湯普森在探討這間AI實驗室與美國戰爭部近期對峙的對話中,拆解了此議題。湯普森指出,如果AI真如Anthropic執行長常比擬的那樣,代表著堪比核武的新型權力型態,那麼我們必須直面其發展引發的地緣政治與實體世界後果,而非僅停留於AI價值對齊的理論辯論。


湯普森剖析了核心矛盾:尖端AI雖由私企為廣闊商業市場開發,但其作為「戰力倍增器」的潛能,對民族國家而言既難以抗拒又深具威脅。近期衝突只是序幕——政府因Anthropic拒絕移除大規模監控與自主武器防護機制,將其列為供應鏈風險。這不僅是合約糾紛,更是關於「誰掌控變革性技術」反覆爭鬥的預演。湯普森強調其分析屬描述性而非規範性:他並非認同政府行為,而是點出在權力終究歸於執行者世界的必然反應。


對話將此邏輯延伸至國際層面,尤其台灣及其半導體產業的危局。湯普森批判美國僅透過晶片禁運遲滯中國AI發展的短視策略,警告若美中AI能力出現巨大鴻溝,從北京視角出發,對台動武不僅可能甚至具合理性。他認為,讓中國依賴台灣晶圓廠的「相互依存」狀態,比試圖全面科技孤立更能創造安全平衡——這正是現實政治中殘酷權衡的經典案例。


湯普森最終指出AI領域的危險盲點:未能將思考對齊於仍由實體權力與地緣競爭運作的世界。他強調,選擇不在善惡之間,而在皆有缺陷的方案之間。前路荊棘密佈,企業不僅需讓技術與人類價值觀對齊,更須在政治上與國家權力現實接軌。理想解方——國會通過監管數位監控與軍事AI的新法律——看似遙遠,但將重大決策全權交由企業高管,對握有終極權力的政府恐難以容忍。


突破性洞見



  • 關於AI與台灣,最穩健的地緣戰略可能是讓中國更深度依賴台灣半導體製造,而非降低依賴,因為相互依存能抑制衝突。

  • 核武管制歷史模式未必適用於AI:核計畫由國家主導且具實體可追蹤性,AI卻由私營商業市場驅動,且建立在可複製軟體之上。

  • 美國政府施壓AI企業的深層動機,或許不只是為了取得技術管道,更是要防止企業建立國家控制外的獨立「權力基地」。

  • OpenAI據傳與五角大廈達成妥協——同意合作但保留封鎖特定用途(如數位監控)的權利——實則開啓了與政府持續的「越獄競爭」。

  • 業內存在顯著文化裂痕:OpenAI立場較貼近美國主流民意,Anthropic的抗爭則更符合舊金山科技人才圈的普遍思潮。


實務啟示



  • 面對政府要求的AI企業:展開政治行動。與其僅原則性拒絕,應投入遊說倡議以形塑迫切所需的新法律,將對抗轉化為立法運動。

  • 做涉地緣影響的戰略決策時(如晶片銷售),須明確權衡二、三級效應,例如行動如何改變對手對軍事衝突的風險評估。

  • 將「武力與權力」分析納入風險評估。情境規劃應涵蓋市場技術風險,更需包含從監管打擊到極端措施的國家級反應。

  • 科技從業者須認知:開發變革性技術本質即政治行為,必然引來國家關注。參與相關政治議題非可選項。

  • 在AI倫理與安全的公共論述中,應將憂慮(如大規模監控)連結具體法律漏洞,並倡導明確立法修補,使論證更具行動性與實質性。


En el momento en que una empresa privada construye algo lo suficientemente poderoso como para rivalizar con la ventaja de un Estado, quienes poseen armas inevitablemente querrán tener voz. Esta es la cruda realidad a la que se enfrentan empresas de IA como Anthropic, como explica Ben Thompson en una conversación que examina el reciente enfrentamiento entre el laboratorio de IA y el Departamento de Guerra de EE.UU. Thompson argumenta que, si la IA representa verdaderamente una nueva forma de poder equiparable a las armas nucleares (una comparación que a menudo hace el propio CEO de Anthropic), entonces debemos lidiar con las consecuencias geopolíticas y en el mundo físico que desencadena su desarrollo, superando los debates teóricos sobre la alineación de la IA.


Thompson disecciona la tensión fundamental: la IA más avanzada está siendo construida por empresas privadas para un mercado comercial amplio, pero su potencial como multiplicador de fuerza la hace irresistible y profundamente preocupante para los Estados-nación. El conflicto reciente, en el que el gobierno designó a Anthropic como un riesgo para la cadena de suministro después de que se negó a eliminar salvaguardias contra la vigilancia masiva y las armas autónomas, es solo el primer disparo. Esto no es simplemente una disputa contractual; es un anticipo de una lucha recurrente sobre quién controla la tecnología transformadora. Thompson subraya que su análisis es descriptivo, no normativo —no está respaldando las acciones del gobierno, sino señalando que son una reacción predecible en un mundo donde el poder fluye, en última instancia, de quienes pueden imponerlo.


La conversación extiende esta lógica al escenario internacional, particularmente a la precaria situación de Taiwán y su industria de semiconductores. Thompson critica el enfoque miope de ralentizar el avance de la IA china reteniendo chips, advirtiendo que si se abre una brecha masiva de capacidades de IA entre EE.UU. y China, esto podría hacer que una acción militar contra Taiwán no solo sea posible sino racional desde la perspectiva de Pekín. Su punto de vista es que la interdependencia, como permitir que China dependa de las fundiciones taiwanesas, crea un equilibrio más seguro que intentar un aislamiento tecnológico total —un ejemplo clásico de los crueles intercambios que definen la realpolitik.


En última instancia, Thompson identifica un peligroso punto ciego en partes de la comunidad de la IA: un fracaso en alinear su pensamiento con un mundo que aún opera en base al poder físico y la competencia geopolítica. La elección, como él la plantea, no es entre opciones buenas y malas, sino entre alternativas imperfectas. El camino a seguir está plagado de dificultades, exigiendo que las empresas naveguen no solo la alineación técnica con los valores humanos, sino también la alineación política con las realidades del poder estatal. La resolución ideal —nuevas leyes aprobadas por el Congreso para regular la vigilancia digital y el uso militar de la IA— parece lejana, pero la alternativa de dejar decisiones monumentales únicamente en manos de ejecutivos privados puede resultar intolerable para los gobiernos que poseen la autoridad última.


Perspectivas Sorprendentes



  • La estrategia geopolítica más estable respecto a la IA y Taiwán podría ser hacer que China dependa más, no menos, de la fabricación de semiconductores taiwanesa, ya que esta interdependencia podría disuadir conflictos.

  • El modelo histórico para regular las armas nucleares podría no aplicarse a la IA, porque los programas nucleares fueron iniciados por Estados y son físicamente rastreables, mientras que la IA está impulsada por mercados privados y comerciales y se basa en software replicable.

  • Una motivación importante detrás de la presión del gobierno estadounidense sobre las empresas de IA podría ser no solo obtener acceso, sino evitar que construyan una “base de poder” independiente fuera del control estatal.

  • El compromiso reportado de OpenAI con el Pentágono (aceptar cooperar pero reservando el derecho a bloquear usos específicos de modelos, como la vigilancia digital) esencialmente establece una continua “competencia de desbloqueo” con el gobierno de EE.UU.

  • Existe una pronunciada brecha cultural dentro de la industria: la postura de OpenAI parece más cercana a la opinión pública estadounidense predominante, mientras que la resistencia de Anthropic se alinea más con el sentir predominante del talento tecnológico de San Francisco.


Conclusiones Prácticas



  • Para empresas de IA que navegan las demandas gubernamentales: Comprometerse políticamente. En lugar de depender únicamente de una negativa por principios, invertir en cabildeo y defensa para dar forma a las nuevas leyes que se necesitan con urgencia, transformando una confrontación en una campaña legislativa.

  • Al tomar decisiones estratégicas con impacto geopolítico (por ejemplo, venta de chips), sopesar explícitamente las consecuencias secundarias y terciarias, como cómo tus acciones podrían influir en el cálculo de riesgos de un adversario respecto a conflictos militares.

  • Incorporar análisis de “armas y poder” en las evaluaciones de riesgo. La planificación de escenarios debe incluir no solo riesgos de mercado y técnicos, sino también posibles reacciones a nivel estatal, desde ataques regulatorios hasta medidas más extremas.

  • Para individuos en la industria tecnológica: Reconocer que construir tecnología transformadora es un acto inherentemente político que atraerá el interés de los Estados. Participar en esa política no es opcional.

  • En la comunicación pública sobre ética y seguridad de la IA, conectar las preocupaciones (como la vigilancia masiva) directamente con vacíos legales tangibles y existentes, y abogar por soluciones legislativas específicas, haciendo el argumento más factible y menos abstracto.


No momento em que uma empresa privada constrói algo suficientemente poderoso para rivalizar com a vantagem de um Estado, as pessoas com armas inevitavelmente desejarão ter uma palavra a dizer. Essa é a dura realidade enfrentada por empresas de IA como a Anthropic, conforme analisado por Ben Thompson em uma conversa que examina o recente impasse entre o laboratório de IA e o Departamento de Guerra dos EUA. Thompson argumenta que, se a IA realmente representa uma nova forma de poder semelhante a armas nucleares — uma comparação frequentemente feita pelo próprio CEO da Anthropic —, então devemos lidar com as consequências geopolíticas e do mundo físico que seu desenvolvimento desencadeia, indo além dos debates teóricos sobre o alinhamento da IA.


Thompson analisa a tensão fundamental: a IA de ponta está sendo construída por empresas privadas para um amplo mercado comercial, mas seu potencial como multiplicador de força a torna irresistível e profundamente preocupante para os Estados-nação. O recente conflito, no qual o governo designou a Anthropic como um risco para a cadeia de suprimentos depois que ela se recusou a remover salvaguardas contra vigilância em massa e armas autônomas, é apenas o primeiro tiro. Isso não é meramente uma disputa contratual; é uma prévia de uma luta recorrente sobre quem controla a tecnologia transformadora. Thompson enfatiza que sua análise é descritiva, não normativa — ele não está endossando as ações do governo, mas apontando que elas são uma reação previsível em um mundo onde o poder, em última análise, emana daqueles que podem impô-lo.


A conversa estende essa lógica para o cenário internacional, particularmente a situação precária de Taiwan e sua indústria de semicondutores. Thompson critica um foco míope em retardar o avanço da IA chinesa ao reter chips, alertando que, se um enorme abismo de capacidade de IA se abrir entre os EUA e a China, isso poderia tornar uma ação militar contra Taiwan não apenas possível, mas racional da perspectiva de Pequim. Sua visão é que a interdependência, como permitir que a China dependa das fábricas taiwanesas, cria um equilíbrio mais seguro do que tentar o isolamento tecnológico total — um exemplo clássico das trocas brutais que definem a realpolitik.


Por fim, Thompson identifica um ponto cego perigoso em partes da comunidade de IA: uma falha em alinhar seu pensamento com um mundo que ainda opera com base em poder físico e competição geopolítica. A escolha, como ele a enquadra, não é entre opções boas e ruins, mas entre alternativas imperfeitas. O caminho à frente é árduo, exigindo que as empresas naveguem não apenas o alinhamento técnico com os valores humanos, mas também o alinhamento político com as realidades do poder estatal. A resolução ideal — novas leis aprovadas pelo Congresso para regular a vigilância digital e o uso militar de IA — parece distante, mas a alternativa de deixar decisões monumentais exclusivamente nas mãos de executivos privados pode se mostrar intolerável para os governos que detêm a autoridade final.


Insights Surpreendentes



  • A estratégia geopolítica mais estável em relação à IA e Taiwan pode ser tornar a China mais dependente da fabricação de semicondutores de Taiwan, e não menos, pois essa interdependência poderia dissuadir conflitos.

  • O modelo histórico para regular armas nucleares pode não se aplicar à IA, porque os programas nucleares foram iniciados por Estados e eram fisicamente rastreáveis, enquanto a IA está sendo impulsionada por mercados privados e comerciais e é baseada em software replicável.

  • Uma motivação significativa por trás da pressão do governo dos EUA sobre empresas de IA pode ser não apenas obter acesso, mas impedi-las de construir uma “base de poder” independente fora do controle estatal.

  • O suposto acordo da OpenAI com o Pentágono — concordar em cooperar, mas reservando o direito de bloquear usos específicos de modelos, como vigilância digital — essencialmente estabelece uma competição contínua de “quebras de segurança” com o governo dos EUA.

  • Há uma clara divisão cultural dentro da indústria: a postura da OpenAI parece mais próxima da opinião pública americana dominante, enquanto a resistência da Anthropic se alinha mais de perto com o sentimento predominante do conjunto de talentos tecnológicos de São Francisco.


Conclusões Práticas



  • Para empresas de IA que navegam pelas demandas governamentais: Envolva-se politicamente. Em vez de confiar apenas na recusa por princípios, invista em lobby e advocacia para moldar as novas leis que são urgentemente necessárias, transformando um confronto em uma campanha legislativa.

  • Ao tomar decisões estratégicas com impacto geopolítico (por exemplo, vendas de chips), pondere explicitamente as consequências secundárias e terciárias, como suas ações podem influenciar o cálculo de risco de um adversário em relação a conflitos militares.

  • Incorpore análises de “armas e poder” nas avaliações de risco. O planejamento de cenários deve incluir não apenas riscos de mercado e técnicos, mas também possíveis reações em nível estatal, desde ataques regulatórios até medidas mais extremas.

  • Para indivíduos na indústria de tecnologia: Reconheça que construir tecnologia transformadora é um ato intrinsecamente político que atrairá o interesse dos Estados. Envolver-se com essas políticas não é opcional.

  • Na comunicação pública sobre ética e segurança da IA, conecte preocupações (como vigilância em massa) diretamente a lacunas legais tangíveis e existentes e advogue por soluções legislativas específicas, tornando o argumento mais acionável e menos abstrato.


In this conversation, previously aired on TBPN, John Coogan and Jordi Hays speak with Ben Thompson, founder of Stratechery, about his essay “Anthropic and Alignment” and the broader collision between AI power and state power that the Anthropic–Department of War standoff revealed.

 

Resources:

Follow Ben Thompson on X: https://twitter.com/benthompson

Follow John Coogan on X: https://twitter.com/johncoogan

Follow Jordi Hays on X: https://twitter.com/jordihays

Follow TBPN on X: https://twitter.com/tbpn

Stay Updated:

Find a16z on YouTube: YouTube

Find a16z on X

Find a16z on LinkedIn

Listen to the a16z Show on Spotify

Listen to the a16z Show on Apple Podcasts

Follow our host: https://twitter.com/eriktorenberg

 

Please note that the content here is for informational purposes only; should NOT be taken as legal, business, tax, or investment advice or be used to evaluate any investment or security; and is not directed at any investors or potential investors in any a16z fund. a16z and its affiliates may maintain investments in the companies discussed. For more details please see a16z.com/disclosures.

Hosted by Simplecast, an AdsWizz company. See pcm.adswizz.com for information about our collection and use of personal data for advertising.

Leave a Reply

a16z Podcasta16z Podcast
Let's Evolve Together
Logo