Menu
Sign In Search Podcasts Charts People & Topics Add Podcast API Blog Pricing
Podcast Image

Comentaristas

Entenda a ruptura entre Pentágono e Anthropic

02 Mar 2026

Transcription

Chapter 1: What are the main conflicts between the Pentagon and Anthropic?

1.651 - 22.677 Pedro Doria

Conversa de primeira. Vida digital com Pedro Doria. Bom dia para você, Pedro.

0

23.217 - 52.495 Milton

Bom dia, Milton. Bom dia, Cássia. Bom dia, Pedro. Pedro Doria, ao mesmo tempo que assistimos ao conflito Estados Unidos-Israel contra o Irã, há uma batalha interna nos Estados Unidos envolvendo o tema da inteligência artificial. E os atores dessa batalha são o Pentágono e a Antropic. Explica para nós. Pois é, Milton. Sempre lembrando para os nossos ouvintes, a Antropic é uma das três grandes potências de inteligência artificial em rivalidade com o Google e com a OpenAI. A Antropic faz o modelo Cloud.

0

53.255 - 75.614 Pedro Doria

Pois bem, teve uma ruptura violenta no finalzinho da semana passada, inclusive pegando aqui o fim de semana, entre a Antropia e o Pentágono. O Pentágono é aquilo que durante todas as nossas vidas foi chamado de departamento de defesa e que o presidente Donald Trump chamou agora de departamento de guerra. A gente está falando das Forças Armadas Americanas.

0

76.694 - 96.91 Pedro Doria

Existia um contrato entre Antropic para fornecer o seu modelo de inteligência artificial, o mesmo modelo que nós usamos, o CLOD, que qualquer um pode usar, para o uso do Pentágono de inúmeras maneiras, desde transcrever reuniões até inclusive fazer planejamento de operações de guerra.

0

96.91 - 122.965 Pedro Doria

E toda essa operação que levou à morte do Ayatollah Ali Khamenei, essa operação foi planejada usando o CLOB, o modelo de inteligência da Antropic. Mas o problema é o seguinte. Num determinado momento, o secretário de guerra, Pete Hessef, instituiu que queria um contrato aberto, que o Pentágono pudesse usar para qualquer fim o modelo de inteligência artificial. A Antropic, a empresa, teve um problema com isso.

Chapter 2: What specific clauses does Anthropic refuse to allow in its contract with the Pentagon?

122.965 - 150.758 Pedro Doria

O que ela afirma? Ela afirma que ela não permite o uso para dois fins específicos. Espionagem em massa de cidadãos americanos, um. E número dois, armas autônomas, ou seja, armas pilotadas por inteligência artificial que tomam a decisão de quem vive, quem morte, qual é o alvo, sem a intervenção humana, sem que um ser humano veja aquela decisão que o IAA tomou e diga sim.

0

151.855 - 178.147 Pedro Doria

O Pentágono não queria mais essas cláusulas. A Antropic listou uma linha no chão e falou, olha, daqui a gente não passa, essas cláusulas precisam estar. Seria apenas uma ruptura contratual. Mas Pechaksev queria mais do que uma ruptura contratual. Diz que se a Antropic não permitisse esses usos, o que aconteceria? A empresa seria banida de ter qualquer contrato com o governo norte-americano e mais do que isso.

0

179.058 - 201.704 Pedro Doria

Além de não poder ter nenhum contrato com o governo norte-americano, a empresa seria proibida de ter contrato com qualquer empresa que tenha contratos com o governo americano, ou seja, qualquer empresa americana. E a Antropic é uma empresa B2B, é uma empresa que vive principalmente de contratos com outras empresas, muito menos do que consumidores.

0

201.822 - 216.335 Pedro Doria

No fim de semana, Sam Altman, CEO da OpenAI, afirmou que assinou um contrato para substituir a Antropic no Pentágono. Ou seja, a OpenAI assumindo o lugar da Antropic. Antropic que é uma dissidência da OpenAI.

0

217.246 - 234.492 Pedro Doria

A OpenAI, exatamente. O Dario Amodei, que é o atual CEO da Anthropic, foi o sujeito que fez o 7GPT-1 e o 2. Quer dizer, ele é meio que um dos inventores dessa inteligência artificial que nós usamos hoje. É um cara brilhante.

Chapter 3: How did OpenAI replace Anthropic in Pentagon contracts?

234.492 - 255.299 Pedro Doria

Sim. Agora, tem uma curiosidade aí nesse momento do Sam Altman, nessa briga dele com o Dario Amodei. Tem uma curiosidade aí, porque o Altman diz que no contrato da OpenAI com o Pentágono, haverá cláusulas dizendo que não podem ser usados, o GPT não pode ser usado.

0

256.447 - 283.531 Pedro Doria

para vigilância em massa e não pode ser usado, ora pois, para armas autônomas. Aí Milton, você vai perguntar, a Cássia vai perguntar, nossos ouvintes estão perguntando, mas vem cá, explica esse troço direito. Como que a razão de ruptura do contrato ali e a guerra do governo americano com a Tropic, de repente não há um problema com a OpenAI? Ninguém está sabendo responder essa pergunta, tá?

0

283.97 - 300.203 Cássia

Agora, tem a possibilidade desse tipo de arma autônoma, a respeito da qual já tinha se manifestado contra a Antropic, ter sido usado agora nesse conflito que a gente viu no fim de semana, no bombardeio do Irã pelos Estados Unidos e Israel?

0

300.929 - 316.859 Pedro Doria

O Pentágono diz em que eles usaram inteligência artificial para esses ataques. Cássia, então a gente não sabe esses detalhes. Foi usado no planejamento, provavelmente para análise pesada de dados.

0

316.859 - 346.238 Pedro Doria

É um modelo melhor do que o GPT quando você tem que pegar muito número e fazer conta com esses muitos números, sabe? Aproximações, esse tipo de coisa. E a gente, quando está falando desse tipo de ataque, a gente está falando de coordenadas, né? A gente está falando de pegar inúmeras informações que vêm de inúmeros espiões, mas dados que foram coletados de servidores que foram invadidos por hackers americanos no Irã e juntar todas essas informações e começar a tirar conclusões a partir delas.

Chapter 4: What potential risks arise from using AI in military operations?

346.238 - 376.073 Pedro Doria

Veja que os americanos sabiam exatamente onde estava o Hamedei e acertaram com bombas muito precisas. Hoje em dia não dá mais para você fazer esse tipo de coisa sem usar a inteligência artificial, porque acelera muito o processo. Não tem nenhum indício que armas autônomas usando inteligência artificial jamais tenham sido usadas no mundo. A gente não tem nenhuma pista, nenhuma mostra de que isso tenha acontecido. O problema é... Veja...

0

376.31 - 404.17 Pedro Doria

O Irã é um problema. Eu convivi muito tempo com iranianos. Eu estudei na universidade nos Estados Unidos o sistema político iraniano atual. É muito impressionante o quanto que a ditadura dos ayatollahs é absolutamente odiada no Irã. É uma ditadura horrorosa, muito pior do que qualquer ditadura que nós temos aqui no Brasil. Mas uma coisa que presidentes americanos jamais fizeram

0

404.491 - 431.035 Pedro Doria

foi, apesar de tudo isso, apesar da imprevisibilidade do Irã que existe, o que jamais se fez foi, vamos lá, vamos matar o supremo líder do Irã. Isso é uma linha que os Estados Unidos nunca seguiu, porque é de legalidade duvidosa mesmo. Donald Trump tem essa imprevisibilidade. Então, eu acho que essa restrição da Antropic vem justamente disso. Esse cara é maluco, pode fazer.

0

431.339 - 449.699 Pedro Doria

pode decidir começar uma guerra ou permitir que inteligências artificiais assumam o comando de parte do armamento americano e aí as podem decidir começar uma guerra. Quer dizer, existe um risco aí que a gente não sabe avaliar. Então a regra aparentemente vem não...

0

450.104 - 479.399 Pedro Doria

de ter sido usado já, mas do medo de que um presidente tão imprevisível quanto Donald Trump possa decidir simplesmente botar. E aí, um problema gigante acontecer. E as não são seguras hoje para tomarem a decisão de quem vive e quem morre sem que um ser humano chegue lá e confirme aquela decisão. Muito obrigado por esse alerta e esse conhecimento, Pedro Doria. Bom dia. Bom dia. Até. Até.

Comments

There are no comments yet.

Please log in to write the first comment.