Menu
Sign In Search Podcasts Charts People & Topics Add Podcast API Blog Pricing
Podcast Image

Loop Infinito (by Xataka)

Quién aprieta el gatillo

26 Feb 2026

Transcription

Chapter 1: What are the implications of AI in military operations?

5.06 - 22.341 Javier Lacort

Hola, soy Javier Lacorte y esto es Loop Infinito, podcast diario de Sataka. ¡Empezamos! Antes de entrar en el tema de hoy, quiero daros un pequeño aviso antes. Lo que voy a contar puede sonar un poco a primera vista o a primera escuchada como una pelea que pasa muy lejos y que nos pilla muy lejos.

0

22.402 - 35.799 Javier Lacort

Una empresa americana con el ejército americano, con una ley americana de hace un montón de años y, lógicamente, podéis pensar, bueno, pues hay ellos con sus cosas, a mí en qué me afecta esto, ¿no? Ya tenemos aquí suficiente lío. Vale, os pido que os quedéis un momento y luego ya si queréis os vais, pero me explico.

0

35.92 - 53.227 Javier Lacort

Debajo de esa historia hay muchas preguntas que no tienen nada de locales estadounidenses, sino que son preguntas para todos sobre qué pasa cuando una IA puede matar, sobre quién decide cómo se usa esa herramienta y sobre si los marcos legales que tenemos construidos desde hace un montón de décadas para proteger a la gente tienen algo que decir cuando la IA entra en la ecuación.

0

53.247 - 59.717 Javier Lacort

Y la respuesta sobre toda esta última pregunta, os adelanto ya, es que no lo sabemos y eso sí que nos afecta a todos. Vamos por partes.

0

Chapter 2: How is Anthropic positioned in the AI landscape?

59.737 - 67.87 Javier Lacort

Anthropic es la empresa que hace Cloud. Muchos de vosotros la usaréis, sobre todo ahora con Cloud Code. O lo habréis probado, habréis escuchado mucho hablar.

0

67.89 - 82.992 Javier Lacort

Anthropic la fundaron hace 4 o 5 años un grupo de antiguos investigadores de OpenAI que se fueron precisamente porque querían hacer las mismas cosas que en OpenAI, pero de otra manera, de forma distinta a OpenAI, con más atención a la seguridad y a los riesgos. Y siempre ha sido su apuesta diferencial

0

82.972 - 109.941 Javier Lacort

explicar que no son únicamente quienes hacen un modelo potente sino que son también los que suelen pensar a las consecuencias de todo lo que hacen y con esa bandera han llegado hasta aquí con una valoración que lleva por casi 400.000 millones de dólares se dice pronto para que luego digas que la ética no vende y están en una posición claramente privilegiada a día de hoy sobre todo como estaban hace unos dos años donde pasaban un poquito más por bajo del radar para todo el mundo que no está muy en este mundillo

0

110.393 - 130.275 Javier Lacort

El año pasado, el Pentágono de Estados Unidos firmó contratos con cuatro empresas de IA, Anthropic, Google, OpenAI y XAI, la de Elon Musk. Contratos de hasta 200 millones de dólares cada uno. Anthropic fue la primera que tuvo la autorización para operar en los sistemas más sensibles del ejército, los clasificados, que son los que manejan información que no puede ver cualquiera.

0

130.255 - 132.979 Javier Lacort

Durante un tiempo ha sido la única empresa con esa autorización.

Chapter 3: What ultimatum did the Pentagon give to Anthropic?

132.999 - 147.698 Javier Lacort

¿Por qué? Porque los modelos de Claude son, según los propios funcionarios del Pentágono, los más avanzados para ciertos usos militares. Eso es importante, tener ese dato en la cabeza. El martes, el secretario de Defensa convocó al ciudadano de Anthropic, a Darío Modey, a una reunión en el Pentágono.

0

147.918 - 169.949 Javier Lacort

La reunión, según han dicho distintas fuentes, CNBC, Axios y alguna más, dicen que fue cordial pero tensa y que el secretario le dio un ultimátum a Modey. Le dijo que Anthropic tiene hasta el viernes por la noche, es decir, mañana, para entregar acceso sin restricciones a Claude. Nada de límites, nada de condiciones, nada de salvaguardas éticas ni nada así, ¿no? Sin líneas rojas.

0

170.51 - 173.214 Javier Lacort

Y si no lo hace, el Pentágono ha puesto sobre la mesa dos opciones.

0

Chapter 4: What are the ethical concerns surrounding autonomous weapons?

173.795 - 188.097 Javier Lacort

La primera es invocar la Ley de Protección de Defensa, que es una normativa de los años 50 diseñada para emergencias nacionales que permite que el gobierno obligue a las empresas privadas a producir o adaptar sus productos para un uso militar aunque ellas no quieran.

0

188.538 - 198.433 Javier Lacort

A lo mejor recordáis que esto es lo que usaron durante la pandemia para hacer la producción de vacunas o respiradores y aquí lo usarían para forzar a Antropica a abrir su modelo, es decir, sin salvaguardas.

0

198.599 - 213.689 Javier Lacort

La segunda opción es etiquetar Anthropic como un riesgo para la cadena de suministro, que básicamente equivale a poner en una lista negra y a partir de ahí todos los proveedores y todos los contratistas del departamento de defensa, el equivalente a nuestro ministerio de defensa, tendrían que certificar que no usan cloud en ninguno de sus flujos de trabajo.

0

213.889 - 232.227 Javier Lacort

Eso sería un destrozo importante para la empresa, para Anthropic. Amodei salió de la reunión, hizo una declaración muy educada, muy comedida sobre las conversaciones de buena fe que estaban teniendo, dijo, y mantuvo sus posiciones. ¿Cuáles son esas posiciones de Amodei? Anthropic tiene dos cosas que no quiere que se hagan con Claude. Son esas dos grandes líneas rojas.

0

232.828 - 238.68 Javier Lacort

Una es que se use en sistemas de vigilancia masiva de ciudadanos, que luego entraré un poco con eso, que también tiene su miga.

Chapter 5: Who is responsible when AI causes harm?

238.66 - 257.152 Javier Lacort

Y la otra, lo que estamos hablando aquí sobre todo, es que se use en armas, y ojo, que está aquí la clave de todo, armas que se disparen sin que un ser humano tome la decisión final. Eso es todo. El Pentágono dice que quiere acceso para todos los usos legales, y ahí es donde está el choque, ahí es donde está el conflicto. Google y OPNI ya han aceptado los términos del Pentágono.

0

257.953 - 269.905 Javier Lacort

XAI también ha firmado a resueltas de los sistemas estos clasificados. Y Anthropic se ha quedado bastante sola sosteniendo esta postura. Y ahora viene lo interesante. El secretario ha dicho que esta postura de Anthropic es básicamente IA woke.

0

270.305 - 282.117 Javier Lacort

Ya sabéis, el término que usa no solo ella, pero sobre todo la administración Trump, para cualquier tipo de restricción, entre otras cosas, en el uso de estas herramientas. Lo que Anthropic llama salvaguardas éticas,

0

Chapter 6: How do current laws address AI accountability?

282.097 - 296.916 Javier Lacort

El Pentágono dice que son obstáculos ideológicos y esto ya nos dice mucho sobre en qué términos se está produciendo este debate allí. Más allá del ruido político, que lo hay, la discusión de fondo va a marcar los próximos años y es si las empresas que crean IA

0

297.166 - 313.043 Javier Lacort

tienen algún derecho a poner condiciones sobre cómo se usa lo que hacen o si una vez que firman un contrato con el gobierno tienen que renunciar a cualquier capacidad de control y supervisión sobre su propio producto. Tanto OpenAI como Google han dicho que sí a todos los usos legales, todo lo que el gobierno... quiera hacer.

0

313.645 - 327.578 Javier Lacort

El problema con esa respuesta, el conflicto, es que legal es un concepto muy amplio. Es decir, legal no equivale a ético, sabiendo que es una cosa bastante subjetiva. Legal no equivale a proporcional. Y legal, en el contexto de operaciones militares clasificadas,

0

327.558 - 333.047 Javier Lacort

Tiene un perímetro que seguramente ningún ciudadano y a lo mejor ningún empleado de estas empresas va a poder verificar desde fuera.

0

Chapter 7: What challenges do governments face with AI surveillance?

333.267 - 354.882 Javier Lacort

No digo que me parezca bien ni mal, solo describo que es algo legal y que no es en estos términos. Anthropic ha intentado mantener algo distinto que podemos resumir en mensajes como no nos uséis para vigilancia masiva, no nos uséis para armas sin que un humano decida cuándo disparar. Lo que el Pentágono está contestando básicamente es no vais a decirnos cómo hacemos nuestro trabajo.

0

355.857 - 361.484 Javier Lacort

El argumento del Pentágono creo que como mínimo no es descartable, sea cual sea vuestra ideología y vuestra posición en esto.

0

362.706 - 379.086 Unknown

Es decir, otros bloques, principalmente China y Rusia, quién sabe si mañana India, no van a esperar a que Estados Unidos resuelva sus problemitas éticos. Si la idea militar ya existe, y existe ya, la posición responsable no es si la usamos o no, creo yo, sino cómo hacerlo. Eso es real.

0

379.286 - 391.853 Javier Lacort

Eso es saber en qué mundo vivimos, para bien o para mal, que no es un mundo de rosas y de unicornios. Pero también es real lo que dice Amodei cuando habla del riesgo de acabar con un puñado de personas capaces de operar un ejército de drones sin necesitar que ningún otro ser humano coopere.

0

392.355 - 396.425 Javier Lacort

Y eso tampoco es ciencia ficción, eso es literalmente para lo que sirve un sistema autónomo bien diseñado.

Chapter 8: What future regulations might emerge for AI usage?

396.826 - 417.238 Javier Lacort

Y aquí es donde quiero parar un momento. Porque hay algo en esa historia que me parece mucho más importante que esta disputa en sí. Todo ese sistema legal, todo ese sistema ético de las fuerzas armadas modernas descansa sobre un principio que parece muy obvio, pero que tiene consecuencias muy grandes, que es que un soldado puede y debe desobedecer una orden manifiestamente ilegal.

0

417.499 - 427.613 Javier Lacort

Ese es el mecanismo que, en teoría, impide los crímenes de guerra. Claramente no funciona siempre, eso ya lo sabemos todos, pero existe. Es la base sobre la que se ha construido el derecho internacional humanitario

0

427.593 - 442.95 Javier Lacort

Los convenios de Ginebra, los juicios de Nuremberg, esta idea de que hay una cadena de responsabilidad humana detrás de cada acción militar y que en algún punto de esa cadena hay una persona que tomó una decisión y que esa persona puede ser identificada y juzgada. Esto la historia o cine bélico nos lo han enseñado bien.

0

443.611 - 456.327 Javier Lacort

Un sistema autónomo controlado por IA no tiene ese mecanismo, no se puede negar, no puede dudar y no puede ser juzgado en un consejo de guerra. Si ese sistema comete lo que en un humano llamaríamos un crimen de guerra, ¿quién va a responder?

0

456.347 - 473.955 Javier Lacort

¿Va a responder el ingeniero que escribió esa parte del código en una oficina del ECE de San Francisco hace dos años sin tener ni idea de que esto iba a acabar siendo usado para esto? ¿Va a responder el general que activó el sistema esa mañana? ¿Va a responder el presidente que firmó la orden? ¿Va a responder la empresa que vendió el modelo? ¿Quién responde en ese escenario?

474.696 - 491.319 Javier Lacort

El derecho internacional humanitario, como tantas otras cosas, fue escrito mucho antes de la IA, mucho antes de la informática, pensando en seres humanos que toman decisiones, en personas identificables. Ahora la IA difumina muchísimo esa cadena y la hace borrosa, la fragmenta y hace que sea imposible atribuir decisiones con precisión.

491.519 - 504.517 Javier Lacort

Y los marcos legales que tenemos hoy no creo que sepan bien qué hacer con eso. Nadie los ha actualizado para ese escenario y quizás nadie sabe muy bien cómo hacerlo. Y esto no es una cosa teórica, porque en Ucrania, que lleva por cuatro años de guerra, ya hay drones semiautónomos en combate.

504.557 - 515.051 Javier Lacort

Es decir, este debate sobre cuánta autonomía entregarle a un sistema armado no es un debate superfuturista. Esto ya está pasando. Esto no es una cosa para las guerras que hay en los años 30 o 40, sino que esto ya ocurre ahora mismo.

515.551 - 523.682 Javier Lacort

Y hay otro flanco, que os he dicho antes que luego entraba, que es igual menos espectacular, pero también es importante, que es el de la vigilancia masiva, que es la otra línea roja que pone Anthropic.

Comments

There are no comments yet.

Please log in to write the first comment.