Javier Lacort
👤 SpeakerVoice Profile Active
This person's voice can be automatically recognized across podcast episodes using AI voice matching.
Appearances Over Time
Podcast Appearances
¿Cuáles son esas posiciones de Amodei?
Anthropic tiene dos cosas que no quiere que se hagan con Claude.
Son esas dos grandes líneas rojas.
Una es que se use en sistemas de vigilancia masiva de ciudadanos, que luego entraré un poco con eso, que también tiene su miga.
Y la otra, lo que estamos hablando aquí sobre todo, es que se use en armas, y ojo, que está aquí la clave de todo, armas que se disparen sin que un ser humano tome la decisión final.
El Pentágono dice que quiere acceso para todos los usos legales, y ahí es donde está el choque, ahí es donde está el conflicto.
Google y OPNI ya han aceptado los términos del Pentágono.
XAI también ha firmado a resueltas de los sistemas estos clasificados.
Y Anthropic se ha quedado bastante sola sosteniendo esta postura.
Y ahora viene lo interesante.
El secretario ha dicho que esta postura de Anthropic es básicamente IA woke.
Ya sabéis, el término que usa no solo ella, pero sobre todo la administración Trump, para cualquier tipo de restricción, entre otras cosas, en el uso de estas herramientas.
Lo que Anthropic llama salvaguardas éticas,
El Pentágono dice que son obstáculos ideológicos y esto ya nos dice mucho sobre en qué términos se está produciendo este debate allí.
Más allá del ruido político, que lo hay, la discusión de fondo va a marcar los próximos años y es si las empresas que crean IA
tienen algún derecho a poner condiciones sobre cómo se usa lo que hacen o si una vez que firman un contrato con el gobierno tienen que renunciar a cualquier capacidad de control y supervisión sobre su propio producto.
Tanto OpenAI como Google han dicho que sí a todos los usos legales, todo lo que el gobierno...
El problema con esa respuesta, el conflicto, es que legal es un concepto muy amplio.