Javier Lacort
👤 SpeakerVoice Profile Active
This person's voice can be automatically recognized across podcast episodes using AI voice matching.
Appearances Over Time
Podcast Appearances
¿Qué límites ponemos a lo que los gobiernos pueden pedirle a una IA?
¿Quién pone esos límites?
¿De dónde van a venir esos límites?
Y esto va a ser un debate importante casi ya, en muy poco tiempo.
Una cosa un poco irónica en el fondo de todo esto es
que no quiero dejar de mencionar, es que el mismo funcionario del Pentágono, que amenaza con tomar el control de Anthropic por las malas, le dijo a Axios, creo que era, antes de la reunión, algo como que la única razón por la que seguimos hablando con esta gente es que los necesitamos y los necesitamos ya.
El problema para ellos es que son así de buenos.
O sea, necesitamos exactamente lo que nos están negando y somos conscientes de ello.
Eso es lo que se llama una negociación con una dinámica muy peculiar, porque Google y OpenAI
Podrían reemplazar a Claude en teoría, pero llevaría un tiempo y en algunas aplicaciones específicas ya han dicho que Claude está por delante.
XAI acaba de entrar en sistemas clasificados, pero aún no está aprobado.
El Pentágono seguramente necesita Anthropic, a lo mejor hasta más de lo que Anthropic necesita el Pentágono, aunque los 200 kilos que le van a cobrar sean un pastón.
Y trabajar con el Pentágono además es una legitimación ante otras instituciones, es currículum.
Y también hay, no nos engañemos, un subtexto político un poco chungo encima de todo esto.
Amodei se posicionó públicamente en contra de Trump durante la campaña electoral.
Anthropic ha estado contratando a varios antiguos colaboradores de Biden.
Entonces, esta etiqueta de IAWOC no la dice el secretario porque sí, hay claramente una guerra cultural muy pegada a esta discusión técnica
y ética que creo que de verdad merece tenerse y esto complica mucho separar argumentos reales del ruido y lo que me parece más importante de esa historia es que al final no es tan relevante quién gana esta batalla concreta y si Anthropic cede
Si mantiene sus posiciones, si se llega a un acuerdo intermedio, lo que sea, eso tiene su importancia, pero creo que no es lo más importante.
Lo más importante es que este conflicto pone sobre la mesa una pregunta que la industria tecnológica lleva años intentando esquivar, que es ¿quién decide los límites de uso de la IA cuando esa IA puede matar?