Javier Lacort
👤 SpeakerVoice Profile Active
This person's voice can be automatically recognized across podcast episodes using AI voice matching.
Appearances Over Time
Podcast Appearances
El Pentágono seguramente necesita Anthropic, a lo mejor hasta más de lo que Anthropic necesita el Pentágono, aunque los 200 kilos que le van a cobrar sean un pastón.
Y trabajar con el Pentágono además es una legitimación ante otras instituciones, es currículum.
Y también hay, no nos engañemos, un subtexto político un poco chungo encima de todo esto.
Amodei se posicionó públicamente en contra de Trump durante la campaña electoral.
Anthropic ha estado contratando a varios antiguos colaboradores de Biden.
Entonces, esta etiqueta de IAWOC no la dice el secretario porque sí, hay claramente una guerra cultural muy pegada a esta discusión técnica
y ética que creo que de verdad merece tenerse y esto complica mucho separar argumentos reales del ruido y lo que me parece más importante de esa historia es que al final no es tan relevante quién gana esta batalla concreta y si Anthropic cede
Si mantiene sus posiciones, si se llega a un acuerdo intermedio, lo que sea, eso tiene su importancia, pero creo que no es lo más importante.
Lo más importante es que este conflicto pone sobre la mesa una pregunta que la industria tecnológica lleva años intentando esquivar, que es ¿quién decide los límites de uso de la IA cuando esa IA puede matar?
Hasta ahora la respuesta siempre había sido una cosa así un poco abstracta, medio implícita, asumiendo que eran las propias empresas, con estas cosas de las políticas de uso aceptable, los términos de servicio.
Anthropic ha intentado formalizar eso en sus contratos con el gobierno y el gobierno ha dicho no, eso no lo decidís vosotros, el marrón es vuestro y si queréis ser de éticos os vais a enterar.
La alternativa al criterio de las empresas es que haya legislación nueva.
aunque lo decido los tribunales o organismos internacionales, y el panorama ahí tampoco creo que sea el agüeño para nadie, porque los legisladores siempre van años o décadas puertas de la tecnología, los tribunales a veces tienen que trabajar con marcos escritos para otro mundo, como ha pasado aquí, y los organismos internacionales avanzan a la velocidad que permite el consenso, que en temas de armamento autónomo, pues es una cosa que no es que sea lenta, es que es glacial.
Lo que nos estamos jugando es si va a haber algún límite de cualquier tipo a lo que los estados pueden pedirle la IA que haga en su nombre.
Y si ese límite va a llegar de forma proactiva, pensada, negociada, o si va a llegar después de que pase algo grave que nadie haya podido prever.
Parece cuestión de tiempo que lo descubramos.
Yo desde luego apostaría por lo segundo.
De lunes a viernes a las 7.