Javier Lacort
👤 SpeakerVoice Profile Active
This person's voice can be automatically recognized across podcast episodes using AI voice matching.
Appearances Over Time
Podcast Appearances
haya cierto problema logístico, quizás, esperemos que no, pero en cualquier caso no lo voy a tener fácil para tener temas, digamos, con la cadencia habitual.
Entonces, va a haber episodios sí o sí, de la forma habitual, de lunes a viernes a la hora de siempre, pero es posible que en algún punto tengan que anticipar mayor habitual los episodios.
Simplemente os lo digo para que si pasa alguna cosa bestial en tecnología y escucháis el podcast del día siguiente...
y parece que lo estoy obviando simplemente que entendéis que es por eso y os contaremos adelante alguna cosa quizás en el mobile o que puede ser un poco interesante para el cliente final para el consumidor final mientras tanto ahí queda simplemente el aviso dicho eso vuelvo al tema de la noticia que os comentaba
Hola, soy Javier Lacorte y esto es Loop Infinito, podcast diario de Sataka.
Antes de entrar en el tema de hoy, quiero daros un pequeño aviso antes.
Lo que voy a contar puede sonar un poco a primera vista o a primera escuchada como una pelea que pasa muy lejos y que nos pilla muy lejos.
Una empresa americana con el ejército americano, con una ley americana de hace un montón de años y, lógicamente, podéis pensar, bueno, pues hay ellos con sus cosas, a mí en qué me afecta esto, ¿no?
Ya tenemos aquí suficiente lío.
Vale, os pido que os quedéis un momento y luego ya si queréis os vais, pero me explico.
Debajo de esa historia hay muchas preguntas que no tienen nada de locales estadounidenses, sino que son preguntas para todos sobre qué pasa cuando una IA puede matar, sobre quién decide cómo se usa esa herramienta y sobre si los marcos legales que tenemos construidos desde hace un montón de décadas para proteger a la gente tienen algo que decir cuando la IA entra en la ecuación.
Y la respuesta sobre toda esta última pregunta, os adelanto ya, es que no lo sabemos y eso sí que nos afecta a todos.
Anthropic es la empresa que hace Cloud.
Muchos de vosotros la usaréis, sobre todo ahora con Cloud Code.
O lo habréis probado, habréis escuchado mucho hablar.
Anthropic la fundaron hace 4 o 5 años un grupo de antiguos investigadores de OpenAI que se fueron precisamente porque querían hacer las mismas cosas que en OpenAI, pero de otra manera, de forma distinta a OpenAI, con más atención a la seguridad y a los riesgos.
Y siempre ha sido su apuesta diferencial
explicar que no son únicamente quienes hacen un modelo potente sino que son también los que suelen pensar a las consecuencias de todo lo que hacen y con esa bandera han llegado hasta aquí con una valoración que lleva por casi 400.000 millones de dólares se dice pronto para que luego digas que la ética no vende y están en una posición claramente privilegiada a día de hoy sobre todo como estaban hace unos dos años donde pasaban un poquito más por bajo del radar para todo el mundo que no está muy en este mundillo