Javier Lacort
👤 SpeakerVoice Profile Active
This person's voice can be automatically recognized across podcast episodes using AI voice matching.
Appearances Over Time
Podcast Appearances
No solamente es procesar datos de sensores y ejecutar instrucciones programadas, es algo distinto.
Se trata de que un coche pueda pensar a través de situaciones complejas, esas que aparecen pocas veces, pero que son exactamente las que hacen que la conducción autónoma sea tan difícil de resolver.
Por ejemplo, lo que os comentaba hace unos días que pasó en San Francisco, cuando se estropearon, no recuerdo exactamente qué pasó, si fuera luz,
en no sé cuántos semáforos.
Pues si tienes un semáforo que de repente deja de funcionar en una intersección muy transitada, muy complicada de manejar sin un semáforo, un sistema autónomo tradicional se puede quedar ahí bloqueado sin saber qué hacer porque esa situación concreta no estaba en su entrenamiento o al menos no con los condicionantes concretos que pueden ocurrir.
En el caso de Waymo sí que estaba previsto que podía pasar algo así pero no exactamente de esa forma y de ahí vino aquel jaleo.
Alpamayo lo que hace es descomponer el problema en pasos, razonar sobre las posibilidades y tomar una decisión.
Y además te puede explicar también por qué ha decidido lo que ha decidido y te muestra todo ese proceso lógico.
A nivel técnico, sin entrar tampoco mucho en detalle, Alpamayo 1 es lo que llaman un modelo VLA, Vision Language Action, que tiene 10.000 millones de parámetros.
Usa algo que se conoce como racionamiento encadenado, cadena de pensamiento, y básicamente el modelo no solo reacciona a lo que ve, sino que genera una cadena explícita
de razonamiento antes de actuar procesa el vídeo lo que ve en tiempo real genera trayectorias de conducción y al mismo tiempo va mostrando las trazas de razonamiento que justifican cada movimiento un poco como si el coche pudiera ir verbalizando su proceso mental mientras conduce
Aquí viene lo importante, Alpamayo no es un sistema que los fabricantes vayan a poder instalar directamente en sus coches, sino que es algo así como un modelo maestro, una especie de profesor a gran escala, y los fabricantes pueden coger este modelo que es gigante, afinarlo con sus propios datos de flota, destilarlo por usar un término muy de IA en versiones más pequeñas y más rápidas que sí funcionen en un coche real, o bien usarlo como base para desarrollar herramientas de etiqueta automático o de evaluadores de decisiones.
NVIDIA ha liberado el código en Hanging Face, ha lanzado AlpaSIM como framework de simulación de código abierto en GitHub y ha puesto a disposición también más de 1.700 horas de datos de conducción que las tiene recopiladas en geografías y condiciones muy diversas, incluidos ciertos casos un poco extremos que son los más complicados de capturar.
1.700 horas está fenomenal, pero es poquísimo en comparación con lo que tiene acumulado Tesla.
Y aquí es donde hay un símil que creo que lo explica bien, que es que NVIDIA básicamente quiere ser el Android de los coches autónomos.
No construye coches, no compite directamente contra Tesla y compañía en ese sentido.
Lo que hace es proporcionar plataforma tecnológica completa para que otros puedan hacerlo.
Igual que Android no fabricaba teléfonos, más allá de esa anécdota de los Nexus en su momento, ahora con los Pixel.
pero sí que fue lo que permitió que casi cualquier fabricante pudiera crear móviles competitivos, razonables, sin tener que desarrollar todo el sistema operativo desde cero, pues Alpamayo sigue un poco esa misma lógica.