Javier Lacort
👤 SpeakerVoice Profile Active
This person's voice can be automatically recognized across podcast episodes using AI voice matching.
Appearances Over Time
Podcast Appearances
Hay varias formas de hacer esto.
La más directa es con electromiografía.
Básicamente son sensores pegados a la piel que miden las señales eléctricas de los músculos.
El MIT tiene un proyecto que se llama Altego que funciona así.
Tú te pones un dispositivo en el cuello y la mandíbula y puede detectar esas señales que tu cerebro envía a los músculos del habla mientras, entre comillas, hablas contigo mismo internamente.
Tú puedes enviar comandos en ordenador sin pronunciar una palabra, sin mover la cara siquiera.
Esto la NASA lleva tiempo investigándolo.
básicamente quieren que los astronautas puedan comunicarse en entornos muy ruidosos o dentro de los cascos presurizados donde los micrófonos normales no funcionan y una de las ideas es poner sensores a los lados de la garganta que detectan palabras que estás pronunciando dentro de tu cabeza suena mucho a ciencia ficción pero tiene una explicación relativamente sencilla con muchas comillas
Hace unos años Meta compró Control Labs, CTRL Labs, que es una empresa que se dedica a detectar señales musculares en la muñeca para traducirlas en comandos.
Entonces la idea es que puedas controlar unas gafas de realidad aumentada con pequeños gestos de los dedos casi imperceptibles, no con estos pinzamientos y demás que hemos visto con las Vision Pro y con tantos otros productos de la industria del sector, sino con movimientos prácticamente imperceptibles.
Huawei parece estar dando o parece querer dar un paso más.
Han desarrollado una tecnología óptica, es decir, que no necesita que tenga sensores pegados a la piel, ni de la garganta, ni de la muñeca, ni de ningún lado.
Simplemente con cámaras o con sensores de imagen que leen esos micromovimientos desde fuera.
Esto es muy diferente porque esto ya, claro, elimina la barrera de tener que ponerte nada.
Simplemente el dispositivo te mira y entiende lo que dices sin decirlo, lo que no dices más bien.
Hay un tallo importante sobre el fundador de esta empresa, es Abbey at My Sales.
Es la segunda vez que vende una empresa a Apple.
La primera fue PrimeSense en 2013, que muchos recordaréis, a muchos os sonará, porque PrimeSense fue la que desarrollaba sensores 3D que permitían entender a las máquinas la profundidad del espacio, detectar a qué distancia está cada objeto y espaciar eso en tres dimensiones.
Apple compró esa tecnología y años después fue lo que convirtió en Face ID en el primer iPhone, el 10 que lo usó en 2017.
Hace ya nueve años va a ser, madre mía.