Salim Ejnaïni
👤 SpeakerAppearances Over Time
Podcast Appearances
Et c'est un peu l'idée.
Alors on n'en est pas à écrire des lettres à moins qu'elles soient gigantesques,
Mais en tout cas, on en est à voir des silhouettes, savoir ce par quoi on passe dans la rue et être impliqué dans son environnement.
Au quotidien, c'est assez fou de se dire que quand on ne voit pas, on ne sait pas nécessairement la taille d'un pylône, la hauteur d'un drapeau ou ce par quoi on passe quand c'est au-dessus de nous.
Parce que la canne ou le chien guide ne vont pas nous dire qu'il y a un pont au-dessus ou qu'il y a des choses comme ça.
Donc ça, c'est vraiment une info descendante et que le cerveau va traiter ensuite exactement comme un sens supplémentaire.
Tiens, par hasard, le sens de la vision.
On est tous plus ou moins faits pour interpréter ça, on s'est rendu compte par des études cliniques menées en France notamment avec le 15-20 que le signal est traité par le cerveau comme un signal visuel grâce à ce qu'on appelle la plasticité cérébrale c'est un phénomène neuronal qui fait que le cerveau récupère l'info
pour se réadapter, et c'est vraiment traité comme de la vision, d'où le nom Sea Haptic, on voit à travers l'haptique, c'est assez incroyable.
Il y a une vraie utilisation qui est faite.
Je suis moi-même utilisateur, je n'en fais pas un secret, de lunettes connectées.
On s'est rendu compte que...
Les métas, oui, qui n'ont pas d'écran et qui, par définition, quand il n'y a pas d'écran, c'est utilisable partout parce que le moyen d'utiliser passe par le son ou par d'autres moyens qu'on a forcément.
Et comment vous les utilisez, les métas, par exemple ?
Alors, à la base, comme créateur de contenu parce que c'est mon activité, mais ensuite, quand l'IA est arrivée, on s'est amusé à demander des descriptions, pas seulement comme les touristes pour avoir une idée du monument qu'on regarde ou de la traduction d'un menu au restaurant, mais pour vraiment, ça décrit moins ce que tu vois devant toi.
Et Meta a entendu ça comme d'autres...
d'autres grosses sociétés, et ils se sont mis à pénétrer le secteur aussi de l'accessibilité.
Donc il y a même des fonctions dédiées aux personnes non-voyantes aujourd'hui sur ce marché.
Et on ambitionne peut-être un jour, avec C-Haptic justement, de fusionner, de créer du lien, et d'aller récupérer les images, les flux de ces lunettes, de ces caméras, pour plus de flexibilité dans l'usage, et les relier directement à l'ascension, pourquoi pas ?
Pardon, je reviens sur une fonction, toujours sur les lunettes connectées, mais cette fonction d'invoquer une IA pour décrire de façon vocale, on l'a intégrée également dans ce clip de lunettes, puisque si je veux avoir de la précision sur les couleurs, savoir François Sorel ce que vous portez et à quel point vous êtes beau gosse, comme vous me le demandiez avant le départ du plateau, je clique ici, j'invoque Gemini et je lui demande de me décrire visuellement