Monde Numérique (Actu Tech)
🎤 Interview – L’IA qui parle (et écoute) en temps réel (Patrick Pérez, Kyutai)
29 Oct 2025
Le patron du laboratoire français Kyutai détaille les avancées spectaculaires de ses IA vocales open source : interaction fluide, traduction en temps réel et synthèse vocale à la volée.Interview : Patrick Pérez, directeur général de KyutaiUn laboratoire à but non lucratif pour une IA ouverteKyutai est un centre de recherche sur l’intelligence artificielle à but non lucratif, fondé en 2023 grâce au mécénat de Xavier Niel, Rodolphe Saadé et Eric Schmidt, ancien CEO de Google.L’objectif : faire progresser la recherche fondamentale sur les grands modèles d’IA et partager les résultats en open source, du code aux modèles, pour stimuler l’écosystème scientifique mondial.Patrick Pérez, son directeur, le souligne : « nous ne faisons pas de produit, mais de la science ».Moshi : la première IA vocale vraiment naturelleLe premier projet emblématique de Kyutai, Moshi, est une IA conversationnelle sans tour de parole imposé. Elle comprend et répond en temps réel, peut couper la parole à bon escient et saisit les nuances émotionnelles de la voix.Une innovation majeure : Moshi ne passe pas par une transcription textuelle, préservant ainsi le timbre, l’émotion et les intonations. Open-sourcé en 2024, le modèle a déjà été téléchargé plusieurs millions de fois et inspire de nouveaux projets comme Sésame, qui réutilise certaines de ses briques.Ibiki : la traduction simultanée façon interprèteDévoilé au Sommet mondial de l’IA au Grand Palais en 2025, Ibiki traduit une conversation en simultané, tout en préservant la voix originale de l’orateur.Ce modèle, capable de fonctionner sur un smartphone, représente une avancée majeure face aux systèmes propriétaires comme Meta AI ou OpenAI.Encore au stade de prototype, Ibiki démontre la maturité de la recherche française en matière d’IA vocale temps réel et de traduction instantanée expressive.Unmute : la synthèse vocale à la voléeAvec Unmute, Kyutai repousse encore les limites : la synthèse vocale s’effectue en même temps que le texte est généré par un modèle de langage (LLM).Ce procédé permet une réponse instantanée et naturelle, sans latence perceptible. Ces avancées ouvrent la voie à de nouvelles expériences immersives — assistants vocaux, médias parlants ou interfaces interactives.C’est aussi l’un des chantiers clés de l’IA « multimodale », qui marie texte, son et vision dans un même flux de communication.Le futur : multimodalité et accessibilitéKyutai poursuit ses recherches sur la multimodalité, visant à créer des IA capables d’interpréter voix, texte, images et vidéos en temps réel.Certaines de ces briques sont déjà utilisées par le média La Provence pour convertir ses articles en audio expressif.Une application concrète de la mission de Kyutai : rendre la recherche ouverte, utile et inclusive, tout en démontrant que l’innovation européenne peut rivaliser avec les géants américains.-----------♥️ Soutien : https://mondenumerique.info/don 🗞️ Newsletter : https://mondenumerique.substack.comHébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
No persons identified in this episode.
This episode hasn't been transcribed yet
Help us prioritize this episode for transcription by upvoting it.
Popular episodes get transcribed faster
Other recent transcribed episodes
Transcribed and ready to explore now
NPR News: 12-08-2025 2AM EST
08 Dec 2025
NPR News Now
NPR News: 12-07-2025 11PM EST
08 Dec 2025
NPR News Now
NPR News: 12-07-2025 10PM EST
08 Dec 2025
NPR News Now
Meidas Health: AAP President Strongly Pushes Back on Hepatitis B Vaccine Changes
08 Dec 2025
The MeidasTouch Podcast
Democrat Bobby Cole Discusses Race for Texas Governor
07 Dec 2025
The MeidasTouch Podcast
Fox News Crashes Out on Air Over Trump’s Rapid Fall
07 Dec 2025
The MeidasTouch Podcast