Et si votre assistant vocal voyait ce que vous voyez ? C’est désormais une réalité avec Gemini Live, la dernière avancée de Google en matière d’intelligence artificielle. Souvenez-vous, il y a un an, lors de la conférence Google I/O 2024, l’entreprise présentait le Projet Astra : une IA capable d’analyser son environnement grâce à la caméra du smartphone. Aujourd’hui, cette technologie est déployée et déjà repérée par certains utilisateurs.Grâce à Gemini Live, Google pousse encore plus loin l’interaction homme-machine. L’IA peut désormais analyser en temps réel ce qui apparaît à l’écran ou ce qui est filmé par la caméra du téléphone. Une fonction qui change la donne : il suffit de pointer son smartphone vers un objet inconnu pour obtenir instantanément des informations précises. Vous avez une application que vous ne comprenez pas ? Montrez-la à Gemini, et il vous guidera. Besoin d’aide pour un problème technique ? L’IA vous explique directement en observant votre écran.C’est un utilisateur de smartphone Xiaomi qui a eu la surprise de découvrir cette nouvelle fonctionnalité et de la partager sur Reddit, captures d’écran et vidéo à l’appui. On le voit utiliser Gemini Live pour analyser son écran d’accueil et obtenir des explications sur ses notifications et ses widgets. Un aperçu concret du futur des assistants virtuels ! Pour l’instant, cette innovation est uniquement disponible pour les abonnés du plan Google One AI Premium, facturé 21,99 euros par mois. Un moyen pour Google de monétiser son IA tout en testant ses avancées auprès d’un public restreint avant un déploiement plus large.Avec cette mise à jour, Google rattrape son retard sur OpenAI et Amazon. ChatGPT propose depuis plusieurs mois une Live Camera similaire, et Alexa+, le futur assistant d’Amazon, intégrera lui aussi une vision en direct via les écrans connectés. À quand un assistant intégré dans des lunettes connectées, capable de voir et d’interagir avec le monde sans même sortir son smartphone ? Google pose les bases d’une intelligence artificielle plus immersive et intuitive, où l’utilisateur n’a plus besoin de taper une requête, mais simplement de montrer. Un pas de plus vers un futur où l’IA ne sera plus seulement une voix, mais un véritable compagnon numérique capable de voir et comprendre notre environnement. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
No persons identified in this episode.
This episode hasn't been transcribed yet
Help us prioritize this episode for transcription by upvoting it.
Popular episodes get transcribed faster
Other recent transcribed episodes
Transcribed and ready to explore now
3ª PARTE | 17 DIC 2025 | EL PARTIDAZO DE COPE
01 Jan 1970
El Partidazo de COPE
13:00H | 21 DIC 2025 | Fin de Semana
01 Jan 1970
Fin de Semana
12:00H | 21 DIC 2025 | Fin de Semana
01 Jan 1970
Fin de Semana
10:00H | 21 DIC 2025 | Fin de Semana
01 Jan 1970
Fin de Semana
13:00H | 20 DIC 2025 | Fin de Semana
01 Jan 1970
Fin de Semana
12:00H | 20 DIC 2025 | Fin de Semana
01 Jan 1970
Fin de Semana