Menu
Sign In Search Podcasts Charts People & Topics Add Podcast API Pricing
Podcast Image

Choses à Savoir TECH

Gemini de Google peut analyser le monde en direct ?

25 Mar 2025

Description

Et si votre assistant vocal voyait ce que vous voyez ? C’est désormais une réalité avec Gemini Live, la dernière avancée de Google en matière d’intelligence artificielle. Souvenez-vous, il y a un an, lors de la conférence Google I/O 2024, l’entreprise présentait le Projet Astra : une IA capable d’analyser son environnement grâce à la caméra du smartphone. Aujourd’hui, cette technologie est déployée et déjà repérée par certains utilisateurs.Grâce à Gemini Live, Google pousse encore plus loin l’interaction homme-machine. L’IA peut désormais analyser en temps réel ce qui apparaît à l’écran ou ce qui est filmé par la caméra du téléphone. Une fonction qui change la donne : il suffit de pointer son smartphone vers un objet inconnu pour obtenir instantanément des informations précises. Vous avez une application que vous ne comprenez pas ? Montrez-la à Gemini, et il vous guidera. Besoin d’aide pour un problème technique ? L’IA vous explique directement en observant votre écran.C’est un utilisateur de smartphone Xiaomi qui a eu la surprise de découvrir cette nouvelle fonctionnalité et de la partager sur Reddit, captures d’écran et vidéo à l’appui. On le voit utiliser Gemini Live pour analyser son écran d’accueil et obtenir des explications sur ses notifications et ses widgets. Un aperçu concret du futur des assistants virtuels ! Pour l’instant, cette innovation est uniquement disponible pour les abonnés du plan Google One AI Premium, facturé 21,99 euros par mois. Un moyen pour Google de monétiser son IA tout en testant ses avancées auprès d’un public restreint avant un déploiement plus large.Avec cette mise à jour, Google rattrape son retard sur OpenAI et Amazon. ChatGPT propose depuis plusieurs mois une Live Camera similaire, et Alexa+, le futur assistant d’Amazon, intégrera lui aussi une vision en direct via les écrans connectés. À quand un assistant intégré dans des lunettes connectées, capable de voir et d’interagir avec le monde sans même sortir son smartphone ? Google pose les bases d’une intelligence artificielle plus immersive et intuitive, où l’utilisateur n’a plus besoin de taper une requête, mais simplement de montrer. Un pas de plus vers un futur où l’IA ne sera plus seulement une voix, mais un véritable compagnon numérique capable de voir et comprendre notre environnement. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Audio
Featured in this Episode

No persons identified in this episode.

Transcription

This episode hasn't been transcribed yet

Help us prioritize this episode for transcription by upvoting it.

0 upvotes
🗳️ Sign in to Upvote

Popular episodes get transcribed faster

Comments

There are no comments yet.

Please log in to write the first comment.