Google prépare l’avenir de l’intelligence artificielle avec le Projet Astra
Lors de sa conférence I/O, Google a présenté une vidéo démonstrative de son Projet Astra, offrant un avant-goût d’un futur où nous pourrions engager des conversations avec un assistant multimodal intelligent, qui s’adapte à notre […]
Ce que vous allez découvrir
- Le multimodal, kézaco ?
- Qu’est-ce que le Projet Astra ?
- Démonstration du prototype
- Disponibilité
- Conclusion
Google prépare l’avenir de l’intelligence artificielle avec le Projet Astra
Lors de sa conférence I/O, Google a présenté une vidéo démonstrative de son Projet Astra, offrant un avant-goût d’un futur où nous pourrions engager des conversations avec un assistant multimodal intelligent, qui s’adapte à notre environnement. Cela représente une avancée significative dans la technologie de l’IA, allant au-delà des chatbots et des assistants vocaux existants.
Le multimodal, kézaco ?
En intelligence artificielle, le terme multimodal désigne la capacité d’une IA à traiter et interpréter simultanément divers types de données, qu’il s’agisse d’audio, de vidéo, d’images ou de texte. L’IA analyse ces différents éléments pour répondre à vos questions, ce qui lui permet d’interagir avec votre environnement de manière plus naturelle et de proposer une interface plus humaine, comme si vous dialoguiez avec une personne. L’objectif des IA multimodales diffère des modèles d’intelligence générative que vous connaissez, en ce sens, elles cherchent à éliminer la complexité des « prompts » nécessaires pour obtenir des réponses pertinentes.
Contrairement aux systèmes d’IA traditionnels qui se concentrent sur un seul type de données, tels que le texte ou les images, les systèmes multimodaux imitent les capacités cognitives humaines en intégrant diverses sources d’information comme le texte, les images, le son et les données sensorielles. Cette combinaison permet une compréhension plus approfondie et des réponses plus nuancées.
Qu’est-ce que le Projet Astra ?
En suivant Google sur les réseaux sociaux, vous avez peut-être vu une vidéo présentant un assistant vocal multimodal, capable de réagir instantanément à des questions en intégrant des éléments visuels de son environnement. Cette démonstration technologique a été baptisée Project Astra (Projet Astra en français).
Le Projet Astra est une première version d’un assistant innovant. Cet assistant IA en temps réel peut percevoir son environnement, identifier des objets et répondre de manière conversationnelle à diverses requêtes. Il s’agit d’une avancée significative, combinant reconnaissance visuelle et interaction vocale pour une expérience utilisateur améliorée.
“Pour être vraiment utile, un assistant IA doit comprendre un monde complexe et dynamique et y réagir comme le font les gens. Il doit aussi assimiler et retenir ce qu’il voit et entend pour comprendre le contexte et agir. Il doit également être proactif, capable d’apprendre et personnel, afin que les utilisateurs puissent lui parler naturellement et sans décalage ni délai.” explique Google.
Cependant, il n’est qu’une des nombreuses annonces révélées lors de l’événement Google I/O 2024. Parmi les autres innovations, on retrouve Gemini 1.5 Flash, offrant une rapidité accrue pour diverses tâches courantes, ainsi que Veo, une technologie capable de générer des vidéos à partir de textes. Google avance à grands pas dans le développement de ces modèles et leur mise à disposition pour les utilisateurs.
Démonstration du prototype
Lors de la conférence Google I/O 2024, une démonstration des capacités du Projet Astra a été faite. Une personne filme avec son téléphone et pose en même temps des questions à Astra sur son environnement.
La vidéo du Projet Astra se divise en deux segments distincts. Le premier présente le prototype fonctionnant sur un smartphone Google Pixel, tandis que le second le montre en action sur des lunettes intelligentes. L’agent reçoit en continu des flux d’entrée audio et vidéo, qu’il est capable d’analyser pour raisonner sur son environnement en temps réel et interagir avec l’utilisateur dans le cadre d’une conversation basée sur les éléments visuels perçus.
Google a montré Astra sur un smartphone et des lunettes intelligentes, et a fait allusion à une compatibilité avec d’autres appareils.
Disponibilité
Google a déclaré que « certaines de ces capacités d’agent seront intégrées aux produits Google comme l’application Gemini plus tard cette année ».
Cependant, l’expérience complète du Projet Astra pourrait ne pas être immédiatement accessible au grand public. Bien que certains éléments d’Astra puissent progressivement être intégrés dans les applications Google tout au long de l’année 2024, l’expérience intégrale, qui pourrait inclure du matériel dédié, sera probablement déployée à une date ultérieure.
Conclusion
Google montre qu’il veut toujours continuer à rester concurrentiel dans le domaine de l’intelligence artificielle, et fait même partie des acteurs les plus importants du marché. Les efforts consacrés au développement du Projet Astra, révèlent un futur impressionnant en matière d’IA avec de vrais assistants avec qui vous pourrez communiquer de façon bien plus fluide et qui pourront encore mieux vous aider au quotidien.
C’est la fin de cet article ! Si vous souhaitez avoir plus d’informations sur les outils Google et sur l’IA, restez connectés pour en savoir plus !
Si vous souhaitez développer un projet avec notre équipe de développeurs de choc, contactez-nous via ce formulaire.
Numericoach dispose d’une offre packagée pour les licences Google Workspace, unique en France.
À bientôt !
- Articles connexes
- Plus de l'auteur