Google franchit une étape majeure dans le domaine de l'intelligence artificielle générative avec le lancement de Project Genie. Désormais accessible aux abonnés Google AI Ultra aux États-Unis, cet outil révolutionnaire permet de créer des environnements 3D explorables et interactifs à partir d'une simple commande textuelle ou d'une image. Contrairement aux moteurs de jeu classiques, cette technologie s'appuie sur le modèle de monde Genie 3 pour simuler la physique et les déplacements en temps réel, ouvrant la voie à une création de contenu instantanée où l'utilisateur devient le moteur du monde qu'il parcourt et je pense ce qui explique en partie les pénueries de RAM.

 

Un simulateur de monde piloté par Genie 3 et Nano Banana Pro

L'annonce de Project Genie marque l'évolution concrète des recherches présentées en août dernier par Google DeepMind. Ce prototype s'appuie sur une architecture complexe combinant Genie 3, Nano Banana Pro et Gemini pour transformer des concepts abstraits en espaces navigables.

Le fonctionnement repose sur trois piliers fondamentaux : le World Sketching, qui permet de dessiner les contours de son univers via du texte ou des images importées ; le World Exploration, pour s'y déplacer librement avec une génération fluide du décor à mesure que l'on avance ; et enfin le World Remixing, qui offre la possibilité de modifier des mondes existants pour en créer de nouvelles itérations.

Sur les réseaux sociaux, notamment via l'utilisateur povssam sur X, les premières démonstrations ont déjà suscité des réactions vives. On y voit des environnements générés en quelques minutes, illustrant des concepts insolites comme un GTA 6 Édition Groenland. Cette prouesse technique repose sur la capacité de l'IA à prédire les conséquences des actions de l'utilisateur sur son environnement, simulant ainsi une forme de physique rudimentaire mais cohérente sans aucune ligne de code traditionnelle.

 

 

Les fonctionnalités clés pour les créateurs et testeurs

Google a conçu cette interface pour offrir un contrôle granulaire avant même de lancer la simulation. Voici les outils mis à disposition dans cette phase de test :

  • Contrôle de la perspective : Possibilité de définir l'angle de vue, notamment en vue à la première personne ou troisième personne.
  • Modes de déplacement variés : Configuration du type de navigation, que ce soit à pied, en conduisant un véhicule, en volant ou même en nageant.
  • Affinage via Nano Banana Pro : Une étape de prévisualisation permet de modifier l'image de base pour ajuster les détails du monde avant de le rendre interactif.
  • Galerie de remixage : Accès à des mondes pré-conçus par d'autres utilisateurs pour s'en inspirer ou les transformer.
  • Export vidéo : Possibilité de télécharger des séquences de 60 secondes de ses explorations pour les partager.

 

Image de Google AI Studio
Image de Google AI Studio

 

Entre prouesse technique et limites de l'IA expérimentale

Si l'arrivée de Project Genie fait dire à certains observateurs que nous assistons à une mutation profonde pour les studios de développement, Google reste prudent. L'entreprise rappelle que ce modèle est une étape vers l'Intelligence Artificielle Générale (AGI) et que des limitations subsistent.

Pour l'heure, les sessions sont limitées à 60 secondes de génération continue et des problèmes de latence dans le contrôle des personnages peuvent survenir. De plus, la fidélité visuelle et le respect strict des lois de la physique ne sont pas encore garantis à 100 %.

Rappelons que ce déploiement fait suite à une phase de tests privés entamée l'été dernier. En ouvrant l'accès aux abonnés majeurs résidant aux États-Unis, Google souhaite observer comment les utilisateurs s'approprient ces modèles de monde. 

Pour les joueurs et créateurs du reste du monde, il faudra patienter encore un peu avant une disponibilité globale. L'enjeu est de taille : passer d'une IA qui génère de simples images à une IA capable de créer des expériences ludiques complexes et persistantes.

 

Source : x.com / blog google