Quand les IA de jeux vidéo inspirent la robotique réelle

robot jeux video robot jeux video

Pendant longtemps, les intelligences artificielles dans les jeux vidéo étaient vues comme de simples routines : faire marcher un ennemi, le faire tirer, le faire fuir. Mais aujourd’hui, ces IA sont devenues de véritables modèles comportementaux, capables de simuler des émotions, d’apprendre et de s’adapter à l’environnement du joueur.

Et de manière surprenante, ces avancées influencent de plus en plus le monde réel. Dans les laboratoires de robotique, on regarde désormais ce que les développeurs de jeux vidéo savent faire. Car pour que les meilleurs robots interagisse avec les humains, anticipe leurs mouvements ou explore un environnement inconnu… il faut bien lui donner un cerveau. Et ce cerveau, les jeux vidéo l’ont affûté depuis 40 ans.

L’IA dans les jeux vidéo : un terrain d’expérimentation comportementale

Si l’IA dans les jeux vidéo n’est pas vraiment “intelligente” au sens scientifique, elle est redoutablement efficace pour simuler un comportement crédible. Et cela, c’est exactement ce que cherche un ingénieur robotique : simuler une présence, un réflexe, une réaction crédible.

Des comportements crédibles, sans vraie conscience

Prenons l’exemple du jeu F.E.A.R. (2005). Encore aujourd’hui, ses ennemis sont cités en exemple pour leurs comportements complexes : ils se mettent à couvert, contournent le joueur, utilisent les grenades au bon moment. Pourtant, il ne s’agit pas de deep learning ni d’algorithmes complexes : simplement une série de règles très bien orchestrées.

Ce type de logique conditionnelle (si ceci, alors cela) est précisément ce qui est utilisé dans les premiers niveaux d’intelligence embarquée des robots.

“Nous utilisons les mêmes arbres de décision que dans les jeux vidéo pour gérer les comportements de notre robot quadrupède”, expliquait Thomas Moulard, ingénieur chez Preferred Networks, à propos du robot HRP-5P.

Simuler l’humain : un savoir-faire exportable

Des jeux comme Red Dead Redemption II ou The Sims simulent des dizaines d’interactions sociales, de routines, d’expressions. Cela a beaucoup inspiré le développement de robots sociaux, capables de capter les signaux humains et d’y répondre : posture, ton, expressions.

Ces moteurs de simulation d’émotions sont aujourd’hui repris dans les systèmes embarqués de compagnons robotiques comme Pepper ou Nao, conçus pour interagir avec les enfants, les clients ou les personnes âgées.

Transferts concrets entre jeux vidéo et robotique

Les passerelles entre les deux mondes ne sont plus théoriques : elles sont technologiques.

Navigation autonome : des algorithmes partagés

Le pathfinding (trouver son chemin dans un espace) est une fonction clé dans les jeux comme StarCraft, Skyrim ou GTA. L’algorithme A* (A-star) y est roi. C’est ce même algorithme qui est aujourd’hui utilisé dans la robotique mobile : aspirateurs autonomes, robots de logistique dans les entrepôts d’Amazon ou les drones de surveillance.

82 % des robots de navigation autonomes utilisent un dérivé de l’algorithme A, selon une étude du MIT (2022).

Interaction homme-machine : les leçons des NPC

Les personnages non joueurs (NPC) ont appris à interpréter les actions du joueur : si vous sortez une arme, ils s’enfuient ; si vous les aidez, ils vous sourient. Ce principe d’adaptation contextuelle est directement repris dans la robotique sociale, où le robot doit ajuster son comportement selon les signaux reçus : voix, gestes, expressions.

Des entreprises comme Furhat Robotics utilisent des moteurs de jeu comme Unity pour entraîner leurs robots à reconnaître et reproduire des micro-expressions faciales humaines.

Prise de décision et autonomie

Les arbres de comportement (Behavior Trees) utilisés dans les jeux comme Assassin’s Creed ou Horizon Zero Dawn permettent à un personnage de choisir entre plusieurs actions selon la situation. Ce système est aujourd’hui standard dans la robotique de service et dans les robots militaires.

Études de cas : quand la frontière disparaît

Boston Dynamics : de la simulation à la réalité

Chez Boston Dynamics, les ingénieurs entraînent leurs robots dans des environnements virtuels avant de les tester en réel. Ces simulations utilisent parfois les mêmes moteurs que les jeux vidéo (comme Unity ou MuJoCo). Les sauts, esquives et mouvements de Spot ou Atlas sont calculés dans des espaces de type jeu vidéo, avant d’être reproduits dans le monde réel.

“La simulation réduit les risques, accélère l’apprentissage, et permet d’essayer des scénarios extrêmes” — Marc Raibert, fondateur de Boston Dynamics, dans une interview pour IEEE Spectrum.

Nvidia Isaac Sim & Unreal Engine

Nvidia, leader des cartes graphiques, a développé Isaac Sim, un environnement de simulation pour entraîner des robots virtuels. Ce simulateur repose sur Unreal Engine 5, l’un des moteurs les plus utilisés dans le gaming.

Cela permet d’entraîner des bras robotiques à trier des objets, à manipuler des éléments fragiles, ou à s’adapter à un entrepôt dynamique, sans jamais casser une vraie pièce.

Jeux vidéo et robotique : vers une convergence totale ?

Le jeu comme environnement d’apprentissage pour les IA réelles

Dans les laboratoires de DeepMind, les chercheurs utilisent des jeux comme Minecraft ou Dota pour entraîner des modèles d’IA qui pourront ensuite être transposés à des robots. Pourquoi ? Parce que ces environnements sont riches, complexes, mais maîtrisables.

“Dota 2 a été notre laboratoire pour l’apprentissage stratégique multi-agent. Aujourd’hui, ces architectures nous aident dans la coordination de robots en essaim.” — Greg Brockman, cofondateur d’OpenAI.

Des expériences similaires ont été menées avec Doom, Minecraft, ou encore Super Mario Bros.

Les limites actuelles

Tout n’est pas transposable. Dans un jeu, le monde est stable, prévisible, sans frottement. Dans la réalité, les objets tombent, glissent, se cassent. Les capteurs sont imprécis, les actions ont des délais. Il faut donc intégrer de l’incertitude dans l’intelligence embarquée.

C’est là que les moteurs hybrides (jeu + physique réelle) entrent en jeu, comme dans le simulateur Habitat d’Facebook AI, qui combine monde virtuel et contraintes physiques.