Une illustration bleue d'un bras robotique jouant au tennis de table.

Benj Edwards / Google DeepMind

Mercredi, des chercheurs de Google DeepMind ont révélé le premier robot de tennis de table alimenté par IA capable de rivaliser avec des joueurs humains amateurs. Ce système combine un bras robotique industriel appelé ABB IRB 1100 et un logiciel d’IA personnalisé développé par DeepMind. Bien qu’un joueur humain expert puisse encore vaincre le robot, ce système démontre le potentiel des machines à maîtriser des tâches physiques complexes nécessitant des décisions en une fraction de seconde et de l’adaptabilité.

« C’est le premier agent robot capable de jouer à un sport avec des humains à un niveau humain », ont écrit les chercheurs dans un document préliminaire disponible sur arXiv. « Cela représente une avancée dans l’apprentissage et le contrôle des robots. »

L’agent robotique sans nom (nous suggérons “AlphaPong”), développé par une équipe comprenant David B. D’Ambrosio, Saminda Abeyruwan et Laura Graesser, a montré des performances notables dans une série de matchs contre des joueurs humains de différents niveaux de compétence. Dans une étude impliquant 29 participants, le robot alimenté par IA a remporté 45 % de ses matchs, démontrant un jeu solide de niveau amateur. Plus remarquablement, il a atteint un taux de victoire de 100 % contre des débutants et un taux de 55 % contre des joueurs intermédiaires, bien qu’il ait eu des difficultés contre des adversaires avancés.

Vidéo de Google DeepMind montrant l’agent IA échangeant des coups avec un joueur humain de tennis de table.

La configuration physique comprend le mentionné IRB 1100, un bras robotique à 6 degrés de liberté, monté sur deux rails linéaires, ce qui lui permet de se déplacer librement dans un plan 2D. Des caméras haute vitesse suivent la position de la balle, tandis qu’un système de capture de mouvement surveille les mouvements de la raquette de l’adversaire humain.

L’IA au cœur du projet

Pour créer l’intelligence qui alimente le bras robotique, les chercheurs de DeepMind ont développé une approche à deux niveaux qui permet au robot d’exécuter des techniques spécifiques de tennis de table tout en adaptant sa stratégie en temps réel au style de jeu de chaque adversaire. En d’autres termes, il est suffisamment adaptable pour jouer contre n’importe quel humain amateur au tennis de table sans nécessiter un entraînement spécifique pour chaque joueur.

L’architecture du système combine des contrôleurs de compétences à faible niveau (politiques de réseau de neurones entraînées pour exécuter des techniques de tennis de table spécifiques comme les coups droits, les retours de revers ou les réponses de service) avec un décideur stratégique à haut niveau (un système d’IA plus complexe qui analyse l’état du jeu, s’adapte au style de l’adversaire et sélectionne quelle politique de compétence de bas niveau activer pour chaque balle entrante).

Les chercheurs affirment que l’une des innovations clés de ce projet était la méthode utilisée pour entraîner les modèles d’IA. Ils ont choisi une approche hybride qui combine l’apprentissage par renforcement dans un environnement physique simulé tout en ancrant les données d’entraînement dans des exemples du monde réel. Cette technique a permis au robot d’apprendre à partir d’environ 17 500 trajectoires de balle réelles, un ensemble de données relativement petit pour une tâche complexe.

Vidéo de Google DeepMind montrant comment l’agent IA analyse les joueurs humains.

Les chercheurs ont utilisé un processus itératif pour affiner les compétences du robot. Ils ont commencé avec un petit ensemble de données de jeux joués entre humains, puis ont laissé l’IA s’exprimer contre de vrais adversaires. Chaque match a généré de nouvelles données sur les trajectoires de balle et les stratégies humaines, que l’équipe a réintégrées dans la simulation pour un entraînement supplémentaire. Ce processus, répété sur sept cycles, a permis au robot de s’adapter continuellement à des adversaires de plus en plus habiles et à des styles de jeu diversifiés. Lors de la dernière série, l’IA avait appris de plus de 14 000 échanges de balle et de 3 000 services, créant ainsi une base de connaissances en tennis de table qui l’aide à combler le fossé entre simulation et réalité.

Il est intéressant de noter que Nvidia a également expérimenté des systèmes de physique simulée similaires, tels qu’Eureka, permettant à un modèle d’IA d’apprendre rapidement à contrôler un bras robotique dans un espace simulé plutôt que dans le monde réel (puisque la physique peut être accélérée à l’intérieur de la simulation, et des milliers d’essais simultanés peuvent avoir lieu). Cette méthode devrait considérablement réduire le temps et les ressources nécessaires pour former des robots à des interactions complexes à l’avenir.

Les humains ont apprécié jouer contre lui

Au-delà de ses réalisations techniques, l’étude a également exploré l’expérience humaine de jouer contre un adversaire IA. Étonnamment, même les joueurs qui ont perdu contre le robot ont déclaré avoir apprécié l’expérience. « Dans tous les groupes de compétence et taux de victoire, les joueurs ont convenu que jouer avec le robot était “amusant” et “engageant” », ont noté les chercheurs. Cette réception positive suggère des applications potentielles pour l’IA dans la formation sportive et le divertissement.

Cependant, le système présente des limitations. Il a du mal avec des balles extrêmement rapides ou hautes, a des difficultés à lire les effets intenses, et montre une performance plus faible dans les coups de revers. Google DeepMind a partagé une vidéo d’exemple de l’agent IA perdant un point contre un joueur avancé en raison de ce qui semble être un problème de réaction à une frappe rapide, comme vous pouvez le voir ci-dessous.

Vidéo de Google DeepMind de l’agent IA jouant contre un joueur humain avancé.

Les implications de ce prodige du ping-pong robotique vont au-delà du monde du tennis de table, selon les chercheurs. Les techniques développées pour ce projet pourraient être appliquées à un large éventail de tâches robotiques nécessitant des réactions rapides et une adaptation à des comportements humains imprévisibles. Des secteurs comme la fabrication jusqu’à la santé (ou même juste frapper quelqu’un avec une raquette à plusieurs reprises), les applications potentielles semblent très vastes.

L’équipe de recherche de Google DeepMind souligne qu’avec un affinage supplémentaire, elle croit que le système pourrait potentiellement rivaliser avec des joueurs de tennis de table avancés à l’avenir. DeepMind n’est pas étranger à la création de modèles d’IA capables de vaincre des joueurs humains, y compris AlphaZero et AlphaGo. Avec ce dernier agent robot, il semble que l’entreprise de recherche passe au-delà des jeux de société pour entrer dans le domaine des sports physiques. Les échecs et Jeopardy sont déjà tombés sous le joug des géants alimentés par l’IA—peut-être que le tennis de table est le prochain.

En tant que journaliste, je suis fasciné par les avancées de l’intelligence artificielle dans le domaine du sport. À travers mes reportages, j’ai pu observer comment l’IA remodelle non seulement la compétition mais également l’entraînement et l’expérience des joueurs. Le développement d’un robot comme “AlphaPong” ouvre la voie à des questions sur l’avenir du sport à la fois comme divertissement et domaine d’innovation technologique.

Publications similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *