Voici comment une IA a réussi à balayer un professionnel à StarCraft II

[ad_1]

AlphaStar est le dernier-né de DeepMind. Ce laboratoire de recherche en intelligence artificielle (IA) de Google a également conçu AlphaGo, l’algorithme qui a battu le champion du monde de go en 2015.

Le nouvel algorithme a surpris le Polonais Grzegorz Komincz, alias MaNa, l’un des meilleurs joueurs de StarCraft II au monde, en adoptant des stratégies inédites. « C’était différent de toutes les parties de StarCraft que j’ai jouées », a indiqué M. Komincz, qui a déjà remporté deux championnats majeurs à ce jeu et est monté de multiples fois sur le podium.

Un exploit remarquable

Contrairement à des jeux de table comme les dames, les échecs et le go, les jeux vidéo de stratégie en temps réel comme StarCraft II comportent de nombreux obstacles qui rendent le travail d’un algorithme difficile.

Aux échecs, par exemple, l’ordinateur peut voir la totalité de la planche de jeu et établir ses stratégies en conséquence. Or, à StarCraft II, les joueurs ne voient que ce qui se trouve à proximité de leurs unités. Un algorithme doit donc être en mesure de prévoir ce que son adversaire est en train de faire à partir d’informations limitées, ce qui s’apparente à l’intuition humaine.

Le jeu se déroule également en temps réel, ce qui laisse beaucoup moins de temps aux joueurs pour réfléchir à une stratégie et s’adapter aux actions de leur adversaire. La quantité d’unités différentes, chacune ayant des capacités particulières, est aussi largement supérieure à celle des échecs.

Enfin, le nombre de positions valides au jeu de go est 1 suivi de 170 zéros, alors que ce nombre est estimé à 1 suivi de 270 zéros pour StarCraft II, selon Wired.

Pour qu’AlphaStar arrive à battre un joueur professionnel, les ingénieurs de DeepMind ont d’abord décidé de lui fournir les données de 500 000 parties jouées entre humains. Ils ont ensuite cloné l’algorithme et ont fait jouer ces clones entre eux dans un tournoi virtuel. Les vainqueurs de chaque match s’affrontaient ensuite, puis les vainqueurs de cette deuxième vague, et ainsi de suite jusqu’à ce que les algorithmes atteignent l’équivalent de 200 années d’expérience de jeu.

AlphaStar, un maître limité

Malgré son efficacité redoutable dans ses parties contre MaNa, AlphaStar reste tout de même un système d’intelligence artificielle très limité. Comme il a été entraîné sur une seule carte, avec une seule espèce (StarCraft II en comporte trois), il est incapable de jouer dans d’autres niveaux du jeu ou avec une autre espèce. Sa maîtrise de StarCraft II n’est pas non plus transférable à d’autres jeux vidéo de stratégie en temps réel, alors que les champions humains arrivent normalement à s’adapter facilement à d’autres jeux du même genre.

De plus, ses cinq victoires ont été obtenues dans des conditions particulières : AlphaStar pouvait voir l’intégralité de la carte visible à ses unités à la fois, alors qu’un humain ne peut normalement en afficher qu’une petite partie dans son écran. Les organisateurs du défi ont offert la chance à Grzegorz Komincz d’affronter une version modifiée d’AlphaStar dont la vision de la carte était la même qu’un humain. Malgré quelques difficultés en début de partie, MaNa a fini par triompher en exploitant quelques erreurs commises par l’algorithme.

Surpasser les humains est un peu « ennuyeux »

Bien que Grzegorz Komincz se soit montré impressionné par le jeu d’AlphaStar, Mark Riedl, un professeur associé au Georgia Institute of Technology, a expliqué à Wired qu’il n’était pas très surpris par les résultats des matchs.

« Nous avons atteint un point où ce n’était qu’une question de temps, a-t-il affirmé. D’une certaine façon, battre des humains à des jeux est devenu un peu ennuyeux. »

D’autres intelligences artificielles capables de compétitionner ou même de battre des professionnels des jeux vidéo ont fait leur apparition ces derniers mois, notamment pour les jeux Quake III Arena et Dota 2.

[ad_2]

Source link

قالب وردپرس

Un « vieil » algorithme l’emporte sur ses adversaires modernes à StarCraft

[ad_1]

Malgré les récentes avancées en intelligence artificielle, le « vieux » SAIDA a démontré sa pertinence en remportant 95,91 % de ses 2590 matchs de StarCraft: Brood War.

Ce jeu vidéo de stratégie en temps réel sorti en 1998 oppose des joueurs qui contrôlent une petite armée sur une grande aire de jeu. Les joueurs doivent faire croître leurs forces en exploitant les ressources sur la carte, tout en tentant de trouver et d’éliminer leurs adversaires.

StarCraft est considéré comme un jeu d’une très grande complexité en raison des nombreuses approches différentes qui peuvent être prises en cours de partie pour atteindre la victoire. En tout temps, les joueurs doivent choisir parmi des centaines d’options différentes pour s’adapter au déroulement de la partie et aux actions de leur adversaire.

Ce genre de terrain de jeu représente un défi énorme pour des programmes d’intelligence artificielle, puisqu’il n’existe pas de stratégie dominante et qu’ils doivent donc être assez flexibles et rapides pour réagir aux changements dans le jeu.

Une méthode à l’ancienne

Le nombre de variables est si grand qu’il est peut-être encore préférable de s’en tenir aux vieilles méthodes qui ont fait leurs preuves par le passé. C’est à peu près ce qu’a choisi de faire l’équipe du Sud-Coréen Changhyeon Bae, affiliée à Samsung.

Son algorithme nommé SAIDA est programmé pour toujours utiliser la même stratégie : se concentrer d’abord sur la défense en attendant le meilleur moment pour frapper l’ennemi. Lorsqu’un moment propice se présente, SAIDA attaque son opposant en concentrant toutes ses forces pour le détruire en une seule salve.

Le programme qui a fini en deuxième place est quant à lui issu de Facebook, tandis que celui qui a terminé troisième provient d’un groupe de recherche chinois.

La technique de l’avenir

L’équipe victorieuse de Changhyeon Bae travaille actuellement à concevoir un programme utilisant l’apprentissage par renforcement, une méthode beaucoup plus moderne qui a fait ses preuves dans d’autres jeux vidéo, dont Dota 2. Cette technique consiste à donner un objectif à un algorithme et à le laisser essayer des milliers de stratégies par lui-même jusqu’à ce qu’il arrive à atteindre son but presque à tout coup.

L’apprentissage par renforcement a donné naissance à des tactiques novatrices dans des domaines compétitifs comme les jeux vidéo et les jeux de table. Au jeu de go, des joueurs professionnels s’entraînent désormais en étudiant les parties d’AlphaZero, un algorithme de DeepMind (Alphabet/Google).

Les algorithmes inscrits à la compétition sont toutefois encore loin de pouvoir rivaliser avec des joueurs professionnels de StarCraft, a indiqué à MIT Technology Review Dave Churchill, l’un des organisateurs de l’événement annuel.

La compétition avait lieu à l’occasion du congrès AIIDE, qui rassemble chaque année des spécialistes de l’intelligence artificielle et du divertissement numérique interactif. Elle se tenait cette année à l’Université de l’Alberta, à Edmonton.

[ad_2]

Source link

قالب وردپرس