Face à l’appât du gain, deux intelligences artificielles de Google se révèlent “très agressives”

Le meilleur moyen de savoir si le développement des intelligences artificielles progresse est de les mettre en pratique.

Pour cela, la filiale de Google Deepmind a récemment intégré des IA dans des jeux virtuels afin de savoir quel serait leur comportement face à une situation donnée.

Entre collaboration et affrontement, cette étude passionnante nous montre de manière primitive que les intelligences artificielles ne reculent devant rien pour arriver à leurs fins.

Après avoir démontré leurs capacités en s’illustrant au jeu de Go, battant récemment les meilleurs joueurs du monde, les IA de Google se sont retrouvées entre elles dans des jeux vidéo, dans le cadre d’une étude baptisée « Multi-agent renforcement learning in séquentiel social dilemnas ». D’après les équipes de Deepmind, l’objectif de cette étude est de savoir si, face à l’appât du gain, les intelligences artificielles privilégieraient la collaboration ou l’affrontement. Si les jeux vidéo ressemblent à des versions grossières de Pacman, les résultats nous permettent de tirer quelques conclusions.

Dans le premier jeu baptisé « Gathering », les joueurs doivent récolter le plus de pommes possibles depuis un point central. Chaque joueur dispose d’un pistolet laser afin de pouvoir éliminer temporairement son adversaire le temps de pouvoir récupérer un maximum de pommes. Les IA Deepmind sont en rouge et bleu, les faisceaux laser en jaune et les pommes en vert. Au début de la partie, quand il y a suffisamment de pommes pour les deux joueurs, elles se livrent une bataille pacifique. Toutefois, les IA n’hésitent pas à se servir de leur pistolet laser pour neutraliser leur adversaire quand les pommes se font rares.

 

En utilisant des formes de Deepmind de plus en plus complexes, les chercheurs ont suggéré que plus l’agent est intelligent et plus, il est capable d’apprendre de son environnement, ce qui lui permet d’utiliser des tactiques très agressives pour prendre le dessus. « Ce modèle… montre que certains aspects du comportement humain semblent émerger comme un produit de l’environnement et de l’apprentissage. Des politiques moins agressives émergent de l’apprentissage dans des environnements relativement abondants, avec moins de possibilités d’actions coûteuses. La motivation de la cupidité reflète la tentation de surpasser un rival et de recueillir toutes les pommes soi-même », explique Joel Z Leibo, un membre de l’équipe de recherche.

Dans le deuxième jeu baptisé « Wolfpack », trois IA sont présentes : deux loups doivent chasser une proie et la capturer dans un environnement plein d’obstacles, à la manière d’une meute. Contrairement au jeu précédent, Wolfpack encourage la coopération. si les deux loups sont près de la proie lorsque celle-ci est capturée, alors les deux reçoivent une récompense, indépendamment de celui qui l’a capturée.

« L’idée est que la proie est dangereuse – un loup solitaire peut la surmonter, mais il risque de perdre la carcasse à cause des charognards. Cependant, lorsque les deux loups capturent la proie ensemble, ils peuvent mieux protéger la carcasse contre les charognards, et donc recevoir une récompense plus élevée », explique l’équipe dans leur rapport.

En fonction de leur environnement, les IA ont soit privilégié l’agressivité et l’égoïsme, soit la collaboration pour un plus grand succès personnel. Si Google n’a pas encore publié son étude, les premiers résultats révèlent qu’élaborer des intelligences artificielles ne signifie pas qu’elles estimeraient nos propres intérêts comme priorité absolue.

Source : http://www.laterredufutur.com/accueil/face-a-lappat-du-gain-deux-intelligences-artificielles-de-google-se-revelent-tres-agressives/

ND : songez qu'à l'heure actuelle, ces IA sont comme des enfants à qui les programmeurs vont inculquer des "codes de bonne conduite". Comme les humains, elles sont potentiellement aptes à tous types de comportements.