DIGITAL SOLUTIONS
Quand l’IA pète un plomb
On parle de plus en plus d’intelligence artificielle. Les avancées en la matière sont en effet prometteuses. La technologie devrait profondément changer nos vies. Cela dit, toute innovation présente quelques défauts, au début tout du moins. Pour détendre l’atmosphère en fin d’année, quelques cas où l’usage de l’intelligence artificielle n’a pas produit les résultats escomptés.
December 20, 2018
De plus en plus, des algorithmes sont dotés de capacités d’apprentissage. Toutefois, ceux-ci ne peuvent pas (encore) prétendre au bon sens qui caractérise l’être humain. Ces intelligences artificielles, poursuivant leurs objectifs, peuvent parfois arriver à des résultats pour le moins surprenants, inattendus, parfois inquiétants.
Quand un chatbot devient raciste
Beaucoup se souviendront de l’intelligence artificielle de type « chatbot » qu’avait lancée Microsoft sur Twitter en 2016. En quelques heures à peine, Tay (son petit nom) avait dérapé, répétant des propos racistes ou, pire, niant carrément l’holocauste. Tay n’avait pas été épargnée par les Twittos, nombreux, s’amusant à tester ses limites. Doté d’une capacité d’apprendre, le chatbot s’est laissé conduire dans des directions peu glorieuses. Si bien que, au bout de 8h de fonctionnement et 96.000 tweets envoyés, le géant américain a préféré mettre son intelligence artificielle en sommeil.
A la fin… l’inattendu
Ce cas fut très médiatisé. Cependant, de nombreux autres exemples d’intelligences artificielles conduisant à des résultats surprenants peuvent être trouvés. Un article publié par ArXiv fait notamment état de quelques exemples incroyables et légèrement terrifiants de la pensée des algorithmes. A travers lui, plusieurs chercheurs évoquent 27 cas d’IA dans le cadre de projets de recherche qui ont conduit à des choses pour le moins inattendues. Souvent, il s’agit d’IA chargée de simuler des situations, donc sans lien avec la vie réelle, en tenant compte de diverses variables. D’autres doivent résoudre des problèmes posés par l’humain, trouvant parfois des solutions étranges, d’autres brillantes.
Pour gagner à Tic-Tac-Toe ? Empêcher l’adversaire de jouer
Voici quelques exemples déroutants démontrant que, définitivement, les robots ne sont pas prêts à penser comme nous.
- Un projet visait à opposer des programmes intelligents les uns aux autres dans des parties de Tic-Tac-Toe à cinq rangées sur un tableau infiniment vaste. L’intelligence artificielle a mis au point une méthode extrêmement efficace pour gagner. A toute stratégie classique de jeu, elle a préféré demander des déplacements avec des adresses mémoire extrêmement longues, profitant du caractère infini du plateau de jeu, pour faire planter l’ordinateur de l’adversaire. Elle se voyait, de cette manière, attribuer la victoire par défaut. Mauvaise joueuse !
- Un autre programme avait été conçu pour simuler des moyens efficaces de freinage d’un aéronef lorsqu’il atterrissait sur un porte-avions. L’intelligence artificielle, dans ce contexte, a appris qu’en maximisant la force à l’atterrissage – qui est à l’opposé de son objectif actuel –, elle atteindrait le plus efficacement la vitesse zéro. L’effet serait catastrophique, certes, mais la solution est techniquement parfaite.
- Un test mettant au défi un robot simulé de marcher sans permettre à ses pieds de toucher le sol a aussi conduit à un résultat surprenant. Le robot, rapidement, a compris qu’en se mettant sur le dos et en marchant sur les coudes, il pouvait facilement répondre au défi qui lui était posé. Quelqu’un espérait le faire voler ? Raté !
- Une étude visant à développer une créature simulée capable de sauter aussi haut que possible a conduit à la création de créatures très lourdes sur de minuscules poteaux qui tombaient et tournaient dans les airs pour un « saut » techniquement élevé. Pas de quoi rivaliser avec Michael Jordan à sa grande époque.
Les auteurs de cet article révèlent cependant que si l’intelligence artificielle conduit parfois à des résultats surprenants, elle peut aussi envisager des méthodes brillantes et, à ce titre, avoir aussi beaucoup à nous apprendre.