Search Direct User 100 Zoom Quiz ? Libération Diamond clock xml netvibes live anciens-numeros data desintox diapo edito election-2017 election essentiel generique idee jo next portrait radio son alerte top-100 star une video scroll Facebook Whatsapp Twitter insta vine later glass Mail print Facebook Instagram Twitter Calendar download cross zoom-in zoom-out previous next truck visa mastercard user-libe user-doc user-doc-list user-mail user-security user-settings user-shop user-star Ruban abo Losange orange List check Most read Ptit Libé sport blog voyage
    Libé des écrivains

    Intelligence artificielle ? Vraiment ?

    Par Antoine Billot
    Pendant le match entre Lee Sedol et AlphaGo, le 13 mars, à Séoul.
    Pendant le match entre Lee Sedol et AlphaGo, le 13 mars, à Séoul. Photo Ed Jones. AFP

    La machine a battu l’homme quatre fois sur cinq au jeu de go, grâce à un système qui simule l’esprit humain plutôt qu’avec un «super calculateur». Pourtant cette «intelligence artificielle» est encore loin de pouvoir se faire passer pour une «intelligence humaine»…

    Fors l’honneur, tout est perdu ? AlphaGo (produit par DeepMind, une filiale de Google) ne se sera donc incliné qu’une fois, lors de la quatrième manche qui l’opposait à Lee Sedol, le grand maître coréen du jeu de Go. Le reste du temps, il l’aura renvoyé à sa modeste et humiliante condition de simple mortel - et avec lui, l’humanité entière. Le tournoi organisé à grand bruit entre la créature et le créateur a ainsi largement tourné en faveur de la créature quand bien même le créateur est parvenu à limiter les dégâts en gagnant une rencontre - fors l’honneur, quoi. Encore faut-il préciser que la victoire arrachée dimanche par Lee Sedol n’a pas même eu l’apparence d’un triomphe symbolique puisqu’en réalité AlphaGo a seulement commis l’erreur au cours du 79e tour de ne pas remarquer celle, autrement grave a priori, que commettait son adversaire ; le temps pour la créature de s’en rendre compte et Lee Sedol remportait la partie en loucedé : duel épique de bavures, donc. Bref, pas de quoi exulter… Plus important semble être en revanche la méthode utilisée par AlphaGo pour achever sans ambiguïté son trop sensible concurrent. Là où, en 1997, Deep Blue (un ordinateur spécialement fabriqué par IBM), opposé dans un match d’échecs à Garry Kasparov, calculait la totalité des combinaisons possibles avant de choisir, en vertu de critères définis ex-ante par ses concepteurs, la réponse optimale, AlphaGo, lui, utilise un algorithme, c’est-à-dire une méthode automatique dite d’apprentissage profond (deep learning) qui repose sur l’activation d’un système convolutif de réseaux neuronaux (neural networks). Cette méthode, en rupture avec le «tout-calcul» de Deep Blue, permet d’engendrer de nouvelles stratégies au fur et à mesure des parties disputées au cours de l’histoire ludique du « joueur artificiel » - une histoire qui se constitue sans contrainte de temps puisque AlphaGo peut jouer des millions de fois sans se lasser ni se fatiguer le moins du monde… Le principe directeur de ces algorithmes calculatoires, de type Crazystone ou Zen, est de dégager une meilleure réponse par estimation de la probabilité de victoire finale. Et cette probabilité est définie en tant que pourcentage de parties gagnantes associées à la simulation aléatoire de plusieurs milliers de parties (un procédé de simulation directement inspiré de la méthode de Monte-Carlo, laquelle méthode consiste intuitivement à bombarder au hasard un périmètre donné - ici l’ensemble complet des réponses possibles - contenant une cible - ici la victoire finale - puis à rapporter le nombre de «bombes» tombées à côté de la cible à celui de toutes les «bombes» pour inférer fréquentiellement la probabilité d’occurrence de la cible). La mémoire exhaustive de Deep Blue fait ainsi place à une mémoire sélective, plus «intelligente», une mémoire algorithmique qui simule plus qu’elle n’imite le fonctionnement du cerveau humain. Ce n’est plus seulement la puissance de calcul qui fait la différence, ni la puissance de stockage des informations, mais bien plutôt la capacité à induire pertinemment des «chemins optimaux» dans le vaste arbre de décision des chemins possibles du jeu de go (on estime le nombre de ses «branches» à 10170, c’est-à-dire 1 suivi de 17 zéros !)

    Peut-on dire pour autant que nous venons d’assister au triomphe de la machine sur l’homme, de l’intelligence artificielle sur l’intelligence humaine ? En dépit des coups de clairon médiatique que Google n’a - et n’aura plus encore dans les mois à venir - de cesse de pousser, coups de clairon qui ne relèvent que d’un plan marketing finalement assez standard (un coup de com habilement promu) et qui n’ont en conséquence pas grand-chose à voir avec les enjeux scientifiques de la confrontation homme-machine, il est tout à fait prématuré de conclure que le résultat inattendu de ce tournoi consacre un basculement épistémologique majeur. Depuis plus de cinquante ans, un nombre considérable de tests ont été élaborés qui visent à évaluer régulièrement cette intelligence artificielle en plein essor selon des protocoles et des modalités diverses. La très grande hétérogénéité de ces tests ne fait que mettre en évidence la nature plurielle et absolument désagrégée de ce que l’on appelle l’intelligence artificielle. Pour l’heure, il n’existe pas une intelligence synthétique de la machine mais une palette de compétences susceptibles d’être mises chacune, séquentiellement, en concurrence avec la compétence équivalente chez l’homme. Certes, au plan de la mémorisation, du stockage, du traitement statistique des informations et de la vitesse calculatoire, la machine bat l’homme. Soit. Cependant, par analogie, nul ne songe à considérer sérieusement que l’athlète jamaïcain Usain Bolt (le champion du monde du 100 m, du 200 m et du 4 x 100 m) est le meilleur de tous les hommes au prétexte que dans un stade il est manifestement le plus rapide d’entre eux.

    Le test qui semble faire la quasi-unanimité chez les spécialistes, en cela qu’il se fonde justement sur une appréhension synthétique de l’intelligence, est celui conçu par Alan Turing en 1950. Alan Turing (l’homme qui a donné sa pomme croquée à Steve Jobs) est l’un des pionniers de l’intelligence artificielle. Il a très tôt pressenti la possible dérive du discours parascientifique à propos de l’inévitable et spectaculaire confrontation de la créature et de son créateur. Aussi proposait-il de considérer qu’une machine ne pouvait être dite «intelligente» qu’à la condition qu’elle puisse leurrer l’homme en se faisant passer à ses yeux pour une intelligence humaine : un jury rassemblé dans une pièce isolée est ainsi censé discuter sans les voir avec plusieurs interlocuteurs ; si au terme de cinq minutes de conversation la machine qui s’est glissée dans le groupe des interlocuteurs n’a pas été démasquée par au moins 30% des membres du jury, alors le test est réussi. On ne connaît qu’un seul cas de test positif durant les cinquante dernières années - encore convient-il de préciser que le contexte de cette expérience réalisée à l’université de Reading en 2014 est largement contestable et d’ailleurs largement contesté parce qu’il reposait sur une altération stratégique du langage de la machine qui cherchait à se faire passer pour un adolescent ukrainien s’exprimant imparfaitement en anglais…. Le test de Turing introduit une dimension fondamentale au cœur même de la méthode d’appréciation de l’intelligence qui renvoie les tournois d’échecs, de go ou de n’importe quel jeu calculatoire à ce qu’ils sont : des confrontations amusantes de processus techniques et symboliques. Cette dimension, c’est l’aptitude sémantique à véhiculer du sens, à s’exprimer au moyen de règles partagées - ce que l’on appelle la syntaxe - permettant la communication entre deux individus quelconques. Force est de constater qu’AlphaGo n’est pas près encore de commenter son succès ni d’échanger ses impressions avec Lee Sedol…

    Plus généralement, ces tests d’évaluation - et celui de Turing n’échappe pas à la remarque - reposent implicitement sur l’idée que si une machine parvient à imiter la «conscience» (tout ce qui à nos yeux humains en traduit l’existence de façon cognitive : raisonnement, intuition, incertitude…) au point de leurrer à répétition celui qui l’observe, alors l’intelligence artificielle en jeu sera comparable à l’intelligence humaine. Mais il y a là une sorte d’exigence pour le moins discutable qui postule que l’imitation parfaite des conséquences d’un phénomène suffit logiquement à prouver l’existence du phénomène : si dans l’échange je ne suis pas capable de distinguer le comportement imité (la machine) du comportement original (l’humain), c’est que les deux comportements sont identiques. A quoi pourrait donc bien servir de persister à les distinguer ? Des futurologues comme Ray Kurzweil (qui a rejoint Google en 2012) proposent de dépasser ce sophisme en développant le concept de singularité initialement introduit par John von Neumann dans les années 50. Une singularité est un point hypothétique de l’évolution humaine à partir duquel la civilisation est supposée connaître une croissance technologique d’un ordre tout à fait exceptionnel. Ce point, suggère Ray Kurzweil, pourrait être atteint dès lors qu’une intelligence artificielle, une machine, aura le pouvoir de produire elle-même une intelligence artificielle de rang supérieur… Où l’on comprend qu’AlphaGo devrait arrêter de jouer pour se consacrer à des choses plus sérieuses…

    Antoine Billot
    Un mot à ajouter ?