Annonces catastrophistes, films d’anticipation ou de science-fiction, ou plus simplement arrivée imminente de technologies prêtes à boulever notre quotidien : les Intelligences Artificielles, ou IA, sont partout.
A tel point que des scientifiques de renom, tel le célèbre physicien Stephen Hawking, voient en l’avènement de ces technologies un danger pour la race humaine. Pourtant, à écouter les spécialistes, la science est encore loin, voire très loin, de créer des machines plus intelligentes que l’être humain. Alors qu’est-ce, finalement, qu’une intelligence artificielle ?
En un peu plus d’un demi siècle d’existence, le champ de l’intelligence artificielle a considérablement évolué. Le terme apparait dès 1956, lorsque le logicien John McCarthy et le mathématicien Marvin Lee Minsky organisent une université d’été où ils présentent, pour la première fois, une nouvelle discipline : l’intelligence artificielle. Ce nouveau champ d’étude “avait pour objet d’étudier l’intelligence avec les moyens de l’artificiel , explique Jean-Gabriel Ganascia, chercheur au Laboratoire d’informatique de Paris 6 (CNRS/UPMC),* et ce avec les techniques nouvelles qu’étaient les ordinateurs. * Ça partait d’une conjecture selon laquelle tous les aspects de l’intelligence pouvaient être décomposés de façon si élémentaire qu’on pouvait les reproduire sur une machine ” :
Quand il s’agit de définir ce qu’est l’IA, la réponse est éminemment complexe, même pour les spécialistes du sujet. “L’intelligence artificielle essaye de reproduire des fonctions qu’on attribue à des entités intelligentes vivantes, précise Yann LeCun, responsable du centre FAIR, le Facebook artificial intelligence research. Quelquefois ces machines dépassent en performance les humains, comme aux échecs. Après, sont-elles plus intelligentes ? Non, elles sont juste très spécialisées. Il est difficile de répondre à cette question parce qu’on considère l’intelligence comme une capacité non seulement à résoudre un problème particulier, mais aussi à avoir une intelligence générale. *”*
"L'apprentissage automatique, essence de l'IA"
_Contrairement aux idées reçues sur les IA, les chercheurs sont à des décennies de comprendre comment construire une machine dotée de cette fameuse intelligence générale. “_Non seulement on en est très loin, mais on n’a absolument aucune idée de comment le faire* ”, assure Yann LeCun, joint par téléphone lors d'un déplacement aux Etats-Unis. Une intelligence artificielle, en l’état actuel des connaissances, est ainsi incapable d’apprendre par elle-même sans être supervisée :
La nouvelle vague d’intérêt autour de l’IA repose donc beaucoup sur l’apprentissage automatique. “Par le passé, les chercheurs qui travaillaient sur l’IA se reposaient beaucoup moins sur cette technique d’apprentissage, et essayaient de construire, un peu à la main, des systèmes capables de raisonner, de manipuler des faits, de faire des déductions logiques, etc. En fait, il s’est avéré qu'il était extrêmement difficile d’abord de représenter la connaissance sous forme biologique et par ailleurs d’écrire des règles qui permettent de faire du raisonnement ”, retrace Yann LeCun. Ces techniques fonctionnent en effet pour des objectifs très simples, mais ne marchent plus dès lors que les chercheurs souhaitent construire une machine qui, par exemple, reconnaît les images ou encore la parole. “D’une certaine manière, l’apprentissage automatique c’est l’essence de l’intelligence artificielle. C’est ce qui explique l’engouement récent pour l’IA : les techniques d’apprentissage se sont beaucoup améliorées ”.

"Cela fait très longtemps que l’on effectue de l’apprentissage machine, estime quant à lui Jean-Gabriel Ganascia. Ce sont des machines qui sont capables de tirer des données de leurs expériences, c’est-à-dire analyser des informations passées .” Pour autant, ces machines restent des mécanismes dénués de conscience propre, ou d’autonomie morale, au sens étymologique du terme, c’est-à-dire “qui se donne sa propre loi”. “Le but de l’intelligence artificielle n’était pas de reproduire un cerveau, * poursuit Jean-Gabriel Ganascia, mais de reproduire les capacités cognitives humaines* ” :
Une question de bon sens
La première Loi de Moore a théorisé une évolution constante des capacités de calcul des ordinateurs. Mais c’est la rapidité d’apprentissage des machines qui augmente consécutivement, et non pas la capacité d’apprentissage :
De fait, malgré des capacités techniques toujours plus importantes, les chercheurs en IA peinent à doter les machines de ce que l’on appelle le “sens commun”.
Ce qu’on ne sait pas faire, ce sont des machines qui ont le sens commun. Si vous fermez les yeux et que je vous dis : “Paul se lève, prend la bouteille d’eau et sort de la pièce ”, il y a plein d'inférences que vous pouvez faire, qui sont dues au sens commun. Savoir que vous êtes probablement en intérieur, dans une pièce ; qu’il faut ouvrir une porte pour sortir ; que la bouteille d’eau n’est plus dans la pièce parce qu’un objet ne peut être qu’à un endroit à la fois ; que vous n’êtes plus dans la pièce non plus ; que vous vous êtes probablement levé pour sortir de la pièce… Il y a énormément d’inférences que l’on peut faire quand on s’imagine cette séquence d’actions, qui sont dues à notre connaissance du monde. Les machines n’ont pas ce sens commun, le fait que la bouteille n’est plus dans la pièce, c’est quelque chose que la machine aura à apprendre par expérience. *Yann LeCun *
Singulière singularité
A en croire les chercheurs, les effrayantes IA du cinéma vont donc rester encore longtemps cantonnées à leur genre : la science-fiction. On est encore très loin du HAL 9000 de 2001, l’Odyssée de l’espace , de la bienveillante entité Samantha de Her , ou encore d’Ava, la curieuse androïde du plus récent* Ex Machina* .

Alors pourquoi des personnalités telles Bill Gates, Stephen Hawking ou encore Elon Musk s’inquiétent-elles de la possible émergence d’une intelligence artificielle, susceptible de détruire l’espèce humaine ?
Les formes primitives d'intelligence artificielle que nous avons déjà se sont montrées très utiles. Mais je pense que le développement d'une intelligence artificielle complète pourrait mettre fin à la race humaine. Stephen Hawking
Pour vérifier l’émergence d’une intelligence artificielle, il est communément admis que celle-ci devrait être capable de passer le test de Turing, imaginé en 1950 par le fameux cryptologue Alan Turing. Pour réussir cette expérience, une machine doit parvenir à échanger avec un être humain sans que ce dernier ne réalise qu’il est en train de discuter avec un ordinateur et non avec un de ses pairs. De l’avis même des chercheurs, ce test n’a pourtant pas grand intérêt : les chatbot, des systèmes de conversation qui paraissent humains mais ne font que reproduire des petits segments de phrases qu’ils ont repérés un peu partout et qu’ils régurgitent au bon moment, seront ainsi bientôt à même de passer le test. “*Ç a semble intelligent,* explique Yann Lecun, parce que ces phrases ont été écrites par des humains à l’origine. Mais c’est une ruse. C’est pour ça qu’on pense que ça n’est pas un bon test.”
En réalité, si nombre de personnes croient en l’émergence plus ou moins immédiate d’une IA, ça n’est pas tant grâce au test de Turing qu’en raison du concept de “singularité technologique” :
Ce point de singularité où l'évolution technologique serait telle que le progrès ne serait plus tant l'oeuvre des humains que celle des IA, reste donc fortement improbable. D’autant que, comme l’affirme Yann LeCun, cette hypothèse omet des limites physiques qui vont contrecarrer cette croissance technologique exponentielle :
On est encore très loin du fameux Skynet de Terminator ou des IA de Matrix, dont le but partagé est d’oblitérer la race humaine. “Dans tous les romans de science-fiction, on voit les robots qui se rebellent parce qu’ils veulent prendre le pouvoir ou deviennent meurtriers parce qu’on menace de les déconnecter, poursuit Yann Lecun. Tout ça vient d’une espèce de projection des qualités et des défauts humains dans les IA. Il leur est prêté un instinct de préservation, de la jalousie ou un désir de puissance alors qu’il n’y aucune raison que ce soit présent dans les machines intelligentes. Ces qualités et ces défauts sont présents chez les humains parce que l’évolution nous a construits de cette manière afin que l’espèce survive. Mais nous n'avons aucune raison de construire ce genre de comportements dans les machines. *”*
IA-éthique
“Ceci dit il y a relativement peu de doutes sur le fait que le progrès technologique va être accéléré par l’avènement de l’intelligence artificielle. C’est déjà un peu le cas”, précise le chercheur du FAIR.
Cette irruption programmée de l’IA dans notre vie de tous les jours va, surtout, rapidement poser des questions d’ordre éthique. François Charpillet, directeur de recherche à l’INRIA, juge nécessaire de s’interroger sur l’impact de la robotique sur l’humanité. “ll faut savoir être pragmatique et en phase avec la portée de la technologie telle qu’elle est aujourd’hui. La question que se posent les gens c’est : “ Est-ce que les robots vont nous prendre notre travail ?”. Je m’intéresse à la robotique d’assistance à la personne en perte d’autonomie et cela pose en effet des questions d’éthique. Pas celles de savoir si le robot doit obéir à l’humain, mais de savoir quel sera l’impact de l’introduction de ces nouvelles technologies dans la vie de tous les jours. La question est de savoir si on peut remplacer l’environnement humain par des machines, c'est beaucoup plus terre à terre que celle des lois de la robotique d’Asimov .”
Si par exemple une voiture sans chauffeur a un accident, qui en sera tenu responsable ? Dans le cas où un accident est inévitable et va fatalement faire une victime, de quelle façon réagira l'intelligence artificielle ? En fonction de quels critères "choisira"-t-elle la victime ? Ces questions ont été abordées à maintes reprises dans la science-fiction (notamment par Isaac Asimov), et elles interrogent nécessairement les spécialistes.
Cette question de l’éthique dans la recherche est devenue si récurrente que plusieurs centaines de chercheurs, dont Yann LeCun, ont signé une lettre ouverte pour appeler à la mise en place de règles censées orienter la recherche en IA pour “servir le bien-être de l’humanité ”. Jean-Gabriel Ganascia :
Une IA complémentaire
A en croire les spécialistes de l’intelligence artificielle, la machine consciente et autonome tient plus du fantasme, de la projection fantaisiste, que d’une imminente réalité. L’IA est à envisager comme une assistance aux problèmes humains :
A l’heure actuelle, les technologies les plus représentatives de ce que sont les IA restent les systèmes de reconnaissance d’images ou de compréhension du langage naturel. Mais dans un futur proche, à une échelle de 10 à 15 ans, nous devrions voir apparaître, à en croire Yann LeCun, de nouvelles machines “qui vont révolutionner la société ” :
Des voitures qui se conduisent seules, des assistants personnels artificiels, des traducteurs automatiques en temps réel ? La science-fiction, parfois, ne semble pas si loin. C3PO n’a qu'à bien se tenir.
(Avec la participation d'Hélène Combis-Schlumberger)