REFRESH(900 sec): le-une-machine-est-elle-capable-de-philosopher_4763043_4408996. html? xtm Le Monde Télérama Le Monde diplomatique Le Huffington Post Courrier international La Vie L'Obs Services Le Monde Partenaires Le Monde Annonces auto Annonces emploi Annonces immo Codes promo Citations Cours d’anglais Formation professionnelle Jardinage Modèles de lettres Orthographe Paroles de chansons Prix de l’immobilier Ventes aux enchères Boutique Le Monde Accueil Hors-Séries Livres DVD CD Unes du Monde S'abonner au Monde à partir de 1 € Rechercher Emploi Newsletters Intelligence artificielle : une machine est-elle capable de philosopher ? Partager Tweeter En poursuivant votre navigation sur ce site, vous acceptez nos CGV et l’utilisation de cookies pour vous proposer des contenus et services adaptés à vos centres d’intérêts et vous permettre l'utilisation de boutons de partages sociaux. En savoir plus et gérer ces paramètres. Rubriques Monde Pixels Une machine est-elle capable de faire la conversation ? Intelligence artificielle : une machine est-elle capable de philosopher ? Alors qu’Apple vient encore d’améliorer son assistant vocal Siri, de quoi sont aujourd’hui capables les intelligences artificielles les plus avancées en matière de conversation ? Le Monde | 18. 09. 2015 à 19h57 • Mis à jour le 12. 10. 2015 à 16h23 | Par Morgane Tual Si certains programmes sont aujourd'hui capables de mener des conversations simples, ils sont encore très loin de comprendre leur sens. Cet article fait partie d’une série consacrée à l’état des lieux de l’intelligence artificielle. De C-3PO à HAL, en passant par l’héroïne virtuelle du film Her, le fantasme d’une intelligence artificielle (IA) aussi évoluée que celle de l’homme passe, dans l’imaginaire collectif, par une machine capable de communiquer naturellement avec son interlocuteur. Avec l’apparition, ces dernières années, d’outils tels que Siri, qu’Apple vient encore de peaufiner, au fond de nos poches, des progrès considérables semblent avoir été faits dans cette direction. Mais où en est-on vraiment ? Dans quelle mesure l’IA est-elle aujourd’hui capable de parler, de dialoguer, de répondre à nos questions et surtout, de comprendre le sens du langage ? Un dialogue primaire Les assistants vocaux Siri et Cortana (Microsoft) font partie des exemples les plus aboutis en la matière, capables de comprendre une grande partie de nos requêtes et d’y répondre. Mais ils atteignent très vite leurs limites : une question « mal » formulée ou ambiguë donnera une réponse insatisfaisante ou absurde. Et si vous vous éloignez des questions concrètes sur les horaires d’une séance de cinéma ou l’état de la circulation, ces intelligences artificielles vous répondront souvent par une pirouette préprogrammée : on est encore loin d’une discussion « naturelle » telle qu’on pourrait en avoir une avec un ami ou un droïde de protocole. Et cela ne devrait pas changer de sitôt. La technologie derrière ces outils est similaire à celle utilisée par la plupart des « chatbots », ou agents conversationnels. En premier lieu, la machine repère des mots-clés dans la phrase de son interlocuteur. Elle va ensuite rechercher dans une base de données la réponse qui semble statistiquement la plus appropriée, en regardant avec quels contenus ces mots-clés sont régulièrement mis en relation. Ce principe n’est pas neuf : comme de nombreuses technologies liées à l’IA, il existait déjà dans les années 1980. Mais la masse de données désormais accessible, la puissance de calcul disponible et les progrès du « machine learning » (l’apprentissage des machines) ont considérablement changé la donne et rendu ces technologies bien plus efficaces. Lire : Comment le « deep learning » révolutionne l'intelligence artificielle Ainsi, l’IA star d’IBM, nommée Watson, a réalisé un petit exploit en 2011 en battant ses adversaires humains au jeu télévisé américain « Jeopardy! ». Dans ce classique de la télévision américaine, le présentateur lit une réponse et les participants doivent deviner la question qui s’y rapporte. Après deux jours de compétition, Watson avait écrasé ses concurrents – une étape symbolique dans l’histoire de l’intelligence artificielle. En quête de sens Mais malgré l’efficacité de ces technologies, « elles restent confinées à des domaines spécifiques», explique Gérard Sabah, chercheur retraité du CNRS, qui a consacré sa carrière aux questions d’IA et de langage. « Elles sont faites pour interroger Internet, et ne vont pas fonctionner pour des questions philosophiques complexes. » Des chercheurs de Google ont pourtant dévoilé en juin une IA capable, entre autres, de répondre à des questions sur le sens de la vie, sans que les réponses ne soient rédigées par les ingénieurs, comme c’est le cas pour Siri sur ce type de questions. Nourrie de 62 millions de phrases issues de sous-titres de films, elle utilise des techniques d’apprentissage pour piocher dans ces données et fournir des réponses la plupart du temps correctes, sur le fond comme sur la forme : Humain — Qui est Skywalker ? Machine — C’est un héros. Humain — Le ciel est-il bleu ou noir ? Machine — Bleu. Humain — Combien de pattes a un chat ? Machine — Quatre, je crois. Humain — Quel est le but de la vie ? Machine — Etre au service du plus grand bien. Avec parfois quelques ratés : Humain — Quel est ton travail ? Machine — Je suis avocat. Humain — Que fais-tu dans la vie ? Machine — Je suis docteur. Malgré les progrès conséquents de ces différents systèmes, ce type d’imperfection demeure. Des problèmes liés à un manquement profond de ces technologies, souligne Gérard Sabah : « Les phrases produites sont correctes, car la machine part de phrases existantes et les modifie en remplaçant certains mots par rapport à la question posée. Mais il reste des incohérences, car les aspects sémantiques profonds ne sont pas pris en compte. Le résultat qui sort est la réponse statistique la plus probable, mais la machine ne la comprend pas. » Le langage humain est un système de communication bien plus complexe que la programmation informatique ou le clic, qui ne comportent aucune ambiguïté. La connaissance nécessaire pour traiter le langage est vaste : vocabulaire, syntaxe, grammaire… Sans compter le fait que chaque mot possède plusieurs sens, que le langage évolue et que la signification d’une phrase diffère selon son contexte. Pour parvenir à une IA capable de comprendre le sens du langage, multiplier la puissance de calcul et le nombre de données ne suffira pas, selon Gérard Sabah : « Pour aller jusqu’au robot de science-fiction, il faudrait développer des méthodes permettant une véritable représentation du sens, et pas un mécanisme fondé sur les statistiques. Avant, on imaginait une IA désincarnée, séparée des aspects biologiques, culturels, sociologiques du monde… Or, il faut prendre en considération tous les aspects de la vie sociale pour avoir une vraie compréhension du sens. Les limites ne seront pas dépassées tant que la machine ne saura pas se référer à une expérience concrète dans le monde réel. » La piste des robots Et cela pourrait passer par la robotique. Le chercheur Luc Steels travaille depuis des années sur la question, au sein de l’institut de recherche Icrea en Espagne, après avoir fondé le laboratoire Sony CSL à Paris. Lui qualifie les systèmes actuels d’« idiots savants » et tente d’aller plus loin, en faisant expérimenter le monde à des intelligences artificielles : « Prenez le mot “rouge”dans le dictionnaire. Sa définition est très différente de l’expérience du rouge. Avec cette définition, le système ne peut pas dire si un objet est rouge. Car le sens est lié à la relation entre le langage et le monde. Pour comprendre le langage, Wikipédia ne suffit pas : il faut ancrer l’agent intelligent dans le monde réel, avec un corps, des capteurs, la capacité d’interagir. » Dans une de ses expériences, deux robots sont entourés d’objets. L’un prend l’initiative et prononce un mot, qu’il associe « dans sa tête » à l’un des objets. Ce mot, « bolima » dans la vidéo ci-dessous, est fabriqué au hasard. L’autre robot ne connaît pas sa signification : il désigne le mauvais objet. Le premier robot lui signale d’un signe de tête qu’il s’est trompé, puis lui indique l’objet qu’il appelle « bolima ». A partir de là, les deux robots se sont mis d’accord sur ce mot pour définir l’objet. En clair : ces agents perçoivent le monde de différents points de vue et apprennent de façon autonome à communiquer pour se comprendre, avec leur propre vocabulaire. Voir cette expérience à 4’30 : Un des anciens élèves de Luc Steels, Pierre-Yves Oudeyer, aujourd’hui directeur de recherches à l’Institut national de recherche en informatique et en automatique, travaille aussi sur la façon dont un groupe de robots est capable de se mettre d’accord sur un modèle linguistique. Dans l’expérience Ergo-robots qu’il a présentée à la Fondation Cartier en 2011, avec un design de David Lynch, cinq robots construisent une langue à partir des éléments qu’ils perçoivent dans leur environnement, comme des objets ou les mouvements des visiteurs. Ils produisent des mots au hasard, qu’ils associent chacun à un sens. « Au début, c’est le bazar, explique Pierre-Yves Oudeyer. Mais progressivement, certains mots vont se propager à toute la population de robots. » Et quand l’expérience recommence à zéro et que les robots sont réinitialisés, un tout autre langage va se mettre progressivement en place. Ce type de recherche, en plus de faire progresser la recherche sur l’IA, permet aussi de travailler sur la question de l’origine du langage chez les humains. Avec ces travaux, poursuit Luc Steels, « on essaie de voir comment des concepts peuvent émerger. On est dans l’interaction dans le temps, pas dans des données et des statistiques. Chaque individu développe une connaissance spécifique du monde. » Ce qui, selon Gérard Sabah, est indispensable pour comprendre le sens des mots : « L’ensemble des connaissances est tel qu’on ne sait pas les représenter toutes dans un programme. Il faut qu’elles soient acquises petit à petit. Un enfant met des années à acquérir des représentations pertinentes sur le monde. On ne pourra obtenir des mécanismes intelligents que par l’apprentissage. » En bref : Ce dont l’intelligence artificielle est aujourd’hui capable : Ce qu’elle ne sait pas faire : Les progrès qu’il reste à faire : Lire dans la même série Intelligence artificielle : quand la machine imite l’artiste Lire Intelligence artificielle : une machine peut-elle ressentir de l’émotion ? Sur le même sujet contrôle des jeux vidéo, des réseaux sociaux et de la pornographie Édition abonnés Contenu exclusif régulation des plates-formes Abonnez-vous à partir de 1 € Le monde abonnements Profitez du journal où et quand vous voulez. Abonnements papier, offres 100 % numériques sur Web et tablette. S'abonner au Monde à partir de 1 € Déjà abonné au journal Le Monde ? Les rubriques du Monde. fr Les services du Monde Sur le web Les sites du Groupe Partenaires Le Monde Suivez-nous Suivez-nous sur Facebook Suivez-nous sur Twitter Suivez-nous sur Google Plus Suivez-nous sur Instagram Suivez-nous sur Mobile Abonnez-nous à nos flux RSS Recevez nos newsletters Index actualités A B C D E F G H I J K L M N O P Q R S T U V W X Y Z personnelles | Mentions légales | Qui sommes-nous ? | Charte groupe | Publicité | Aide (FAQ) Journal d'information en ligne, Le Monde. fr offre à ses visiteurs un panorama complet de l'actualité. Découvrez chaque jour toute l'info en direct (de la politique à l'économie en passant par le sport et la météo) sur Le Monde. fr, le site de news leader de la presse française en ligne. En Continu