? Menu Libération Connexion Abonnement Jean-Gabriel Ganascia : «On ne peut pas mettre les lois de la guerre dans une machine» «Aquarius», Iran, hackers. . . , les articles que vous auriez pu rater cette semaine 6 janvier 2018 à 17:11 Caroline Fourest : «Les "Je ne suis pas Charlie" finiront comme tous les perdants de l’histoire» 6 janvier 2018 à 15:13 Jean Baubérot : «Le droit au blasphème ne s’applique pas qu’au discours à l’égard des religions» 6 janvier 2018 à 15:50 «Aquarius» : La Libye, d’un nouveau départ à un nouvel exil 6 janvier 2018 à 15:22 A bord de l'Aquarius: un naufrage avec le son, sans l’image 6 janvier 2018 à 18:56 Vexé par les critiques, Donald Trump se qualifie de «génie très stable» 6 janvier 2018 à 17:20 Quoi de neuf en 2018 ? Rien, merci 6 janvier 2018 à 11:50 La Corée du Nord pourrait participer aux JO en Corée du Sud 6 janvier 2018 à 10:10 10 degrés de trop en Europe, 23 millions de chiffres et un gros tas de poussière 6 janvier 2018 à 17:00 Le bitcoin, une monnaie qui tourne au charbon 5 janvier 2018 à 12:08 Au bureau, les économies d'énergies se nichent dans les pièces jointes 5 janvier 2018 à 10:03 L'administration Trump ouvre les vannes du forage offshore 4 janvier 2018 à 23:44 Jean-Pierre Filiu : «Les dictateurs arabes, comme les mamelouks, imposent une domination militaire» 5 janvier 2018 à 19:06 Fabien Truong: «Dans certains quartiers, la question de la haine de soi est très forte» 4 janvier 2018 à 17:36 Lahire, la sociologie à l’assaut de Freud 3 janvier 2018 à 19:56 Liberté de création : ne nous trompons pas de combat ! 3 janvier 2018 à 18:36 La recette du week-end: ni roi, ni fève mais une galette flamande 6 janvier 2018 à 11:02 Parce qu'ils étaient Juifs 5 janvier 2018 à 15:07 En prison, Pommerat brise le quatrième mur 4 janvier 2018 à 17:36 Holy Two, Daniel Alexander, Mou. . . la playlist du cahier musique de «Libé» 5 janvier 2018 à 15:02 Abonnement 100% numérique A partir de 1€ le premier mois Formule Intégrale Libération en version papier et numérique Èvénements Le Grand Paris bouge-t-il ? Mardi 6 février Voyage au cœur de l'IA Mercredi 24 janvier Travail : la réforme expliquée par les experts Vendredi 19 janvier La Boutique Unes en affiches Les unes cultes en tirage photo Relire Libé Commander des anciens numéros info / Interview Jean-Gabriel Ganascia : «On ne peut pas mettre les lois de la guerre dans une machine» Par Frédérique Roussel — 29 juillet 2015 à 10:53 Membre senior de l'Institut universitaire de France, le chercheur explique que concrètement, un robot est incapable de distinguer un civil d'un militaire et de répondre proportionnellement à une attaque, comme l'exigent les traités internationaux. Professeur à l’université Pierre et Marie Curie et chercheur au Laboratoire d’informatique de Paris 6, Jean-Gabriel Ganascia différencie nettement les risques d'accidents provoqués par des machines autonomes et une éventuelle prise de pouvoir des robots. Que pensez-vous de la lettre ouverte de Musk-Chomsky-Hawking ? Cette lettre fait écho à une tribune sur l’intelligence artificielle rédigée par Stephen Hawking et parue il y a un an. Cette tribune posait mal les problèmes. Elle ne reposait pas du tout sur une réalité scientifique mais sur ce qu’on peut qualifier de fantasme ou de topique de la SF. Derrière, il y avait l’idée de la «singularité technologique». Cette tribune disait cela en substance : on va atteindre un point de non-retour. A partir d’un certain moment, la technologie va prendre son autonomie. Cela veut dire qu’elle se déploiera d’elle-même indépendamment de la volonté des hommes. Nous y perdrions notre liberté de choix et serions soumis au pouvoir des machines. Or il n’y a pas d’éléments tangibles aujourd’hui qui permettent de justifier cette inquiétude. Les progrès de l’intelligence artificielle sont extraordinaires et ne mettent pas à l’abri d’accidents. Mais ce n’est pas pareil d’être attentif aux risques potentiels et de dire : «Attention, vous allez perdre le contrôle. » L’inquiétude est-elle prématurée ? Les auteurs de cette tribune disaient qu’on arrivait dans une phase de basculement ; ils laissaient entendre qu’elle était très proche. C’est une singularité au sens mathématique, c’est-à-dire une discontinuité. Cette approche s’inscrit tout à fait dans les déclarations de l’Institut de la singularité, de l’Institut du futur de la vie et de tout un type d’institutions qui manifestent ce genre de conception. Il y eut ensuite deux lettres ouvertes. La première, publiée en janvier sur le site de l’Institut du futur de la vie et signée par Musk et Hawking, portait sur l’intelligence artificielle en général. Une nouvelle lettre ouverte, publiée sur le même site et signée entre autres par Musk, Chomsky et Hawking, porte plus particulièrement sur les armes autonomes. Indépendamment de la référence implicite à la singularité technologique et d’un arrière-fond «transhumaniste», les questions posées sont légitimes. Les techniques d’apprentissage automatiques permettent aux machines de modifier leur propre programme. Si elles sont autonomes, elles risquent de nous échapper et de se conduire de façon imprévue. Cela signifie que des accidents sont possibles, mais pas que les machines prendront le pouvoir ! Mais est-on aujourd’hui au point d’avoir des machines autonomes ? On a des dispositifs autonomes depuis longtemps. Ils sont conçus pour atteindre les objectifs qui leur ont été fixés à l’avance. Un missile à guidage laser, par exemple, une fois programmé, va «accrocher» sa cible jusqu’à ce qu’il parvienne à la frapper. Des drones procèdent ainsi, téléguidés par un humain à 3 000 km de là, qui leur fixe une cible, ils la prennent en charge ensuite avec un système de guidage. Mais le texte ne parle pas de ça, il dit pire : «Nous allons avoir des systèmes qui choisiront eux-mêmes leurs cibles. » Les cibles pourraient donc être choisies par l’arme elle-même, sans intervention humaine ! Cela génère donc un débat… C’est effectivement inquiétant. Faut-il un moratoire ? Ce n’est pas aux scientifiques de décider mais aux politiques de se prononcer. Un certain nombre d’associations militent pour un moratoire. Des voix s’élèvent aux Etats-Unis pour défendre l’inverse : les robots soldats seront plus éthiques que les militaires, affirme en tête le roboticien Ronald Arkin. Ces positions radicales monopolisent le débat alors que la réalité s’avère beaucoup plus complexe. Il s’agit d’une vraie question politique pour les Etats. A supposer qu’un pays (ou un qu’ensemble de pays comme l’Europe) décide d’un moratoire, il risquerait de se trouver en situation très vulnérable face à d’autres acteurs qui ne s’embarrasseraient pas des mêmes scrupules. D’autant que le danger, c’est que les dispositifs de guidage pourront se diffuser n’importe où à l’avenir, car ils ne seront pas nécessairement coûteux. Il y a une analogie avec les armes bactériologiques et chimiques, armes sales mais relativement économiques. Pourquoi le débat semble-t-il particulièrement intense actuellement aux Etats-Unis ? Il faut comprendre le contexte politique. Sous le mandat d’Obama, le pays a connu une multiplication des drones, une amplification de la politique amorcée par Bush. Beaucoup de films sont sortis sur ce thème, comme Good Kill. La question posée est : faut-il poursuivre ces programmes et jusqu’où ? Si la population a conscience de leurs conséquences néfastes, ils auront peut-être moins de chances de se développer. Mais aura-t-on demain un robot tueur autonome ? Beaucoup de problèmes sont encore à résoudre. La voiture autonome Google a d’assez bons résultats mais comment peut-elle distinguer un piéton d’un policier pour obtempérer ? Cela ne signifie pas qu’on ne parviendra pas à un robot tueur autonome. Mais une fois que les armées auront surmonté la difficulté, il n’y a pas de raison que cela ne se diffuse pas quelques années après dans toute la société, vu la baisse des coûts des calculateurs. Qui plus est, une armée d’un pays «clean» voudra éviter les erreurs ; celle d’un pays terroriste n’aura pas les mêmes atermoiements et se contentera d’un système moins coûteux car moins précis. Comment se pose la problématique de la responsabilité ? Cette question se pose avec tous les dispositifs autonomes. Les programmes informatiques désormais sont d’une telle complexité que, dans le temps de l’action, on n’est pas capable d’anticiper les comportements d’un dispositif automatique. La notion de responsabilité ne se pose plus dans les mêmes termes aujourd’hui qu’auparavant. Notre programme Ethicaa (éthique et agents autonomes, qui regroupe des chercheurs en intelligence artificielle, des philosophes et des spécialistes dans les facteurs humains) étudie comment mettre des systèmes normatifs sur ces machines autonomes pour les empêcher d’avoir des comportements contraires à certaines règles. Ronald Arkin va dire : «Ce sont les lois de la guerre. » Mais on ne peut pas mettre les lois de la guerre dans une machine ! On ne peut pas y mettre la discrimination qui suppose de distinguer les civils des militaires. On ne peut pas non plus respecter le principe de proportionnalité qui induit que la réponse soit proportionnelle à l’attaque. Frédérique Roussel partager tweeter Vous êtes abonné à Libération Le journal d'aujourd'hui Offre 100% numérique: 1 € le premier mois Le journal du jour en exclusivité et le journal de demain avant tout le monde Voir les offres d’abonnement partager tweeter Aucun commentaire Passez à la vidéo Non, instaurer un âge de consentement sexuel ne «permet» pas «aux adultes de coucher avec des enfants» Hillary Clinton Dans le direct A la une de Libé ce week-end Tillerson n'a jamais douté de «l'aptitude mentale» de Trump Madrid : la participation de la drag queen «La prohibida» au défilé des Rois mages déchaîne les élus conservateurs preparando el desfile de la cabalgata. ¿Vamos muy provocador@s? L'addiction aux jeux vidéo va être reconnue comme une maladie par l'OMS Est-ce que les ministères respectent le décret limitant le nombre de collaborateurs ? Un bref regard sur le site du gouvernement laisse à penser que la règle n'est pas toujours respectée. . . On vous explique tout ici. Vous êtes abonné à Libération Le journal d'aujourd'hui Offre 100% numérique: 1 € le premier mois Consultation illimitée sur tous les supports Voir les offres d’abonnement Un mot à ajouter ? Quantcast