intelligence artificielle (Submit) Menu * Fil info * App Mobile * Newsletter Economie - Actualité économique, conjoncture, entreprises, expansion (Submit) RechercherRechercher ____________________ Rechercher (Submit) PseudoOuverture menu mon compte * Mon compte * Mon abonnement * Mes newsletters * Articles magazine * Edition numérique * Activité : (Submit) off * Déconnexion Se connecter (Submit) Fermer L'Express (Submit) Rechercher Rechercher ____________________ Rechercher * Actualité * Économie * Finances Perso * Entreprise * Emploi * Styles * Tendances * Vidéos * Codes Promo * Codes iTunes Abonnez-vous (Submit) Économie (Submit) Fermer L'Express (Submit) Menu Economie - Actualité économique, conjoncture, entreprises, expansion * À la Une * Actualité économique * Entreprises * High-Tech * Carrière * Immobilier * Energie * Bourse * Placement * Impôts * Vidéos * App Mobile * Newsletter * Abonnez-vous Abonnez-vous Fermer [javascript] lexpress (Submit) Téléchargez l'application (Submit) Non merci High-Tech (Submit) Afficher / Masquer plus d'entrées A voir : * Les drones civils * Facebook au quotidien * Elon Musk, milliardaire mi-mégalomane, mi-visionnaire * Experiences'17 * Piratage du site Ashley Madison * Web, télécoms: taxes en stock * Zoom sur le recrutement des cadres * La robotique et l'automatisation, de l'industrie à la maison * Solar Impulse * Google et sa maison-mère Alphabet * Microsoft, le géant historique de l'informatique * Les VTC * Spotify, Apple Music, Deezer: le streaming musical * Apple * Rachat de Bouygues Telecom par SFR? * Free et la 4G * Facebook, maître des réseaux sociaux * Apple Watch * Amazon * En route pour l'ubérisation: l'invasion des barbares * Télécoms: prix des forfaits, le chamboulement * Quel smartphone choisir? * Bouygues, géant de la construction, des médias et de la téléphonie * Twitter * La fusion entre SFR et Numericable en 2014 Intelligence artificielle: attention danger, même Bill Gates a peur! * Économie High-Tech Par Raphaële Karayan, publié le 02/02/2015 à 17:55 , mis à jour à 18:14 * partages * facebookPartager * TwitterTweeter * Linkedin Linkedin * Mail Envoyer * Whatsapp Whatsapp * ?réactioncommentaire TERMINATOR 2 de James Cameron. TERMINATOR 2 de James Cameron. Prod DB © Carolco Pictures / DR Les progrès de l'intelligence artificielle menacent la survie de l'espèce. Et ce n'est pas madame Michu mais Bill Gates, Stephen Hawking et Elon Musk qui le disent. Ils ne sont d'ailleurs pas les seuls dans la communauté scientifique. Quel est le point commun entre Stephen Hawking, Bill Gates et Elon Musk ? Le scientifique, le co-fondateur de Microsoft, et celui de Tesla et SpaceX pensent que l'intelligence artificielle constitue une menace pour l'humanité. Bill Gates est le dernier des trois à avoir pris position sur le sujet, la semaine dernière, au détour d'une session de questions-réponses sur Reddit. "Je ne comprends pas pourquoi les gens ne sont pas inquiets" Bill Gates Bill Gates REUTERS/Gus Ruelas "Je suis de ceux qui s'inquiètent de la super-intelligence. Dans un premier temps, les machines accompliront de nombreuses tâches à notre place et ne seront pas super-intelligentes. Cela devrait être positif si nous gérons ça bien. Plusieurs décennies plus tard cependant, l'intelligence sera suffisamment puissante pour poser des problèmes. Je suis d'accord avec Elon Musk et d'autres, et je ne comprends pas pourquoi les gens ne sont pas inquiets", a déclaré Bill Gates. Elon Musk joue depuis quelques temps le rôle du Cassandre de l'intelligence artificielle. "Je pense que nous devrions être très prudents. Si je devais deviner ce qui représente la plus grande menace pour notre existence, je dirais probablement l'intelligence artificielle. Je suis de plus en plus enclin à penser qu'il devrait y avoir une régulation, à un niveau national ou international, simplement pour être sûr que nous ne sommes pas en train de faire quelque chose de stupide. Avec l'intelligence artificielle, nous invoquons un démon." L'entrepreneur, adepte des projets futuristes dont la faisabilité n'est pas toujours aussi réaliste que celle de ses voitures électriques, passe parfois pour un doux dingue. Mais il n'est pas le seul à tirer la sonnette d'alarme. Stephen Hawking Stephen Hawking AFP Le célèbre physicien Stephen Hawking, à qui l'on doit des avancées théoriques significatives dans le domaine des trous noirs et de la création de l'univers, se montre lui aussi pessimiste. "Réussir à créer une intelligence artificielle serait le plus grand événement dans l'histoire de l'homme. Mais ce pourrait aussi être le dernier", prévient-il. Ou encore : "L'impact à court terme de l'intelligence artificielle dépend de qui la contrôle. Et, à long terme, de savoir si elle peut être tout simplement contrôlée". Impossible d'anticiper l'ensemble des effets pervers Pourquoi tant de méfiance à l'égard de nos futurs systèmes informatiques ? L'avenir qu'ils nous réservent serait-il forcément à l'image des dystopies imaginées par la science-fiction ? En réalité, certains sont capables de démontrer par A+B pourquoi le développement de l'intelligence artificielle constitue un danger potentiel. Bien sûr, il y a la cyberguerre, le piratage, ou encore la probabilité que quelqu'un conçoive une intelligence informatique délibérément malfaisante. Mais le plus préoccupant, ce n'est pas cela. C'est la possibilité que la machine se retourne contre l'homme, non parce qu'elle aurait acquis comme par magie une conscience maléfique, mais parce que les capacités de calcul limité des programmeurs ne peuvent pas éviter l'apparition d'effets pervers. On pourrait se dire qu'après tout, c'est l'homme qui programme la machine, et que par conséquent, il suffit de ne pas lui donner d'instructions lui permettant de se retourner contre son concepteur. Sauf que "les programmeurs peuvent échouer à anticiper l'ensemble des façons possibles d'atteindre le but qu'ils fixent à la machine, met en garde Nick Bostrom, directeur de l'Institut du Futur de l'Humanité, qui dépend de l'Université d'Oxford. Ceci en raison de biais et de filtres innés et acquis. Une super-intelligence artificielle dépourvue de ces biais, pourrait employer des moyens, logiques mais pervers et dangereux pour l'homme, d'atteindre ce but". Exemple un peu simpliste : un robot à qui l'on aurait assigné la tâche de "faire sourire les gens", et qui, au lieu de raconter des histoires drôles, entreprendrait de leur paralyser les muscles du visage, parce que personne n'aurait songé à lui interdire de le faire. Simple question d'interprétation... Un peu comme si on éditait un manuel pour les machines intitulé "Comment servir l'homme", et qu'elles finissent par en faire un livre de cuisine, pour faire référence à un épisode génial de La Quatrième Dimension. Dangereux parce que "complètement con"? Ce genre de bug est inévitable, selon Gérard Berry, informaticien et professeur au Collège de France, qui vient de recevoir la médaille d'or 2014 du CNRS. Dans une interview à Rue89, il explique : "L'homme est incomplet, incapable d'examiner les conséquences de ce qu'il fait. L'ordinateur, au contraire, va implémenter toutes les conséquences de ce qui est écrit. Si jamais, dans la chaîne de conséquences, il y a quelque chose qui ne devrait pas y être, l'homme ne s'en rendra pas compte, et l'ordinateur va foncer dedans. C'est ça le bug. Un homme n'est pas capable de tirer les conséquences de ses actes à l'échelle de milliards d'instructions. Or c'est ça que va faire le programme, il va exécuter des milliards d'instructions." En d'autres termes, l'ordinateur n'est pas dangereux par supplément de conscience, mais parce qu'il est "complètement con", dixit Gérard Berry. 10 millions de dollars pour la sécurité de l'IA Face à ces dangers, la communauté scientifique ne reste pas les bras ballants et se mobilise. A la suite d'une conférence internationale organisée par l'Institut du Futur de l'Humanité, le 2 janvier, l'Institut a publié une lettre ouverte pour inciter le monde de la recherche à ne pas se concentrer uniquement sur le développement des capacités de l'intelligence artificielle, mais aussi sur ses bénéfices pour la société et la constitution de garde-fous. Elon Musk, qui assistait à cette conférence, a adoré l'idée. Il a decidé de mettre la main à la poche. Il financera à hauteur de 10 millions de dollars un fond de recherche dédié à la sécurité des futures avancées de l'intelligence artificielle. + Plus d'actualité sur : L'intelligence artificielle, l'éthique des algorithmes et l'impact sur l'emploi * Sondage: les moins de 40 ans ont peur des algorithmes * Cédric Villani: "Pas question de taxer les robots" * Intelligence artificielle médicale: la bataille Google-IBM * partages * facebook * Twitter * Linkedin * Mail * Whatsapp * ? réaction * facebookPartager * TwitterTweeter * Whatsapp Whatsapp Ailleurs sur le web Contenu proposé par Taboola En vidéo Services A la Une Economie Pourquoi la pêche électrique échauffe le Parlement européen Vol de démonstration d'un Airbus A380Plus au salon du Bourget, le 22 juin 2017. Le constructeur européen pourrait arrêter le programme faute de commandes. Airbus: atterrissage forcé pour l'A380? Fin 2019, 42% des gains des mesures fiscales devraient aller aux 2% des ménages les plus riches, selon l'OFCE. Photo d'illustration: une boutique Louis Vuitton à Paris, décembre 2017. Un budget 2018 pour les riches? Oui, mais... 37 femmes sont tombées enceintes, alors qu'elles comptaient sur l'application pour ne pas l'être. Capture d'écran. Alerte sur une appli d'aide à la contraception: 37 grossesses signalées Les + partagés 1. 1. Travail des enfants: des associations françaises déposent plainte contre Samsung 10.4Kpartages 2. 2. iPhones bridés: une plainte en France pour "obsolescence programmée" 2.7Kpartages 3. 3. Apple admet ralentir les iPhone qui ont de vieilles batteries 2.7Kpartages 4. 4. À Nice, une application pour rapporter en vidéo des incivilités à la police 2.4Kpartages Newsletter L'Expansion High-Tech Recevez le meilleur de l'actualité high tech sélectionné par la rédaction Votre adresse e-mail ____________________ (Submit) Ok [svg%3E] * WEB * MOBILE * TABLETTE [svg%3E] Découvrez l'offre 100% numérique Profitez d'un mois gratuit Services Commentez cet article Publier votre commentaire Voir les ? commentaires [default-0.png] Bienvenue Pseudo Vous pouvez commenter en direct. Commentaire : ____________________________________________________________ ____________________________________________________________ ____________________________________________________________ ____________________________________________________________ ____________________________________________________________ ____________________________________________________________ Je m'identifie Se connecter et publier Je m'inscris S'inscrire et publier Votre commentaire sera publié directement et modéré a posteriori. En publiant vous acceptez la charte des commentaires [_] Publier ma réaction sur Facebook (Submit) Publier votre commentaire Signaler une faute d'orthographe, une erreur dans l'article, un bug 10 commentaires MrMichu mrmichu 06/06/2015 02:04 mais Madame "Michu" avait exprimé sa crainte des machines en premier. Que faut-il en déduire ??? :) (Submit) Répondre Signaler un contenu abusif BozoLeClown BozoLeClown 03/02/2015 22:09 @Grigori : Bonsoir Ami de la taïga. J'avais zappé votre post de 0h41, c'eut été dommage ... Excellent ! Ca frise le génie ... Mais prenez soin de vous. Car comme le dit un proverbe très répandu dans les kolkhozes : "quand on se couche avec un chien, on se réveille avec des puces" (n'y voyez aucune allusion à Daria, à laquelle vous transmettrez mes hommages. Elle a bien du mérite !). Dobriy viétcher. (Submit) Répondre Signaler un contenu abusif Mister Tiz mister-tiz 03/02/2015 09:41 2 très bons livres sur ce sujet : "Superintelligence: Paths, Dangers, Strategies" de Nick Bostrom (C'est notamment de celui-ci que sont nées toutes les réactions anglo-saxonnes récentes... et le présent article) "L'Esprit, l'IA et la Singularité" de Serge Boisse. Les 2 sont éclairants. (Submit) Répondre Signaler un contenu abusif Ulysses Ulysses 03/02/2015 09:39 @Astérix 63 : Vous avez entièrement raison . Bonne journée. (Submit) Répondre Signaler un contenu abusif Astérix 63 asterix-63 03/02/2015 00:53 @Unbreakable : votre talent de chansonnier me rendrais presque jaloux !! Ba ... non ! A + Bonne nuit. (Submit) Répondre Signaler un contenu abusif Astérix 63 asterix-63 02/02/2015 21:30 Avant de développer l'intelligence artificielle, il serait urgent de réduire la bêtise naturelle. (Submit) Répondre Signaler un contenu abusif BozoLeClown BozoLeClown 02/02/2015 20:21 @Grigori : Moi qui vous prenais pour un moujik, me serais-je tromper ? Izvinitié minia. Je ne savais pas que vous aviez le calibre d'un Sakharov ... (Submit) Répondre Signaler un contenu abusif BozoLeClown BozoLeClown 02/02/2015 19:30 Quand on parle d'intelligence artificielle, on pense spontanément au robot (c'est d'ailleurs un exemple qui est donné dans l'article). Pourtant, le robot n'est pas du tout le facteur de risque principal de l'IA. Si un robot déraille, on le met sur OFF pour lui couper le sifflet et c'est terminé. Là où l'IA peut devenir problématique, c'est dans les systèmes globaux de type "toile" : gestion par IA des flux financiers et du trading, gestion de la distribution d'électricité, gestion des milliards et milliards d'objets connectés qui vont exploser dans les années à venir, etc. Le grand risque de perte de contrôle serait de s'en remettre de plus en plus à l'IA dans ces systèmes informatiques tentaculaires, décentralisés, basés sur la collaboration entre agents, donc avec un "cerveau" difficilement localisable, et une complexité que plus personne ne maîtrise. Le risque est plus du côté de Matrix que de Nao, me semble-t-il. (Submit) Répondre Signaler un contenu abusif Demetrius Demetrius 02/02/2015 19:16 La conjonction de la croissance de la puissance de calcul et l'explosion des découvertes en neuroscience risque de produire des machines hélas pas si connes. Elles seront capables des pires nuisances en cas de défaut de maitrise ou si elles sont utilisées par des mains malveillantes. (Submit) Répondre Signaler un contenu abusif BensERS bensers 02/02/2015 18:40 L'homme par la science et par la technique deviens de plus en plus le fossoyeur de sa propre tombe. (Submit) Répondre Signaler un contenu abusif Services Services A lire aussi Retour vers le haut de page L'Express L'Express * Tous les contenus de la rédaction * Le magazine au format numérique chaque mardi dès 20h Profitez d'un mois gratuit * Archives / * 2016 * 2015 * 2014 * 2013 * 2012 * 2011 * 2010 * 2009 * 2008 * 2007 * 2006 * 2005 * 2004 * 2003 * 2002 * 2001 * 2000 * 1999 * 1998 * 1997 Les services de L'Express * Tous nos dossiers * Classement des lycées * Budget 2018 * Coupe du monde 2018 * Bons de réductions avec l'Express * Black Friday 2017 * Code promo La Redoute * Code promo Sarenza * Code promo Zalando * Code promo Cdiscount Nos partenaires * BIEN MANGER avec Bjorg * COMPARATIF SMARTPHONE avec Meilleurmobile * CODES ITUNES avec L'Express * VINS DE VIGNERONS avec Avenue des Vins * ANNONCES IMMOBILIERES avec Logic-Immo Les sites du réseau Groupe L'Express : * Décoration avec CoteMaison.fr * Food avec Mycuisine.fr * Célébrités avec PointdeVue.fr © L'Express - * Mentions légales * Conditions générales d'utilisation * Charte des commentaires * Contacts * Service Client * Archives * Boutique * Régie Publicitaire IFRAME: //redirect227.tagcommander.com/utils/noscript.php?id=1&mode=iframe