? Menu Libération Connexion Abonnement Les IA rêvent-elles de «Blade Runner» ? «Aquarius», Iran, hackers. . . , les articles que vous auriez pu rater cette semaine 6 janvier 2018 à 17:11 Caroline Fourest : «Les "Je ne suis pas Charlie" finiront comme tous les perdants de l’histoire» 6 janvier 2018 à 15:13 Jean Baubérot : «Le droit au blasphème ne s’applique pas qu’au discours à l’égard des religions» 6 janvier 2018 à 15:50 «Aquarius» : La Libye, d’un nouveau départ à un nouvel exil 6 janvier 2018 à 15:22 A bord de l'Aquarius: un naufrage avec le son, sans l’image 6 janvier 2018 à 18:56 Vexé par les critiques, Donald Trump se qualifie de «génie très stable» 6 janvier 2018 à 17:20 Quoi de neuf en 2018 ? Rien, merci 6 janvier 2018 à 11:50 La Corée du Nord pourrait participer aux JO en Corée du Sud 6 janvier 2018 à 10:10 10 degrés de trop en Europe, 23 millions de chiffres et un gros tas de poussière 6 janvier 2018 à 17:00 Le bitcoin, une monnaie qui tourne au charbon 5 janvier 2018 à 12:08 Au bureau, les économies d'énergies se nichent dans les pièces jointes 5 janvier 2018 à 10:03 L'administration Trump ouvre les vannes du forage offshore 4 janvier 2018 à 23:44 Jean-Pierre Filiu : «Les dictateurs arabes, comme les mamelouks, imposent une domination militaire» 5 janvier 2018 à 19:06 Fabien Truong: «Dans certains quartiers, la question de la haine de soi est très forte» 4 janvier 2018 à 17:36 Lahire, la sociologie à l’assaut de Freud 3 janvier 2018 à 19:56 Liberté de création : ne nous trompons pas de combat ! 3 janvier 2018 à 18:36 La recette du week-end: ni roi, ni fève mais une galette flamande 6 janvier 2018 à 11:02 Parce qu'ils étaient Juifs 5 janvier 2018 à 15:07 En prison, Pommerat brise le quatrième mur 4 janvier 2018 à 17:36 Holy Two, Daniel Alexander, Mou. . . la playlist du cahier musique de «Libé» 5 janvier 2018 à 15:02 Abonnement 100% numérique A partir de 1€ le premier mois Formule Intégrale Libération en version papier et numérique Èvénements Le Grand Paris bouge-t-il ? Mardi 6 février Voyage au cœur de l'IA Mercredi 24 janvier Travail : la réforme expliquée par les experts Vendredi 19 janvier La Boutique Unes en affiches Les unes cultes en tirage photo Relire Libé Commander des anciens numéros info / Réplicant Les IA rêvent-elles de «Blade Runner» ? Par Erwan Cario — 10 juin 2016 à 17:14 Capture d'écran de la vidéo de «Blade Runner» reconstituée par une intelligence artificielle. Capture d'écran de la vidéo de «Blade Runner» reconstituée par une intelligence artificielle. Capture DR Un réseau de neurones a réussi, après l'avoir vu six fois, à reconstituer image par image le film de Ridley Scott. L’intégralité de Blade Runner, le film de Ridley Scott adapté du roman de Philip K. Dick (Les androïdes rêvent-ils de moutons électriques ? ) est disponible sur la plateforme Vimeo. Enfin, il n’y a pas de son et l’image est étrange, un peu floue, ou approximative, plutôt. Un peu comme le souvenir brumeux qu’on pourrait avoir de ce film quelques semaines après l’avoir vu. Etonnant de trouver sur ce site normalement dédié aux créations originales ce qui pourrait s’apparenter au piratage d’une œuvre cinématographique. D’après Vox, la Warner a d’ailleurs fait une demande de retrait DMCA. Mais le film est toujours là, car il ne s’agit pas vraiment de Blade Runner, mais de la reconstruction fascinante, image par image, du film par un programme d’intelligence artificielle (IA) qui a appris à reconnaître l’œuvre de Ridley Scott. Avant d’aller plus loin, petit rappel sur les programmes d’IA. On a beaucoup entendu parler d’intelligence artificielle, de réseaux de neurones et de deep learning lors de la très médiatique victoire d’AlphaGo, le programme de Google Deepmind, sur le joueur coréen Lee Seedol. Mais si le go est un symbole important et un marqueur pour se rendre compte des avancées stupéfiantes réalisées par ce domaine ces dernières années, les progrès ont été surtout visibles dans un tout autre secteur : la reconnaissance d’images. En effet, c’est en 2012 que des algorithmes utilisant le deep learning (ou apprentissage profond en VF) ont commencé à dépasser les programmes utilisant des méthodes plus classiques. Une révolution, alors que le deep learning était considéré comme bien trop gourmand en puissance de calcul pour être sérieusement mis en application. Mais c’était sans compter les GPU, ces processeurs de cartes graphiques, très rapides et très à l’aise avec la manipulation d’images. Depuis, d’ailleurs, pratiquement tous les programmes d’IA fonctionnent en utilisant des GPU. La force du deep learning, c’est de pouvoir isoler tout seul les éléments distinctifs d’une image et donc de les classer en fonction de ce qui est présent. Ainsi, les réseaux de neurones apprennent en analysant un tas d’images, notamment celles disponibles dans la base de données Imagenet et sont ensuite capables de reconnaître les éléments qu’ils ont déjà rencontrés. Et ça marche très bien. Les progrès réalisés ces dernières années sont stupéfiants. Mais ce qui l’est tout autant, c’est qu’on peut, en quelque sorte, faire fonctionner ces réseaux de neurones à l’envers. S’il sait reconnaître un chat à partir de toutes ses caractéristiques distinctives, pourquoi ne pourrait-il pas lui-même créer une image de chat ? Et ça marche ! En novembre 2015, une étape importante a été franchie dans la création d’images qui utilise les réseaux de neurones par Alec Radford et son équipe. Le jeune chercheur avait déjà fait parler de lui durant l’été 2015 en diffusant des images de pochettes d’album générées par la machine, mais il montre quelques mois plus tard une série d’images de chambre à coucher impressionnantes de réalisme. Pour y arriver, il a utilisé un réseau de neurones qui – on schématise encore – lutte contre lui-même. Une partie génère les images de chambre tandis qu’une autre partie essaie de distinguer si c’en est une vraie ou une création artificielle. Résultat, il réussit finalement à créer une série de vignettes particulièrement réalistes. Moar pixels! Samples from 128x128 generative model of ~700K album covers. pic. twitter. com/ttsaDd979n — Alec Radford (@AlecRad) 26 août 2015 Samples after one epoch on 2. 7M LSUN bedroom samples suggests high visual quality is not just overfitting. pic. twitter. com/XekfbKMLTa — Alec Radford (@AlecRad) 11 novembre 2015 Inspiré par cette réussite, le Britannique Terence Broad, étudiant en informatique et artiste, a voulu travailler sur la capacité d’un réseau de neurones à reconstruire un film entier. Mais impossible de se baser uniquement sur la méthodologie utilisée par Alec Radford, car ce dernier génère des images à partir de simples bruits. Terence Broad a donc travaillé à partir de trois réseaux. Le premier encode les images, les réduisant à 200 chiffres qui correspondent aux éléments distinctifs repérés par le programme. Le deuxième essaie de reconstituer l’image à partir de ces 200 chiffres. Et le troisième essaie de savoir si l’image est originale ou fabriquée, ce qui permet finalement de mesurer la différence entre les deux. Et, après six visionnages du film (qui ont quand même pris deux semaines à la GPU milieu de gamme de Terence Broad), grâce à la connaissance accumulée sur Blade Runner, l’étudiant a donc demandé à son programme de reconstituer l’intégralité du film. «La reconstruction de Blade Runner est meilleure que tout ce que j’avais pu imaginer», s’enthousiasme Terence Broad en conclusion d’un long article sur Medium, où il explique sa démarche. Il retente ensuite l’expérience avec d’autres films, A Scanner Darkly, là aussi adaptation d’une œuvre de K. Dick, et Koyaanisqatsi, long métrage expérimental de 1982 qu’il apprécie beaucoup. Les résultats sont là aussi très probants. Mais ce qui est sans doute le plus captivant, c’est quand Broad s’amuse à faire fonctionner le réseau ayant appris Blade Runner à partir des données récupérées en encodant un autre film. Il a donc essayé plusieurs combinaisons à partir des trois films, et passé à la moulinette neuronale la célèbre publicité d’Apple tournée en 1984 par Ridley Scott. Ce qui aboutit à une brume hypnotique dans laquelle, parfois, on distingue des formes qui rappellent la vidéo originale. Terence Broad le conçoit, sa démarche est tout autant scientifique qu’artistique. En utilisant un algorithme d’intelligence artificielle dont le but est de distinguer une image réelle d’une image reconstituée, il établit un lien direct avec Blade Runner. Dans le film, en effet, Rick Deckard, joué par Harrison Ford, essaie en utilisant une série de questions morales appelée «Test de Voight-Kampff» de démasquer des androïdes se faisant passer pour des humains. L’expérience de Broad est une mise en abyme qui questionne l’évolution des IA et l’ambition de les rendre les plus «humaines» possible. Pour aller plus loin dans la compréhension du deep learning, on conseille cette vidéo très claire de Science étonnante. Erwan Cario partager tweeter Vous êtes abonné à Libération Le journal d'aujourd'hui Offre 100% numérique: 1 € le premier mois Le journal du jour en exclusivité et le journal de demain avant tout le monde Voir les offres d’abonnement partager tweeter Aucun commentaire Dans le dossier «High-tech» «La créativité devient un objet d’étude en soi» Hackers : «Chacun de nous a des raisons différentes de douter» Vous êtes abonné à Libération Le journal d'aujourd'hui Offre 100% numérique: 1 € le premier mois Consultation illimitée sur tous les supports Voir les offres d’abonnement Un mot à ajouter ? Quantcast