#alternate Modifier Wikipédia (fr)
Intelligence artificielle
Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Page d'aide sur l'homonymie Pour les articles homonymes, voir A.I.
Intelligence artificielle (film), IA Ce lien renvoie vers une page
d'homonymie .
Supercalculateur Electronic Art's Intel-ligence-Art-ificielle
(représentation allégorique artistique de « l'Intelligence
artificielle »)
Deep Blue IBM, premier supercalculateur à battre un champion du monde
d'échecs en titre de l'histoire de l'humanité (Matchs Deep Blue contre
Kasparov Russie-États-Unis en 1996 et 1997)
L'intelligence artificielle (IA) est « l'ensemble de théories et de
techniques mises en œuvre en vue de réaliser des machines capables de
simuler l'intelligence »^[1]. Elle correspond donc à un ensemble de
concepts et de technologies plus qu'à une discipline autonome
constituée.
Souvent classée dans le groupe des sciences cognitives, elle fait appel
à la neurobiologie computationnelle (particulièrement aux réseaux
neuronaux), à la logique mathématique (sous-discipline des
mathématiques et de la philosophie) et à l'informatique. Elle recherche
des méthodes de résolution de problèmes à forte complexité logique ou
algorithmique. Par extension elle désigne, dans le langage courant, les
dispositifs imitant ou remplaçant l'humain dans certaines mises en
œuvre de ses fonctions cognitives^[2].
Ses finalités et son développement suscitent, depuis toujours, de
nombreuses interprétations, fantasmes ou inquiétudes s'exprimant tant
dans les récits ou films de science-fiction que dans les essais
philosophiques.
Sommaire
* 1 Définition
* 2 Historique
+ 2.1 Prix Turing
+ 2.2 Faits marquants depuis les années 2000
+ 2.3 En France
* 3 Test de Turing
* 4 Intelligence artificielle forte
+ 4.1 Définition
+ 4.2 Estimation de faisabilité
+ 4.3 Diversité des opinions
+ 4.4 Travaux complémentaires
* 5 Intelligence artificielle faible
+ 5.1 Estimation de faisabilité
* 6 Courants de pensée
+ 6.1 Cognitivisme
+ 6.2 Connexionnisme
+ 6.3 Synthèse
* 7 Différentes facettes
* 8 Conception de systèmes
* 9 Utilisation
+ 9.1 Domaines d’application
+ 9.2 Jeux vidéo
* 10 Précurseurs
+ 10.1 Automates
+ 10.2 Pensée automatique
* 11 Questionnements
+ 11.1 Espoirs et enthousiasme
+ 11.2 Critiques et inquiétudes
+ 11.3 Critique de la technique et de la technologie
+ 11.4 Questionnements éthiques
* 12 Perspectives et projections dans le futur
* 13 Dans la science-fiction
+ 13.1 Quelques IA célèbres dans la science-fiction
* 14 Formation
* 15 L'intelligence artificielle et les jeux
+ 15.1 Othello
+ 15.2 Échecs
+ 15.3 Go
+ 15.4 Jeopardy!
+ 15.5 Poker
* 16 Notes et références
* 17 Annexes
+ 17.1 Bibliographie
+ 17.2 Articles connexes
+ 17.3 Liens externes
Définition[modifier | modifier le code]
Le terme « intelligence artificielle », créé par John McCarthy, est
souvent abrégé par le sigle « IA » (ou « AI » en anglais, pour
Artificial Intelligence). Il est défini par l’un de ses créateurs,
Marvin Lee Minsky, comme « la construction de programmes informatiques
qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de
façon plus satisfaisante par des êtres humains car elles demandent des
processus mentaux de haut niveau tels que : l’apprentissage perceptuel,
l’organisation de la mémoire et le raisonnement critique »^[3]^,^[4].
On y trouve donc le côté « artificiel » atteint par l'usage des
ordinateurs ou de processus électroniques élaborés et le côté
« intelligence » associé à son but d'imiter le comportement. Cette
imitation peut se faire dans le raisonnement, par exemple dans les jeux
ou la pratique des mathématiques, dans la compréhension des langues
naturelles, dans la perception : visuelle (interprétation des images et
des scènes), auditive (compréhension du langage parlé) ou par d'autres
capteurs, dans la commande d'un robot dans un milieu inconnu ou
hostile.
Même si elles respectent globalement la définition de Minsky, il existe
un certain nombre de définitions différentes de l'IA qui varient sur
deux points fondamentaux^[5] :
* Les définitions qui lient la définition de l'IA à un aspect humain
de l'intelligence, et celles qui la lient à un modèle idéal
d'intelligence, non forcément humaine, nommée rationalité.
* Les définitions qui insistent sur le fait que l'IA a pour but
d'avoir toutes les apparences de l'intelligence (humaine ou
rationnelle), et celles qui insistent sur le fait que le
fonctionnement interne du système d'IA doit ressembler également à
celui de l'être humain et être au moins aussi rationnel.
Historique[modifier | modifier le code]
Article détaillé : Histoire de l'intelligence artificielle.
Historiquement, elle trouve son point de départ dans les années 1950
avec les travaux d'Alan Turing, qui se demande si une machine peut
« penser ». Le développement croissant des technologies informatiques
(puissance de calcul) et des techniques algorithmiques (notamment
l'apprentissage profond ou deep learning) ont permis la réalisation de
programmes informatiques surpassant l'homme dans certaines de ses
capacités cognitives emblématiques : le jeu d'échecs en 1997, le jeu de
go en 2016 et le poker en 2017.
L'une des origines de l'intelligence artificielle se trouve
probablement dans l'article d'Alan Turing « Computing Machinery and
Intelligence » (Mind, octobre 1950)^[6], où Turing explore le problème
et propose une expérience maintenant connue sous le nom de test de
Turing dans une tentative de définition d'un standard permettant de
qualifier une machine de « consciente ». Il développe cette idée dans
plusieurs forums, dans la conférence « L'intelligence de la machine,
une idée hérétique »^[7], dans la conférence qu'il donne à la BBC
3^e programme le 15 mai 1951 « Les calculateurs numériques peuvent-ils
penser ? »^[8] ou la discussion avec M.H.A. Newman, Sir Geoffrey
Jefferson et R.B. Braithwaite les 14 et 23 janvier 1952 sur le thème
« Les ordinateurs peuvent-ils penser? »^[9]. L'autre origine probable
est la publication, en 1949, par Warren Weaver de son mémorandum sur la
traduction automatique des langues^[10] qui suggère qu'une machine
puisse faire une tâche qui relève typiquement de l'intelligence
humaine.
On considère que l'intelligence artificielle, en tant que domaine de
recherche, a été créée à la conférence qui s'est tenue sur le campus de
Dartmouth College pendant l'été 1956^[11] à laquelle assistaient ceux
qui vont marquer la discipline. L'intelligence artificielle se
développe ensuite surtout aux États-Unis à l'université Stanford sous
l'impulsion de John McCarthy, au MIT sous celle de Marvin Minsky, à
l'université Carnegie-Mellon sous celle de Allen Newell et Herbert
Simon et à l'université d'Édimbourg sous celle de Donald Michie. En
France, l'un des pionniers est Jacques Pitrat.
Toutefois le sujet de l'intelligence artificielle est un sujet dont les
bornes peuvent varier. Par exemple, la recherche d'un itinéraire était
considéré comme un problème d'intelligence artificielle dans les années
1950, alors que depuis que des applications sont dotées d'algorithmes
pour résoudre ces questions la recherche d'itinéraires n'est plus
considérée comme de l'intelligence artificielle^[12].
Prix Turing[modifier | modifier le code]
Plusieurs prix Turing ont été attribués à des pionniers de
l'intelligence artificielle, citons: Marvin Minsky en 1969, John
McCarthy en 1971, Allen Newell et Herbert Simon en 1975, Edward
Feigenbaum et Raj Reddy en 1994, Judea Pearl en 2011.
Faits marquants depuis les années 2000[modifier | modifier le code]
L'intelligence artificielle est un sujet d'actualité au XXI^e siècle.
En 2004, l'Institut Singularity a lancé une campagne Internet appelée
« Trois lois dangereuses » : « Three Laws Unsafe » (en lien avec les
trois lois d'Asimov) pour sensibiliser aux questions de la
problématique de l'intelligence artificielle et l'insuffisance des lois
d'Asimov en particulier. (Singularity Institute for Artificial
Intelligence 2004)^[13].
En 2005, le projet Blue Brain est lancé, il vise à simuler le cerveau
des mammifères. Il s'agit d'une des méthodes envisagées pour réaliser
une IA. Ils annoncent de plus comme objectif de fabriquer, dans dix
ans, le premier « vrai » cerveau électronique^[14]. En mars 2007, le
gouvernement sud-coréen a annoncé que plus tard dans l'année, il
émettrait une charte sur l'éthique des robots, afin de fixer des normes
pour les utilisateurs et les fabricants. Selon Park Hye-Young, du
ministère de l'Information et de la communication, la Charte reflète
les trois lois d'Asimov : la tentative de définition des règles de base
pour le développement futur de la robotique. En juillet 2009,
Californie, conférence organisé par l'Association for the Advancement
of Artificial Intelligence (AAAI), où un groupe d'informaticiens se
demande s'il devrait y avoir des limites sur la recherche qui pourrait
conduire à la perte de l'emprise humaine sur les systèmes
informatiques, et où il était également question de l'explosion de
l'intelligence (artificielle) et du danger de la singularité
technologique conduisant à un changement d'ère, ou de paradigme
totalement en dehors du contrôle humain^[15]^,^[16].
En 2009, le Massachusetts Institute of Technology (MIT) a lancé un
projet visant à repenser la recherche en intelligence artificielle. Il
réunira des scientifiques qui ont eu du succès dans des domaines
distincts de l'IA. Neil Gershenfeld déclare « Nous voulons
essentiellement revenir 30 ans en arrière, et de revoir quelques
directions aujourd'hui gelées »^[17].
En novembre 2009, l'US Air Force cherche à acquérir 2 200 PlayStation
3^[18] pour utiliser le processeur cell à 7 ou 8 cœurs qu'elle contient
dans le but d'augmenter les capacités de leur superordinateur constitué
de 336 PlayStation 3 (total théorique 52,8 PetaFlops en double
précision). Le nombre sera réduit à 1 700 unités le 22 décembre
2009^[19]. Le projet vise le traitement vidéo haute-définition, et
l'« informatique neuromorphique », ou la création de calculateurs avec
des propriétés/fonctions similaires au cerveau humain^[18].
Le 27 janvier 2010, l'US Air Force demande l'aide de l'industrie pour
développer une intelligence avancée de collecte d'information et avec
la capacité de décision rapide pour aider les forces américaines pour
attaquer ses ennemis rapidement à leurs points les plus vulnérables.
L'US Air Force utilisera une intelligence artificielle, le raisonnement
ontologique, et les procédures informatique basées sur la connaissance,
ainsi que d'autres traitement de données avancées afin de frapper
l'ennemi au meilleur point^[20]. D'autre part, d’ici 2020, plus de
mille bombardiers et chasseurs F-22 et F-35 de dernière génération,
parmi plus de 2 500 avions militaires, commenceront à être équipés de
sorte que, d’ici 2040, tous les avions de guerre américains soient
pilotés par intelligence artificielle, en plus des 10 000 véhicules
terrestres et des 7 000 dispositifs aériens commandés d'ores et déjà à
distance^[21].
Le 16 février 2011, Watson, le superordinateur conçu par IBM, remporte
deux des trois manches du jeu télévisé Jeopardy! en battant largement
ses deux concurrents humains en gains cumulés. Pour cette IA, la
preformance a résidé dans le fait de répondre à des questions de
culture générale (et non un domaine technique précis) dans des délais
très courts. En février 2016, l'artiste et designer Aaron Siegel
propose de faire de Watson un candidat à l'élection présidentielle
américaine afin de lancer le débat sur « le potentiel de l’intelligence
artificielle dans la politique »^[22].
En mai 2013, Google ouvre un laboratoire de recherches dans les locaux
de la NASA. Grâce à un super ordinateur quantique conçu par D-Wave
Systems et qui serait d'après cette société 11 000 fois plus performant
qu'un ordinateur actuel (de 2013)^[23], ils espèrent ainsi faire
progresser l'intelligence artificielle et notamment l'apprentissage
automatique. Raymond Kurzweil est engagé en décembre 2012 par Google
afin de participer et d'améliorer l'apprentissage automatique des
machines et des IA^[24].
En 2014-2015, à la suite du développement rapide du deep learning, et à
l'encontre des penseurs transhumanistes, quelques scientifiques et
membres de la communauté high tech craignent que l'intelligence
artificielle ne vienne à terme dépasser les performances de
l'intelligence humaine. Parmi eux, l'astrophysicien britannique Stephen
Hawking^[25], le fondateur de Microsoft Bill Gates^[26] et le PDG de
Tesla Elon Musk^[27].
Les géants de l'Internet s'intéressent de plus en plus à l'IA^[28]. Le
3 janvier 2016, le patron de Facebook, Mark Zuckerberg, s’est donné
pour objectif de l’année de « construire une intelligence artificielle
simple pour piloter ma maison ou m’aider dans mon
travail »^[réf. nécessaire] Il avait déjà créé en 2013 le laboratoire
Facebook Artifical Intelligence Research (FAIR) dirigé par le chercheur
français Yann LeCun et ouvert un laboratoire de recherche permanente
dans le domaine à Paris^[29].
Apple a de son côté récemment acquis plusieurs start-up du secteur
(Perceptio, VocalIQ, Emotient et Turi)^[30].
En France[modifier | modifier le code]
En France, les pionniers sont Alain Colmerauer, Gérard Huet, Jean-Louis
Laurière, Claude-François Picard, Jacques Pitrat et Jean-Claude
Simon^[31]. Un congrès national annuel Reconnaissance de formes et
intelligence artificielle est créé en 1979 à Toulouse^[32]. En lien
avec l'organisation de la conférence IJCAI (en) à Chambéry en 1993, et
la création d'un GRECO-PRC^[33] intelligence artificielle, en 1983, il
donne naissance à une société savante, l'AFIA en 1989, qui, entre
autres, organise des conférences nationales en intelligence
artificielle^[34].
Dès le début de l'année 2017, les initiatives se multiplient et
s'accélèrent^[pourquoi ?]. Le 17 janvier 2017, le fonds de
capital-risque Serena Capital lance un fonds de 80 millions d’euros
dédié à l’investissement dans les start-up européennes du big data et
de l'intelligence artificielle^[35]. Le 19 janvier 2017, une audition
se tient au Sénat « L'intelligence Artificielle menace-t-elle nos
emplois ? »^[36]. Le 20 janvier 2017, Axelle Lemaire entend valoriser
les potentiels scientifiques et industriels de notre pays grâce au
projet « France IA »^[37].
Test de Turing[modifier | modifier le code]
Schéma du test de Turing.
Article détaillé : Test de Turing.
À l’orée des années 1950, entre la naissance de la cybernétique et
l’émergence quelques années plus tard de l’intelligence artificielle,
alors que les meilleurs esprits du temps s’interrogent sur la
possibilité de construire des machines pensantes, Alan Turing propose,
dès le début d’un article demeuré célèbre, un test pour déterminer si
une machine peut être définie par « consciente »^[pas clair]^[38].
Définir l’intelligence est un défi et il n’est pas certain qu’on puisse
y arriver un jour d’une façon satisfaisante. C’est cette remarque qui
poussa le mathématicien britannique Alan Turing, il y a soixante ans, à
proposer « le jeu de l’imitation » qui fixait un objectif précis à la
science naissante des ordinateurs que l'on n'appelait pas encore
informatique en francophonie. Ce « jeu de l'imitation » suggérait qu'un
juge fictif puisse dialoguer d'une part avec une machine et d'autre
part avec un humain à l'aide d'un terminal sans pouvoir les
discriminer^[39].
Jusqu'à ce jour, aucun logiciel n'a encore pu réussir ce test, à savoir
se comporter de façon à ne pas être discriminé d'un humain, malgré de
nombreuses tentatives. Devant la persistance de ces échecs certains
informaticiens^[Lesquels ?] pensent que mettre au point un programme
aussi complexe ne démontrera pas l'intelligence des programmes ni leur
capacité à penser.
De nos jours, une machine peut certes réviser et faire évoluer des
objectifs qu’on lui a attribués. Une machine peut même être programmée
pour pouvoir restructurer sa connaissance initiale à partir
d’informations reçues ou perçues. Mais la machine d’aujourd’hui ne
pense pas à proprement parler, car elle n’a pas conscience d’elle-même
(et en particulier de ses limites), elle ne peut pas ultimement décider
de ses buts ni imaginer de nouvelles formes de représentations du
monde^[38].
Intelligence artificielle forte[modifier | modifier le code]
Article détaillé : Philosophie de l'intelligence artificielle.
Définition[modifier | modifier le code]
Le concept d’intelligence artificielle forte fait référence à une
machine capable non seulement de produire un comportement intelligent,
mais d’éprouver une impression d'une réelle conscience de soi, de
« vrais sentiments » (quoi qu’on puisse mettre derrière ces mots), et
« une compréhension de ses propres raisonnements »^[40].
L’intelligence artificielle forte a servi de moteur à la discipline,
mais a également suscité de nombreux débats. En se fondant sur
l'hypothèse, que tendent à confirmer les neurosciences et que des
chercheurs n'hésitent pas à affirmer ^[41], que la conscience a un
support biologique et donc matériel, les scientifiques ne voient
généralement pas d’obstacle de principe à créer un jour une
intelligence consciente sur un support matériel autre que biologique.
Selon les tenants de l'IA forte, si à l'heure actuelle il n'y a pas
d'ordinateurs ou de robots aussi intelligents que l'être humain, ce
n'est pas un problème d'outil mais de conception. Il n'y aurait aucune
limite fonctionnelle (un ordinateur est une machine de Turing
universelle avec pour seules limites les limites de la calculabilité),
il n'y aurait que des limites liées à l'aptitude humaine à concevoir
les logiciels appropriés (programme, base de données...). Elle permet
notamment de modéliser des idées abstraites.
Estimation de faisabilité[modifier | modifier le code]
Comparer la capacité de traitement de l'information d'un cerveau humain
à celle d'un ordinateur peut aider à comprendre les ordres de grandeur
pour estimer la possibilité pratique ou non d'une intelligence
artificielle forte, de même qu'un simple calcul de puissance en kW
permet grosso modo de dire qu'un camion donné pourra espérer
transporter commodément telle ou telle charge ou si cela lui sera
impossible. Voici quelques exemples d'ordres de grandeur en traitement
de l'information :
* balance de Roberval : 1 bit par seconde (comparaison de deux
poids) ;
* mainframe typique des années 1970 : 1 million d'opérations par
seconde sur 32 bits ;
* Intel Paragon XP/S, 4 000 processeurs i860 @ 50 MHz (1992) : 160
milliards d'opérations par seconde.
Cette puissance n'est pas à prendre au pied de la lettre. Elle précise
surtout les ordres de grandeur en présence et leur évolution
relativement rapide (2015).
L'intelligence artificielle n'avait donné que des résultats mitigés sur
les ordinateurs typiques de 1970 effectuant 10^7 opérations logiques
par seconde^[42]^,^[43]. Le cerveau humain, formé de 10^11 neurones ne
pouvant chacun commuter plus de 100 fois par seconde en raison de leur
temps de relaxation permettait beaucoup plus de traitements logiques
par unité de temps (10^14 opérations logiques par seconde)^[43]. Ce
handicap technique précis n'existe plus sur les ordinateurs actuels
(2015), travaillant en 64 bits et avec des horloges cadencées à 4 GHz
environ.
Il s'agit là de processeurs destinés au particulier. Concernant des
machines comme Blue Gene, le rapport du nombre de comparaisons par
seconde entre ordinateur et cerveau ont même changé de sens.
Un article de 2013^[44] examine par plusieurs voies quelle pourrait
être la capacité mémoire nécessaire et, selon le mode de calcul,
obtient des chiffres très différents : 1 To, 100 To, 2 500 To (voir big
data), évoquant aussi par jeu 300 Mo, soit 60 MP3 de 3 minutes.
Le matériel serait donc maintenant présent. Du logiciel à la mesure de
ce matériel resterait à développer. En effet, l'important n'est pas de
raisonner plus vite, en traitant plus de données, ou en mémorisant plus
de choses que le cerveau humain^[45], l'important est de traiter les
informations de manière appropriée.
L'IA souligne la difficulté à expliciter toutes les connaissances
utiles à la résolution d'un problème complexe. Certaines connaissances
dites implicites sont acquises par l'expérience et mal formalisables.
Par exemple, qu'est-ce qui distingue un visage familier de deux cents
autres ? Nous ne savons pas toujours clairement l'exprimer^[46].
L'apprentissage de ces connaissances implicites par l'expérience est
exploitée depuis les années 1980 (voir Réseau de neurones). Néanmoins,
un autre type de complexité apparaît : la complexité structurelle.
Comment mettre en relation des modules spécialisés pour traiter un
certain type d'informations, par exemple un système de reconnaissance
des formes visuelles, un système de reconnaissance de la parole, un
système lié à la motivation, à la coordination motrice, au langage,
etc. En revanche, une fois un système cognitif conçu et son
apprentissage par l'expérience réalisé, l'« intelligence »
correspondante peut être distribuée en un grand nombre d'exemplaires,
par exemple sur les portables d'actuaires ou de banquiers pouvant
ainsi, comme le rappelle un slogan, dire oui ou non, mais le dire tout
de suite grâce à des applications dites de credit scoring.
Enfin, au-delà de la simple technique, il reste à savoir de quel type
serait la relation entre l'homme et la machine intelligente : bonne et
peut-être non exempte de bugs, comme dans Les Robots d'Asimov, ou
carrément hostile comme dans Terminator sont deux exemples
possibles^[47].
Diversité des opinions[modifier | modifier le code]
Les principales opinions soutenues pour répondre à la question d’une
intelligence artificielle consciente sont les suivantes :
* Impossible : la conscience serait le propre des organismes vivants,
et elle serait liée à la nature des systèmes biologiques. Cette
position est défendue principalement par des religieux.
+ Problème : Elle rappelle toutefois toutes les controverses
passées entre vitalistes et matérialistes.
* Impossible avec des machines manipulant des symboles comme les
ordinateurs actuels, mais possible avec des systèmes dont
l’organisation matérielle serait fondée sur des processus
quantiques. Cette position est défendue notamment par Roger
Penrose. Des algorithmes quantiques sont théoriquement capables de
mener à bien des calculs hors de l'atteinte pratique des
calculateurs conventionnels (complexité en
[MATH: N ln
( N )
{\displaystyle
N\ln(N)~} :MATH]
N\ln(N)~ au lieu de
[MATH: N 2
{\displaystyle N^{2}~}
:MATH]
N^{2}~ , par exemple, sous réserve d'existence du calculateur
approprié). Au-delà de la rapidité, le fait que l'on puisse
envisager des systèmes quantiques en mesure de calculer des
fonctions non-turing-calculables (voir Hypercalcul) ouvre des
possibilités qui - selon cet auteur - sont fondamentalement
interdites aux machines de Turing.
+ Problème : On ne dispose pas encore pour le moment
d'algorithmes d'IA à mettre en œuvre dans ce domaine. Tout
cela reste donc spéculatif.
* Impossible avec des machines manipulant des symboles comme les
ordinateurs actuels, mais possible avec des systèmes dont
l’organisation matérielle mimerait le fonctionnement du cerveau
humain, par exemple avec des circuits électroniques spécialisés
reproduisant le fonctionnement des neurones.
+ Problème : Le système en question répondant exactement de la
même façon que sa simulation sur ordinateur - toujours
possible - au nom de quel principe leur assigner une
différence ?^[48]
* Impossible avec les algorithmes classiques manipulant des symboles
(logique formelle), car de nombreuses connaissances sont difficiles
à expliciter mais possible avec un apprentissage par l'expérience
de ces connaissances à l'aide d'outils tels que des réseaux de
neurones formels, dont l'organisation logique et non matérielle
s'inspire des neurones biologiques, et utilisés avec du matériel
informatique conventionnel.
+ Problème : si du matériel informatique conventionnel est
utilisé pour réaliser un réseau de neurones, alors il est
possible de réaliser l'IA avec les ordinateurs classiques
manipulant des symboles (puisque ce sont les mêmes machines,
voir Thèse de Church-Turing). Cette position parait donc
incohérente. Toutefois, ses défenseurs (thèse de l'IA forte)
arguent que l'impossibilité en question est liée à notre
inaptitude à tout programmer de manière explicite, elle n'a
rien à voir avec une impossibilité théorique. Par ailleurs, ce
que fait un ordinateur, un système à base d'échanges de bouts
de papier dans une salle immense peut le simuler quelques
milliards de fois plus lentement. Or il peut rester difficile
à admettre que cet échange de bouts de papiers « ait une
conscience ». Voir Chambre chinoise. Selon les tenants de l'IA
forte, cela ne pose toutefois pas de problème.
* Impossible car la pensée n'est pas un phénomène calculable par des
processus discrets et finis. Pour passer d'un état de pensée au
suivant, il y a une infinité non dénombrable, une continuité
d'états transitoires. Cette idée est réfutée par Alain Cardon
(Modéliser et concevoir une Machine pensante).
* Possible avec des ordinateurs manipulant des symboles. La notion de
symbole est toutefois à prendre au sens large. Cette option inclut
les travaux sur le raisonnement ou l'apprentissage symbolique basé
sur la logique des prédicats, mais aussi les techniques
connexionnistes telles que les réseaux de neurones, qui, à la base,
sont définies par des symboles. Cette dernière opinion constitue la
position la plus engagée en faveur de l'intelligence artificielle
forte.
Des auteurs comme Douglas Hofstadter (mais déjà avant lui Arthur C.
Clarke ou Alan Turing) (voir le test de Turing) expriment par ailleurs
un doute sur la possibilité de faire la différence entre une
intelligence artificielle qui éprouverait réellement une conscience, et
une autre qui simulerait exactement ce comportement. Après tout, nous
ne pouvons même pas être certains que d’autres consciences que la
nôtre, y compris chez des humains, éprouvent réellement quoi que ce
soit, si ce n'est par une pétition de principe qui spécule que chaque
humain se retrouve à l'identique chez tous les autres. On retrouve là
le problème connu du solipsisme en philosophie.
Travaux complémentaires[modifier | modifier le code]
Le mathématicien de la physique Roger Penrose^[49] pense que la
conscience viendrait de l'exploitation de phénomènes quantiques dans le
cerveau (voir microtubules), empêchant la simulation réaliste de plus
de quelques dizaines de neurones sur un ordinateur normal, d’où les
résultats encore très partiels de l’IA. Il restait jusqu’à présent
isolé sur cette question. Un autre chercheur a présenté depuis une
thèse de même esprit quoique moins radicale : Andrei Kirilyuk^[50].
Cette spéculation reste néanmoins marginale par rapport aux travaux des
neurosciences. L'action de phénomènes quantiques est
évidente^[réf. nécessaire] dans le cas de la rétine (quelques quanta de
lumière seulement suffisent à une perception) ou de l'odorat, mais elle
ne constitue pas une condition préalable à un traitement efficace de
l'information. En effet, le traitement de l'information effectué par le
cerveau est relativement robuste^[réf. nécessaire] et ne dépend pas de
l'état quantique de chaque molécule, ni même de la présence ou de la
connexion de neurones isolés.
Cela dit, l’intelligence artificielle est loin de se limiter aux seuls
réseaux de neurones, qui ne sont généralement utilisés que comme
classifieurs. Les techniques de résolution générale de problèmes et la
logique des prédicats^[51], entre autres, ont fourni des résultats
significatifs et sont exploités par des ingénieurs et chercheurs dans
plusieurs domaines (en particulier depuis Mycin (en) en 1973 pour le
diagnostic des maladies du sang).
Intelligence artificielle faible[modifier | modifier le code]
Article détaillé : Intelligence artificielle faible.
La notion d’intelligence artificielle faible constitue une approche
pragmatique d’ingénieur : chercher à construire des systèmes de plus en
plus autonomes (pour réduire le coût de leur supervision), des
algorithmes capables de résoudre des problèmes d’une certaine classe,
etc. Mais, cette fois, la machine simule l'intelligence, elle semble
agir comme si elle était intelligente. On en voit des exemples concrets
avec les programmes conversationnels qui tentent de passer le test de
Turing, comme ELIZA. Ces logiciels parviennent à imiter de façon
grossière le comportement d'humains face à d'autres humains lors d'un
dialogue.
Joseph Weizenbaum, créateur du programme ELIZA, met en garde le public
dans son ouvrage Computer Power and Human Reason : si ces programmes
« semblent » intelligents, ils ne le sont pas : ELIZA simule très
grossièrement un psychologue en relevant immédiatement toute mention du
père ou de la mère, en demandant des détails sur tel élément de phrase
et en écrivant de temps en temps « Je comprends. », mais son auteur
rappelle qu'il s'agit d'une simple mystification : le programme ne
comprend en réalité rien.
Les tenants de l'IA forte admettent que s'il y a bien dans ce cas
simple simulation de comportements intelligents, il est aisé de le
découvrir et qu'on ne peut donc généraliser. En effet, si on ne peut
différencier expérimentalement deux comportements intelligents, celui
d'une machine et celui d'un humain, comment peut-on prétendre que les
deux choses ont des propriétés différentes ? Le terme même de
« simulation de l'intelligence » est contesté et devrait, toujours
selon eux, être remplacé par « reproduction de l'intelligence ».
Les tenants de l'IA faible arguent que la plupart des techniques
actuelles d’intelligence artificielle sont inspirées de leur paradigme.
Ce serait par exemple la démarche utilisée par IBM dans son projet
nommé Autonomic computing. La controverse persiste néanmoins avec les
tenants de l'IA forte qui contestent cette interprétation.
Simple évolution, donc, et non révolution : l’intelligence artificielle
s’inscrit à ce compte dans la droite succession de ce qu’ont été la
recherche opérationnelle dans les années 1960, la supervision (en
anglais : process control) dans les années 1970, l’aide à la décision
dans les années 1980 et le data mining dans les années 1990. Et, qui
plus est, avec une certaine continuité.
Il s'agit surtout d'intelligence humaine reconstituée, et de
programmation ad hoc d'un apprentissage, sans qu'une théorie
unificatrice n'existe pour le moment (2011). Le Théorème de Cox-Jaynes
indique toutefois, ce qui est un résultat fort, que sous cinq
contraintes raisonnables, tout procédé d'apprentissage devra être soit
conforme à l'inférence bayésienne, soit incohérent à terme, donc
inefficace^[52].
Estimation de faisabilité[modifier | modifier le code]
Le sémanticien François Rastier, après avoir rappelé les positions de
Turing et de Grice à ce sujet, propose^[53] six « préceptes »
conditionnant un système de dialogue évolué, en précisant qu'elles sont
déjà mises en œuvre par des systèmes existants :
* objectivité (utilisation d'une base de connaissance par le
système) ;
* textualité (prise en compte d'interventions de plus d'une phrase,
qu'elles émanent du système ou de l'utilisateur) ;
* apprentissage (intégration au moins temporaire d'informations
issues des propos de l'utilisateur) ;
* questionnement (demande de précisions de la part du système) ;
* rectification (suggestion de rectifications à la question posée,
lorsque nécessaire) ;
* explicitation (explicitation par le système d'une réponse qu'il a
apportée précédemment).
Il suggère aussi que le système devrait être en mesure de se faire par
lui-même une représentation de l'utilisateur auquel il a affaire, pour
s'adapter à lui. De son côté, l'utilisateur a tendance à s'adapter au
système à partir du moment où il a bien compris qu'il s'adresse à une
machine : il ne conversera pas de la même manière avec un système
automatisé qu'avec un interlocuteur humain, ce qui présente pour le
concepteur l'avantage pragmatique de simplifier certains aspects du
dialogue.
Courants de pensée[modifier | modifier le code]
La cybernétique naissante des années 1940 revendiquait très clairement
son caractère pluridisciplinaire et se nourrissait des contributions
les plus diverses : neurophysiologie, psychologie, logique, sciences
sociales… Et c’est tout naturellement qu’elle envisagea deux approches
des systèmes, deux approches reprises par les sciences cognitives et de
ce fait l’intelligence artificielle : une approche par la décomposition
(du haut vers le bas) et une approche contraire par construction
progressive du bas vers le haut.
Ces deux approches se révèlent plutôt complémentaires que
contradictoires : on est à l'aise pour décomposer rapidement ce que
l'on connaît bien, et une approche pragmatique à partir des seuls
éléments que l'on connaît afin de se familiariser avec les concepts
émergents est plus utile pour les domaines inconnus. Elles sont
respectivement à la base des hypothèses de travail que constituent le
cognitivisme et le connexionnisme, qui tentent aujourd'hui (2005)
d'opérer progressivement leur fusion.
Le HOWTO de Linux sur l'intelligence artificielle v3.0^[54], révisé le
15 décembre 2012, adopte pour la commodité du lecteur la taxinomie
suivante :
* Systèmes symboliques ;
* Connexionnisme ;
* Calcul évolutif (algorithmes génétiques, par exemple) ;
* Alife (vie artificielle) et Complexité ;
* Agents et robotique.
Cognitivisme[modifier | modifier le code]
Le cognitivisme considère que le vivant, tel un ordinateur (bien que
par des procédés évidemment très différents), manipule essentiellement
des symboles élémentaires. Dans son livre La société de l’esprit,
Marvin Minsky, s’appuyant sur des observations du psychologue Jean
Piaget, envisage le processus cognitif comme une compétition d’agents
fournissant des réponses partielles et dont les avis sont arbitrés par
d’autres agents. Il cite les exemples suivants de Piaget :
* L’enfant croit d’abord que plus le niveau d’eau est élevé dans un
verre, plus il y a d’eau dans ce verre. Après avoir joué avec des
transvasements successifs, il intègre le fait que la notion de
hauteur du liquide dans le verre entre en compétition avec celle du
diamètre du verre, et arbitre de son mieux entre les deux.
* Il vit ensuite une expérience analogue en manipulant de la pâte à
modeler : la réduction de plusieurs objets temporairement
représentés à une même boule de pâte l’incite à dégager un concept
de conservation de la quantité de matière.
Au bout du compte, ces jeux d’enfants se révèlent essentiels à la
formation de l’esprit, qui dégagent quelques règles pour arbitrer les
différents éléments d’appréciation qu’il rencontre, par essais et
erreurs.
Connexionnisme[modifier | modifier le code]
Le connexionnisme, se référant aux processus auto-organisationnels,
envisage la cognition comme le résultat d’une interaction globale des
parties élémentaires d’un système. On ne peut nier que le chien dispose
d'une sorte de connaissance des équations différentielles du mouvement,
puisqu’il arrive à attraper un bâton au vol. Et pas davantage qu’un
chat ait aussi une sorte de connaissance de la loi de chute des corps,
puisqu’il se comporte comme s’il savait à partir de quelle hauteur il
ne doit plus essayer de sauter directement pour se diriger vers le sol.
Cette faculté qui évoque un peu l’intuition des philosophes se
caractériserait par la prise en compte et la consolidation d’éléments
perceptifs dont aucun pris isolément n’atteint le seuil de la
conscience, ou en tout cas n’y déclenche d’interprétation particulière.
Synthèse[modifier | modifier le code]
Trois concepts reviennent de façon récurrente dans la plupart des
travaux :
* la redondance (le système est peu sensible à des pannes
ponctuelles) ;
* la réentrance (les composants s'informent en permanence entre eux ;
cette notion diffère de la réentrance en programmation) ;
* la sélection (au fil du temps, les comportements efficaces sont
dégagés et renforcés).
Différentes facettes[modifier | modifier le code]
On peut considérer différents dispositifs intervenant, ensemble ou
séparément, dans un système d’intelligence artificielle tels que :
* le dialogue automatique : se faire comprendre en lui parlant ;
* la traduction automatique, si possible en temps réel ou très
légèrement différé ;
* le traitement automatique du langage naturel ;
* le raisonnement automatique (voir systèmes experts) ;
* l’apprentissage automatique ;
* la composition musicale automatique (voir les travaux de René-Louis
Baron et de l'Ircam) ;
* la reconnaissance de formes, des visages et la vision en général,
etc. ;
* l'intégration automatique d’informations provenant de sources
hétérogènes, (fusion de données) ;
* l'émotion artificielle (voir les travaux de Rosalind Picard sur
l'émotion) et l'éventualité d'une subjectivité artificielle ;
* etc.
Les réalisations actuelles de l’intelligence artificielle peuvent
intervenir dans les fonctions suivantes :
* l'aide aux diagnostics ;
* l'aide à la décision ;
* la résolution de problèmes complexes, tels que les problèmes
d'allocation de ressources ;
* l'assistance par des machines dans les tâches dangereuses, ou
demandant une grande précision ;
* l'automatisation de tâches ;
* etc.
Conception de systèmes[modifier | modifier le code]
Au fil du temps, certains langages de programmation se sont avérés plus
commodes que d’autres pour écrire des applications d’intelligence
artificielle. Parmi ceux-ci, Lisp et Prolog furent sans doute les plus
médiatisés. Lisp constituait une solution ingénieuse pour faire de
l’intelligence artificielle en Fortran^[Contradiction]. ELIZA (le
premier agent conversationnel, donc pas de la « véritable »
intelligence artificielle) tenait en trois pages de SNOBOL. On utilise
aussi, plus pour des raisons de disponibilité et de performance que de
commodité, des langages classiques tels que C ou C++. Lisp a eu pour sa
part une série de successeurs plus ou moins inspirés de lui, dont le
langage Scheme et les langages typés de la programmation fonctionnelle
comme Haskell ou OCaml.
Des programmes de démonstration de théorèmes géométriques simples ont
existé dès les années 1960 ; et des logiciels tels que Maple ou
Mathematica effectuent aujourd’hui des travaux d’intégration symbolique
qui, il y a trente ans encore, étaient du ressort d’un étudiant de
mathématiques supérieures.
Utilisation[modifier | modifier le code]
Un robot NAO en 2014.
Domaines d’application[modifier | modifier le code]
L'intelligence artificielle a été utilisée (ou intervient) dans une
variété de domaines tels que :
* la banque, avec des systèmes experts d'évaluation de risque lié à
l'octroi d'un crédit (credit-scoring) ;
* la finance avec des projets comme ceux de Bridgewater Associates où
une intelligence artificielle va gérer entièrement un fonds^[55] ou
encore la plateforme d'analyse prédictive Sidetrade ;
* le militaire, avec des systèmes tels que les drones, les systèmes
de commandement et l'aide à la décision ; L’utilisation des
intelligences artificielles dans le domaine militaire est devenu de
plus en plus important. Les États-Unis ont dépensé 18 milliards de
dollars pour trois années de recherches dans tous les domaines
requis à l’automatisation de l’armement militaire^[56].
* les jeux ;
* la médecine, avec les systèmes experts d'aide au diagnostic ;
* le droit, dans la perspective de prédire les décisions de justice,
d'aider à la décision et de trancher les cas simples ;
* la logistique, au travers d'approches heuristiques de type
résolution de problème de satisfaction de contraintes ;
* la robotique
Futur : il lui reste à faire, entre autres, en intelligence
artificielle faible :
* générateur de film complet, en image de synthèse, de A à Z, à
partir des souhaits des utilisateurs.
* robot employé de maison
* débogage
* programmation
* Journalisme: des "robots journalistes" pourraient à terme aider les
journalistes en les débarrassant de tâches ingrates, notamment la
veille ou la vérification des fake news^[57].
* Marketing: le programme "Albert", développé par Adgorythms permet
de faciliter les prises de décision dans des campagnes de marketing
digital^[58].
Jeux vidéo[modifier | modifier le code]
L'intelligence artificielle a par exemple été utilisée depuis longtemps
dans la conception de joueurs artificiels pour le jeu d'échecs.
Toutefois, c'est dans les jeux vidéo que l'intelligence artificielle
s'est le plus popularisée.
Celle-ci bénéficie en effet des progrès de l'informatique, avec par
exemple les cartes graphiques dédiées qui déchargent le processeur
principal des tâches graphiques. Le processeur principal peut désormais
être utilisé pour développer des systèmes d’IA plus perfectionnés. Par
exemple, l'intelligence artificielle peut être utilisée pour 'piloter'
des bots (c'est-à-dire les personnages artificiels) évoluant dans les
MMOGs ou les mondes virtuels, mais on peut aussi citer son utilisation
dans des jeux de simulation, ou pour animer des personnages
artificiels.
Dans le domaine du jeu vidéo, l’IA caractérise toute prise de décision
d’un personnage (ou d’un groupe) géré par le jeu, et contraint par
l’intérêt ludique : une « meilleure » IA ne donne pas forcément un jeu
plus jouable^[59], l’objectif est de donner l’illusion d’un
comportement intelligent^[59]. L'éventail de sujets (recherche de
chemin, animation procédurale, planifications stratégiques…) sont
réalisables par des techniques classiques issues de l'IA symbolique
(automates, script, systèmes multi-agents…), fortement dépendante de
l’expertise humaine^[60]. Cette approche est préférée par rapport aux
techniques d'intelligence artificielle plus académiques (réseaux de
neurones, algorithmes génétiques), car mieux contrôlée^[61]. Ces
approches partagent toutes les mêmes contraintes de ressources
restreintes, que ce soit en mémoire, en temps de développement, ou en
temps de calcul, même si globalement ces ressources augmentent plus les
projets sont récents^[61].
Jusqu'à la fin des années 1990, l’IA dans les jeux vidéo (plus
particulièrement dans les jeux de stratégie en temps réel) a été
délaissée par rapport au rendu visuel et sonore. L’« évolution vers des
univers toujours plus réalistes, leur peuplement par des personnages
[…] aux comportements crédibles devient une problématique
importante »^[60]. Pour éviter ce contraste, et coupler dans le même
temps au délestage d’une grosse partie de l’aspect graphique des
processeurs vers les cartes graphiques^[62], on constate à cette
période une augmentation des ressources investies dans l’IA (temps de
développement, ressource processeur)^[62]. Certains jeux sont
précurseurs (Creatures, Black and White) car l’IA y constitue l’élément
central ludique^[réf. nécessaire]. Partant d’une approche à base de
règles rigides, les jeux utilisent alors des IA plus flexibles,
diversifiant les techniques mises en œuvre^[59]. Aujourd'hui la plupart
des jeux vidéo utilisent des solutions ad hoc, il existe néanmoins des
solutions middleware et également des solutions matérielles^[63]
toutefois très minoritaires^[réf. nécessaire].
Avec les jeux en réseau, le besoin d’IA a tout d’abord été
négligé^[62], mais, particulièrement avec l’apparition des jeux
massivement multijoueur, et la présence d’un nombre très important de
joueurs humains se confrontant à des personnages non joueur, ces
derniers ont un besoin très important de pouvoir s'adapter à des
situations qui ne peuvent être prévues. Actuellement ces types de jeux
intéressent particulièrement des chercheurs en IA, y trouvant un
environnement adéquat pour y éprouver différentes architectures
adaptatives^[60].
L'« IA scriptée » est une forme d'intelligence artificielle sans
apprentissage, du type : « si le joueur a telle position, alors faire
prendre tel chemin à deux PNJ », sans que le logiciel sache que cela
encercle le joueur, ou ne varie sa stratégie.
Précurseurs[modifier | modifier le code]
Si les progrès de l’intelligence artificielle sont récents, ce thème de
réflexion est tout à fait ancien, et il apparaît régulièrement au cours
de l’histoire. Les premiers signes d’intérêt pour une intelligence
artificielle et les principaux précurseurs de cette discipline sont les
suivants.
Automates[modifier | modifier le code]
Article connexe : Automate.
Une des plus anciennes traces du thème de « l’homme dans la machine »
date de 800 avant notre ère, en Égypte. La statue du dieu Amon levait
le bras pour désigner le nouveau pharaon parmi les prétendants qui
défilaient devant lui, puis elle « prononçait » un discours de
consécration. Les Égyptiens étaient probablement conscients de la
présence d’un prêtre actionnant un mécanisme et déclarant les paroles
sacrées derrière la statue, mais cela ne semblait pas être pour eux
contradictoire avec l’incarnation de la divinité. Vers la même époque,
Homère, dans L'Iliade (XVIII, 370–421), décrit les automates réalisés
par le dieu forgeron Héphaïstos : des trépieds munis de roues en or,
capables de porter des objets jusqu’à l’Olympe et de revenir seuls dans
la demeure du dieu ; ou encore, deux servantes forgées en or qui
l’assistent dans sa tâche. De même, le Géant de bronze Talos, gardien
des rivages de la Crète, était parfois considéré comme une œuvre du
dieu.
Vitruve, architecte romain, décrit l’existence entre le III^e et le
I^er siècle avant notre ère, d’une école d’ingénieurs fondée par
Ctesibius à Alexandrie, et concevant des mécanismes destinés à
l’amusement tels des corbeaux qui chantaient. Héron L'Ancien décrit
dans son traité « Automates », un carrousel animé grâce à la vapeur et
considéré comme anticipant les machines à vapeur. Les automates
disparaissent ensuite jusqu’à la fin du Moyen Âge. On a prêté à Roger
Bacon la conception d'automates doués de la parole; en fait,
probablement de mécanismes simulant la prononciation de certains mots
simples.
Léonard de Vinci a construit en 1515 un automate en forme de lion pour
amuser le roi de France, François I^[64]. Gio Battista Aleotti et
Salomon de Caus, eux, ont construit des oiseaux artificiels et
chantants, des flûtistes mécaniques, des nymphes, des dragons et des
satyres animés pour égayer des fêtes aristocratiques, des jardins et
des grottes. René Descartes, lui, aurait conçu en 1649 un automate
qu’il appelait « ma fille Francine ». Il conduit par ailleurs une
réflexion d’un modernisme étonnant sur les différences entre la nature
des automates, et celles d’une part des animaux (pas de différence) et
d’autre part celle des hommes (pas d’assimilation). Ces analyses en
font le précurseur méconnu d’un des principaux thèmes de la
science-fiction : l'indistinction entre le vivant et l’artificiel,
entre les hommes et les robots, les androïdes ou les intelligences
artificielles.
Le canard artificiel de Vaucanson (1738).
Jacques de Vaucanson a construit en 1738 un « canard artificiel de
cuivre doré, qui boit, mange, cancane, barbote et digère comme un vrai
canard ». Il était possible de programmer les mouvements de cet
automate, grâce à des pignons placés sur un cylindre gravé, qui
contrôlaient des baguettes traversant les pattes du canard. L’automate
a été exposé pendant plusieurs années en France, en Italie et en
Angleterre, et la transparence de l’abdomen permettait d’observer le
mécanisme interne. Le dispositif permettant de simuler la digestion et
d’expulser une sorte de bouillie verte fait l’objet d’une controverse.
Certains commentateurs estiment que cette bouillie verte n’était pas
fabriquée à partir des aliments ingérés, mais préparée à l’avance.
D’autres estiment que cet avis n’est fondé que sur des imitations du
canard de Vaucanson. Malheureusement, l’incendie du Musée de Nijni
Novgorod en Russie vers 1879 détruisit cet automate.
Les artisans Pierre et Louis Jaquet-Droz fabriquèrent parmi les
meilleurs automates fondés sur un système purement mécanique, avant le
développement des dispositifs électromécaniques. Certains de ces
automates, par un système de cames multiples, étaient capables d'écrire
un petit billet (toujours le même). Enfin, Les Contes d'Hoffmann (et
ballet) L'Homme au sable décrit une poupée mécanique dont s'éprend le
héros.
Pensée automatique[modifier | modifier le code]
Parmi les premiers essais de formalisation de la pensée, les tentatives
suivantes peuvent être citées :
* Raymond Lulle, missionnaire, philosophe, et théologien espagnol du
XIII^e siècle, a fait la première tentative pour engendrer des
idées par un système mécanique. Il combinait aléatoirement des
concepts grâce à une sorte de règle à calcul, un zairja, sur
laquelle pivotaient des disques concentriques gravés de lettres et
de symboles philosophiques. Il baptisa sa méthode Grand Art (Ars
Magna), fondée sur l’identification de concepts de base, puis leur
combinaison mécanique soit entre eux, soit avec des idées connexes.
Raymond Lulle appliqua sa méthode à la métaphysique, puis à la
morale, à la médecine et à l’astrologie. Mais il n’utilisait que la
logique déductive, ce qui ne permettait pas à son système
d’acquérir un apprentissage, ni davantage de remettre en cause ses
principes de départ : seule la logique inductive le permet.
* Gottfried Wilhelm Leibniz, au XVII^e siècle, a imaginé un calcul
pensant (calculus rationator), en assignant un nombre à chaque
concept. La manipulation de ces nombres aurait permis de résoudre
les questions les plus difficiles, et même d’aboutir à un langage
universel. Leibniz a toutefois démontré que l’une des principales
difficultés de cette méthode, également rencontrée dans les travaux
modernes sur l’intelligence artificielle, est l’interconnexion de
tous les concepts, ce qui ne permet pas d’isoler une idée de toutes
les autres pour simplifier les problèmes liés à la pensée.
* George Boole a inventé la formulation mathématique des processus
fondamentaux du raisonnement, connue sous le nom d’algèbre de
Boole. Il était conscient des liens de ses travaux avec les
mécanismes de l’intelligence, comme le montre le titre de son
principal ouvrage paru en 1854 : « Les lois de la pensée » (The
laws of thought), sur l’algèbre booléenne.
* Gottlob Frege perfectionna le système de Boole en formalisant le
concept de prédicat, qui est une entité logique soit vraie, soit
fausse (toute maison a un propriétaire), mais contenant des
variables non logiques, n’ayant en soit aucun degré de vérité
(maison, propriétaire). Cette formalisation eut une grande
importance puisqu’elle permit de démontrer des théorèmes généraux,
simplement en appliquant des règles typographiques à des ensembles
de symboles. La réflexion en langage courant ne portait plus que
sur le choix des règles à appliquer. Par ailleurs, l’utilisateur
joue un rôle important puisqu'il connaît le sens des symboles qu’il
a inventés et ce sens^[65] n'est pas toujours formalisé, ce qui
ramène au problème de la signification en intelligence
artificielle, et de la subjectivité des utilisateurs.
* Bertrand Russell et Alfred North Whitehead publièrent au début du
XX^e siècle un ouvrage intitulé « Principia mathematica », dans
lequel ils résolvent des contradictions internes à la théorie de
Gottlob Frege. Ces travaux laissaient espérer d’aboutir à une
formalisation complète des mathématiques.
* Kurt Gödel démontre au contraire que les mathématiques resteront
une construction ouverte, en publiant en 1931 un article intitulé
« Des propositions formellement indécidables contenues dans les
Principia mathematica et autres systèmes similaires ». Sa
démonstration est qu’à partir d’une certaine complexité d’un
système, on peut y créer plus de propositions logiques qu’on ne
peut en démontrer vraies ou fausses. L’arithmétique, par exemple,
ne peut trancher par ses axiomes si on doit accepter des nombres
dont le carré soit -1. Ce choix reste arbitraire et n’est en rien
lié aux axiomes de base. Le travail de Gödel suggère qu’on pourra
créer ainsi un nombre arbitraire de nouveaux axiomes, compatibles
avec les précédents, au fur et à mesure qu’on en aura besoin. Si
l'arithmétique est démontrée incomplète, le calcul des prédicats
(logique formelle) est au contraire démontré par Gödel comme
complet.
* Alan Turing invente des machines abstraites et universelles
(rebaptisées les machines de Turing), dont les ordinateurs modernes
sont considérés comme des concrétisations. Il démontre l’existence
de calculs qu’aucune machine ne peut faire (un humain pas
davantage, dans les cas qu'il cite), sans pour autant que cela
constitue pour Turing un motif pour douter de la faisabilité de
machines pensantes répondant aux critères du test de Turing.
* Irving John Good^[66], Myron Tribus et E.T. Jaynes ont décrit de
façon très claire les principes assez simples d’un robot à logique
inductive utilisant les principes de l’inférence bayésienne pour
enrichir sa base de connaissances sur la base du Théorème de
Cox-Jaynes. Ils n’ont malheureusement pas traité la question de la
façon dont on pourrait stocker ces connaissances sans que le mode
de stockage entraîne un biais cognitif. Le projet est voisin de
celui de Raymond Lulle, mais fondé cette fois-ci sur une logique
inductive, et donc propre à résoudre quelques problèmes ouverts.
* Robot à logique inductive^[67].
* Des chercheurs comme Alonzo Church ont posé des limites pratiques
aux ambitions de la raison, en orientant la recherche (Herbert
Simon, Michael Rabin, Stephen Cook) vers l’obtention des solutions
en temps fini, ou avec des ressources limitées, ainsi que vers la
catégorisation des problèmes selon des classes de difficulté (en
rapport avec les travaux de Cantor sur l’infini).^[réf. souhaitée]
Questionnements[modifier | modifier le code]
Article connexe : Éthique de l'intelligence artificielle.
Les succès en IA encouragent les spéculations. Dans les milieux
technophiles, on verse en général dans l'enthousiasme, le mouvement
transhumaniste en est la meilleure expression. Au contraire, d'autres
s’inquiètent et sont portées par des interrogations, parfois
alarmistes, y compris dans la sphère de la haute technologie. Ainsi,
des figures réputées telles que Bill Gates — ancien PDG de Microsoft et
« figure emblématique de la révolution informatique de la fin du
XX^e siècle »^[68] — pensent qu'il faut rester très prudent quant aux
développements futurs de ces technologies, qui pourraient devenir
liberticides ou dangereuses.
Le développement de l'intelligence artificielle suscite un grand nombre
de questions, notamment celle relative à la possibilité pour les robots
ou cyborgs d'accéder un jour à la conscience, d'éprouver des émotions
et finalement se substituer aux humains. Certaines de ces réactions
sont ouvertement optimistes, d'autres sont au contraire pessimistes. En
2016, l'INRIA publie un premier Livre blanc consacré à l'IA^[69].
Espoirs et enthousiasme[modifier | modifier le code]
Une description spectaculaire d’un possible avenir de l’intelligence
artificielle a été faite par le statisticien anglais Irving John Good :
« supposons qu’existe une machine surpassant en intelligence tout ce
dont est capable un homme, aussi brillant soit-il. La conception de
telles machines faisant partie des activités intellectuelles, cette
machine pourrait à son tour créer des machines meilleures
qu’elle-même ; cela aurait sans nul doute pour effet une réaction en
chaîne de développement de l’intelligence, pendant que l’intelligence
humaine resterait presque sur place. Il en résulte que la machine ultra
intelligente sera la dernière invention que l’homme aura besoin de
faire, à condition que ladite machine soit assez docile pour
constamment lui obéir. »^[70]
Pour l'Américain Ray Kurzweil, l'intelligence artificielle dépassera
bientôt l'intelligence naturelle.
La mutation qu'évoque Good correspond à un changement qualitatif du
principe même de progrès, et certains la nomment « singularité »^[71]
qui est un concept central pour de nombreux transhumanistes, qui
s'interrogent très sérieusement sur les dangers ou les espoirs d'un tel
scénario, certains allant jusqu'à envisager l'émergence d'un « dieu »
numérique appelé à prendre le contrôle du destin de l'humanité, ou à
fusionner avec elle.
Good estimait à un peu plus d'une chance sur deux la mise au point
d'une telle machine avant la fin du XX^e siècle. La prédiction ne s’est
toujours pas réalisée, en 2012, mais elle avait imprégné le public à
l'époque : le cours de l’action d'IBM quadrupla^[réf. nécessaire] (bien
que les dividendes trimestriels versés restèrent à peu de près
constants) dans les mois qui suivirent la victoire de Deep Blue sur
Garry Kasparov. Une partie du grand public était en effet persuadée
qu’IBM venait de mettre au point le vecteur d’une telle explosion de
l’intelligence et que cette compagnie en tirerait profit. L’espoir fut
déçu : une fois sa victoire acquise, Deep Blue, simple calculateur
évaluant 200 millions de positions à la seconde, sans conscience du jeu
lui-même, fut reconverti en machine classique utilisée pour
l'exploration de données.
Le développement de l'intelligence artificielle suscite l'enthousiasme
des transhumanistes, notamment celui de l'ingénieur américain Ray
Kurzweill, selon qui il est évident qu'à plus ou moins long terme,
l'intelligence - jusqu'alors confinée dans son support biologique, le
cerveau - deviendra progressivement non-biologique et considérablement
plus puissante au point que des cyborgs remplaceront les humains, ceci
en vertu de ce qu'il appelle le principe de singularité^[72]
Critiques et inquiétudes[modifier | modifier le code]
Le développement de l'intelligence artificielle suscite un certain
nombre de craintes, y compris au sein de la sphère high tech. En 2015,
Bill Gates, ex-PDG de Microsoft, s'inquiète à ce sujet^[73].
Le développement de l'intelligence artificielle ne génère pas que de
l'enthousiasme, il suscite également les plus vives inquiétudes, en
premier lieu d'un certain nombre d'auteurs de science-fiction, tels
Isaac Asimov, William Gibson ou Arthur C. Clarke qui, sur le modèle du
récit de l'Apprenti sorcier, décrivent le risque d'une perte de
contrôle des humains sur le processus technique. Tout récemment,
différents intellectuels ont également pris position.
Ainsi l'astrophysicien Stephen Hawking, selon qui le risque est réel
que des machines deviennent un jour plus intelligentes que les humains
et finissent par les dominer, voire se substituer à eux, de la même
façon que les humains ont exterminé certaines espèces animales et la
majorité des virus^[74].
D'autres personnalités reconnues, notamment dans le milieu de la high
tech, expriment publiquement des craintes similaires. C'est ainsi le
cas, en 2015, de Bill Gates, Elon Musk et Bill Joy^[75]. Selon le
spécialiste américain de l'informatique Moshe Vardi, l'intelligence
artificielle pourrait mettre 50 % de l'humanité au chômage. « Nous
approchons d'une époque où les machines pourront surpasser les hommes
dans presque toutes les tâches ». Son avènement poserait, à terme, la
question de l'utilité même de l'espèce humaine^[76].
Certains industriels prennent ces risques au sérieux. Ainsi, en 2016,
Google pose la question du manque de contrôle potentiel d'agents
apprenants qui pourraient apprendre à empêcher leur interruption dans
une tâche. C'est dans ce sens que la firme développe un « bouton
rouge » intégré en bas niveau dans les IA permettant de désactiver les
intelligences artificielles, sans possibilité de contournement par
celle ci (au delà de simplement "tuer" l'IA, l'objectif de ce "bouton
rouge" est aussi de la geler dans son process, en évitant de l'arrêter,
et éviter ainsi une remise à zéro des apprentissages ou des calculs en
cours)^[77].
Critique de la technique et de la technologie[modifier | modifier le code]
Comme l'explique l'historien François Jarrige, la critique de
l'intelligence artificielle trouve son origine dans celle - plus
ancienne et plus générale - des techniques et de la technologie, dont
Lewis Mumford (aux États-Unis)^[78], Jacques Ellul (en France)^[79] et
Günther Anders (en Allemagne)^[80] sont au XX^e siècle les principaux
instigateurs, et qui inspire aujourd'hui différents cercles militants
(en France, par exemple : Pièces et Main d'Œuvre^[81] et
Technologos^[82])^[83].
Selon Jarrige, leurs thèses restent peu connues ou controversées du
fait que "le progrès" et "l'État" restent encore largement surestimés.
Ainsi, reprenant les analyses d'Ellul^[84], les animateurs du groupe
Technologos estiment que l'État est de loin le moins qualifié pour
enrayer l'autonomisation du processus technicien^[85] et qu'il
appartient aux individus de briser les mythes de l'État providence et
du progrès technique : "Ce n'est pas la technique qui nous asservit
mais le sacré transféré à la technique (...). Ce n'est pas l'État qui
nous asservit, c'est sa transfiguration sacrale"^[86].
Questionnements éthiques[modifier | modifier le code]
Le 28 septembre 2016, les géants du secteurs de l'intelligence
artificielle mettent en place un « partenariat pour l’intelligence
artificielle au bénéfice des citoyens et de la société »^[87]. L'année
suivante, Google DeepMind se dote d'une unité en interne pour aborder
les questions éthiques^[88].
Perspectives et projections dans le futur[modifier | modifier le code]
Des chercheurs de l’Institut de l’avenir de l’humanité de l’Université
d’Oxford, de l’Université de Yale et d’AI Impact ont sondé 352 experts
en apprentissage par machine pour prévoir les progrès de l’IA au cours
des prochaines décennies^[89].
Les experts ont été interrogés sur le calendrier des capacités et des
professions spécifiques, ainsi que leurs prédictions quant à savoir
quand l’IA deviendra supérieure aux humains dans toutes les
tâches^[89]. Et quelles en seraient les implications sociales
également^[89]. Les chercheurs ont prédit que les machines seront
meilleures que les humains dans le domaine de la traduction de langues
d’ici 2024^[89]. Elles seraient capables de rédiger des essais d’ici
2026^[89]. De conduire des camions d’ici 2027 et travailler dans le
commerce et la vente en 2031^[89].
D’ici 2050, elles pourront écrire des best-sellers ou exécuter des
travaux de chirurgiens^[89]. Selon les chercheurs, il existe 50 % de
chance pour que l’intelligence artificielle dépasse les humains dans
tous les domaines en seulement 45 ans^[89]. Et, selon la même
probabilité, ils disent que les machines pourraient prendre en charge
tous les emplois humains en 120 ans^[89]. Certains disent même que cela
pourrait se produire plus tôt^[89].
Dans la science-fiction[modifier | modifier le code]
HAL 9000 au Robot Hall of Fame.
Article détaillé : Liste d'ordinateurs de fiction.
Voir aussi la catégorie : Nuvola apps kpager.svg Intelligence
artificielle dans l'art et la culture
Le thème d’une machine capable d’éprouver une conscience et des
sentiments — ou en tout cas de faire comme si tel était le cas —
constitue un grand classique de la science-fiction, notamment dans la
série de romans d’Isaac Asimov sur les robots. Ce sujet a toutefois été
exploité très tôt, comme dans le récit des aventures de Pinocchio,
publié en 1881, où une marionnette capable d’éprouver de l’amour pour
son créateur cherche à devenir un vrai petit garçon, ou dans L'Homme le
plus doué du monde, une nouvelle de l'Américain Edward Page Mitchell où
le cerveau d'un simple d'esprit est remplacé par un ordinateur inspiré
des recherches de Charles Babbage. Le roman Le Miroir flexible, par
Régis Messac, propose quant à lui le principe d'une intelligence
artificielle faible, mais évolutive, avec des automates inspirés de
formes de vie simples, réagissant à certains stimulis tels que la
lumière. Cette trame a fortement inspiré le film A.I. Intelligence
artificielle, réalisé par Steven Spielberg, sur la base des idées de
Stanley Kubrick, lui-même inspiré de Brian Aldiss. L'œuvre de Dan
Simmons, notamment le cycle d'Hypérion, contient également des exposés
et des développements sur le sujet. Autre œuvre majeure de la science
fiction sur ce thème, Destination vide, de Frank Herbert, met en scène
de manière fascinante l'émergence d'une intelligence artificielle
forte.
Les androïdes faisant preuve d'intelligence artificielle dans la
fiction sont nombreux : Data, de la série télévisée Star Trek : The
Next generation, est un être cybernétique doué d'intelligence, avec des
capacités importantes d'apprentissage. Il est officier supérieur sur le
vaisseau Enterprise et évolue aux côtés de ses coéquipiers humains qui
l'inspirent dans sa quête d'humanité. Il est la représentation type de
l'androïde, tel qu'il était pensé dans les années 1980. Son pendant
cinématographique est Bishop dans les films Aliens (sorti en 1986) et
Alien 3 (1992). Dans le manga Ghost in the Shell, une androïde
s’éveille à la conscience. Dans la saga Terminator avec Arnold
Schwarzenegger, le T-800 reprogrammé, conçu initialement pour tuer,
semble dans la capacité d'éprouver des sentiments humains. Par
ailleurs, les Terminators successifs sont envoyés dans le passé par
Skynet, une intelligence artificielle qui a pris conscience
d'elle-même, et du danger que représentent les humains envers
elle-même.
Quelques IA célèbres dans la science-fiction[modifier | modifier le code]
* 1968 : 2001, l'Odyssée de l'espace de Stanley Kubrick, inspiré de
la nouvelle La Sentinelle d'Arthur C. Clarke, également auteur du
scénario du film, avec la lutte entre l’ordinateur HAL et Dave.
* 1969 : Colossus: the Forbin project 1969, d’après le roman de
Dennis Feltham Jones (en) de 1967 (un système d’IA militaire
américain contacte son homologue russe pour qu’ils coopèrent à leur
mission commune, éviter la guerre nucléaire... en neutralisant les
humains !).
* 1981 : Blade Runner de Ridley Scott (1981), inspiré du roman
éponyme de Philip K. Dick, où des humains artificiels (des
« répliquants ») reviennent sur terre après une mission spatiale,
mais n’acceptent pas leur mort programmée à la suite du succès de
leur mission.
* 1982 : K 2000, une Pontiac Trans-Am embarque une intelligence
artificielle au nom de K.I.T.T. Conçue pour réaliser des
diagnostiques pour les dossiers de la F.L.A.G. Elle ne peut
ressentir des émotions, ne peut porter atteinte à la vie d’autrui
et n'écoute que les ordres de Michael Knight. Une partie de
l'histoire repose sur l'importance de la programmation, notamment
avec son jumeau maléfique et prototype K.A.R.R. dont sa principale
différence est d'avoir en priorité l'instinct de survie qui
prédomine les autres limites.
* 1982 : Tron de Steven Lisberger (1982), où le Maître contrôle
principal (MCP) est un programme d'échecs qui a évolué en IA et
tente de prendre le contrôle total du système.
* 1985 : D.A.R.Y.L. est un androïde que le gouvernement américain
cherche à détruire.
* 1999 : Matrix, trilogie cinématographique de science-fiction dans
laquelle les humains, enfermés dans un monde créé par l'IA, sont
asservis par les machines. Une petite poche de résistance humaine
résiste et se bat encore dans l'espoir de la venue de l'Élu : Neo.
* 1999 : L'Homme bicentenaire (film): un exemplaire de NDR-114,
dénommé « Andrew », poursuit un long chemin vers l'acquisition de
la conscience, au point de se voir reconnaitre le statut d'être
humain à la fin de sa « vie ». Il s'agit d'une adaptation de la
nouvelle éponyme d'Isaac Asimov.
* 2001 : A.I. Intelligence artificielle de Steven Spielberg, inspiré
de la nouvelle de Brian Aldiss Les Supertoys durent tout l'été. Le
personnage central est certainement un aboutissement - mais pour
l’instant seulement imaginaire - de l’intelligence artificielle :
un enfant-robot doué d’émotions et de sentiments.
* 2004 : I, Robot avec Will Smith, inspiré de l’œuvre de Isaac Asimov
et thème semblable au film AI.
* 2008 : J.A.R.V.I.S. (Just A Rather Very Intelligent System) dans
les films Iron Man, Avengers, etc. avec Robert Downey JR inspiré
des comics Marvels
* 2011 - 2016 : la série télévisée Person of Interest met en scène un
groupe de personne guidés par une intelligence artificielle capable
de prédire des crimes
* 2012 - 2014 : la série télévisée Real Humans : 100 % humain décrit
l'émergence de robots doués de conscience au sein de la société
humaine.
* 2015 : Ex Machina de Alex Garland, dans lequel un test de Turing
d'une semaine va dégénérer en faveur d'un robot féminin (gynoïde )
révolutionnaire.
* 2016 : la série télévisée Westworld met en scène des androïdes à
l'apparence humaine qui commencent a adopter des comportements
imprévisibles^[90].
Formation[modifier | modifier le code]
Il n'y a pas de diplômes strictement en intelligence artificielle mais
ce sont généralement des diplômés en sciences cognitives, biologie,
biostatistique, informatique, logique, ingénieurie mécanique ou
psychologie qui travaillent dans le champ de l'intelligence
artificielle.
L'intelligence artificielle et les jeux[modifier | modifier le code]
Les jeux, notamment les jeux de stratégie, ont marqué l’histoire de
l’intelligence artificielle, même s’ils ne mesurent que des compétences
particulières, telles que la capacité de la machine en matière de
calcul de probabilités, de prise de décision mais aussi
d’apprentissage. Hans J. Berliner (1929-2017), docteur en science
informatique et fort joueur d'échecs, fut un des pionniers de la
programmation pour les Game Playing Computeurs'. Ses travaux
commencèrent par un programme capable de battre un humain professionnel
au backgammon, puis à partir des années 60 avec l'aide d'IBM il fit des
recherches pour créer un programme capable de rivaliser avec des Grands
Maitres du jeu d'échecs. Ses travaux contribuèrent quelques décennies
plus tard à la réalisation du supercalculateur Deep Blue.^[91]
Othello[modifier | modifier le code]
Dans le jeu Othello, sur un plateau de 8 cases sur 8, chaque joueur
place tour à tour des pions de sa couleur (noir ou blanc). Le vainqueur
est celui qui possède les pions de la couleur dominante.
L'une des premières intelligences artificielles pour l'Othello est
IAGO, développée en 1976 par l'université Caltech de Pasadena
(Californie), qui bat sans difficultés le champion japonais Fumio
Fujita.
Le premier tournoi d'Othello hommes contre machines est organisé en
1980. Un an plus tard, un nouveau tournoi de programmes regroupent 20
systèmes^[92]. C'est entre 1996 et 1997 que le nombre de programmes
explose : Darwersi (1996-1999) par Olivier Arsac, Hannibal (1996) par
Martin Piotte et Louis Geoffroy, Keyano (1997) par Mark Brockington,
Logistello (1997) par Michael Buro, etc.
Échecs[modifier | modifier le code]
Articles détaillés : Matchs Deep Blue contre Kasparov et Programme
d'échecs.
En 1968 David Levy maître international lança le pari à des
spécialistes d'intelligence artificielle qu'aucun programme
d'ordinateur ne serait capable de le battre dans les dix années à
venir. Il ne fut finalement battu que par Deep Thought et cela
seulement en 1989.
En 1988 l'ordinateur HiTech de Hans Berliner fut le premier programme à
battre un grand maître, Arnold Denker. En 1997, la victoire du
supercalculateur Deep Blue (surnommé Deeper Blue lors de ce match
revanche) d’IBM contre le champion du monde d'échecs Garry Kasparov a
marqué un tournant : pour la première fois, l’un des tout meilleurs
joueurs humains du jeu d'échecs était battu par une machine.
Go[modifier | modifier le code]
Articles détaillés : Go en informatique et Match AlphaGo - Lee Sedol.
En 2015, l'IA réalise des progrès significatifs dans la pratique du go,
plus complexe à appréhender que les échecs (entre autres à cause du
plus grand nombre de positions : 10^170 au go, contre 10^50 pour les
échecs, et de parties plausibles : 10^600 au go, contre 10^120 pour les
échecs)^[93].
En octobre 2015, AlphaGo, un logiciel d'IA conçu par DeepMind, filiale
de Google, bat pour la première fois Fan Hui, le triple champion
européen de go^[94] et ainsi relève ce qu'on considérait comme l'un des
plus grands défis pour l'intelligence artificielle. Cette tendance se
confirme en mars 2016 quand AlphaGo bat par trois fois consécutives le
champion du monde de la discipline, Lee Sedol, dans un duel en cinq
parties^[95]. Lee Sedol a déclaré au terme de la seconde partie qu'il
n'avait trouvé « aucune faiblesse » chez l'ordinateur et que sa défaite
était « sans équivoque ».
Jeopardy![modifier | modifier le code]
En 2011, l'IA Watson conçue par IBM, bat ses adversaires humains au jeu
télévisé américain Jeopardy!^[93]. Dans ce jeu de questions/réponses,
la compréhension du langage est essentielle pour la machine ; pour ce
faire, Watson a pu s'appuyer sur une importante base de données interne
lui fournissant des éléments de culture générale, et avait la capacité
d'apprendre par lui-même, notamment de ses erreurs. Il disposait
néanmoins d’un avantage, la capacité d’appuyer instantanément (et donc
avant ses adversaires humains), sur le buzzer pour donner une
réponse^[93].
Poker[modifier | modifier le code]
Après avoir joué plus de 120.000 mains au global, Libratus, développé
par des chercheurs de l'université américaine de Carnegie Mellon, a
accumulé 1.766.250 dollars (virtuels, évidemment). Chaque joueur, parmi
les meilleurs au monde, affrontait la machine dans un face à face selon
les règles du "Texas Hold'em no limit", la version la plus courante du
poker^[réf. nécessaire].
Le joueur qui a le moins perdu d'argent dans son duel, Dong Kim, est
tout de même en déficit de plus de 85.000 dollars. Les parties étaient
retransmises en direct sur la plateforme Twitch. Une victoire nette et
sans bavure, qui marque une nouvelle étape dans le développement de
l'intelligence artificielle^[96].
Notes et références[modifier | modifier le code]
1. ↑ Définition de l'Encyclopédie Larousse
2. ↑ Rapport du Gouvernement, France Intelligence Artificielle, 2017
(https://cache.media.enseignementsup-recherche.gouv.fr/file/Actus/8
6/1/Conclusions_Groupes_Travail_France_IA_738861.pdf)
3. ↑ « the building of computer programs which perform tasks which
are, for the moment, performed in a more satisfactory way by humans
because they require high level mental processes such as :
perception learning, memory organization and critical reasoning ».
4. ↑
http://www.larousse.fr/encyclopedie/divers/intelligence_artificiell
e/187257.
5. ↑ (en) Russell, S. et Norvig, P., Artificial Intelligence: A Modern
Approach (2nd ed.), Prentice Hall, 2003, 932 p.
(ISBN 0-13-790395-2) Section 1.1.
6. ↑ Republié dans Collected Works of A. M. Turing, volume Mechanical
Intelligence, ed. Darrel Ince, (ISBN 978-0-444-88058-1).
7. ↑ Conférence Intelligent machinery, a heretical theory donnée à la
Société 51 à Manchester.
8. ↑ « Can digital computers think? ».
9. ↑ « Can automatic calculating machines be said to think? ».
10. ↑ La première version de ce memorandum a été publié à Carlsbad
(Nouveau Mexique) en juillet 1949. Il a été reproduit dans Machine
Translation of Languages, Cambridge, Massachusetts, MIT Press,
1955, 15–23 p. (ISBN 0-8371-8434-7), « Translation »
11. ↑ Crevier, Daniel (1993), AI: The Tumultuous Search for Artificial
Intelligence, New York, NY: BasicBooks, (ISBN 978-0-465-02997-6),
p. 17.
12. ↑ Le Monde Festival : Yann LeCun et l’intelligence artificielle
13. ↑ (en) « Singularity Institute for Artificial
Intelligence »^(Archive • Wikiwix • Archive.is • Google • Que faire
?) (consulté le 15 juin 2017) (2004), Singularity Institute for
Artificial Intelligence, 3 Laws Unsafe sur
http://www.asimovlaws.com/, récupéré le 7 août 2007, sauvé sur
web.archive.org.
14. ↑ (fr) Un cerveau artificiel annoncé dans dix ans - Le Figaro, 8
septembre 2009.
15. ↑ (en) Scientists Worry Machines May Outsmart Man - New York Times,
25 juillet 2009.
16. ↑ (en) « Implications of AI for Society »^(Archive • Wikiwix •
Archive.is • Google • Que faire ?) (consulté le 15 juin 2017) -
Association for the Advancement of Artificial Intelligence (AAAI).
17. ↑ (en) Science goes back to basics on AI - BBC News, 8 décembre
2009.
18. ↑ ^a et b (en) Air Force To Expand PlayStation-Based Supercomputer
- InformationWeek, 20 novembre 2009.
19. ↑ (en) Sony PlayStation 3 Game Consoles : Solicitation Number:
FA8751-10-R-0003 - Federal Business Opportunities, 22 décembre
2009.
20. ↑ (en) « Air Force to use artificial intelligence and other
advanced data processing to hit the enemy where it hurts » - John
Keller, Military & Aerospace, 27 janvier 2010.
21. ↑ (en) « Robot stealth fighter jet ready to take off ». « Boeing’s
sleek fighter-size Phantom Ray stealth jet will make its first
flight by year’s end. This unmanned airborne system is designed for
a variety of warfighter roles ranging from reconnaissance and
surveillance to aerial refueling, electronic attack and
hunter/killer missions. ».
22. ↑ Une intelligence artificielle peut-elle devenir présidente des
États-Unis ? - Le Monde - 17/02/16.
23. ↑
http://www.cnetfrance.fr/news/google-investit-dans-des-recherches-s
ur-l-intelligence-artificielle-quantique-39790451.htm.
24. ↑ https://www.wired.com/business/2013/04/kurzweil-google-ai/
25. ↑ Hawking : « L'intelligence artificielle pourrait mettre fin à
l'humanité », Le Monde, 3 décembre 2014.
26. ↑ Bill Gates est « préoccupé par la superintelligence »
artificielle, Le Monde, 29 janvier 2015.
27. ↑ Les 37 projets d’Elon Musk contre les dangers de l’intelligence
artificielle, Le Monde, 6 juillet 2015.
28. ↑ Pourquoi les rois du net rêvent d’intelligence artificielle - Les
échos - 16/02/16.
29. ↑ Facebook ouvre un laboratoire d’intelligence artificielle à
Paris.
30. ↑ Apple rachète la start-up d'intelligence artificielle Turi pour
200 millions de dollars.
31. ↑ Jean-Claude Simon sur le Mathematics Genealogy Project
32. ↑ Reconnaissance des formes et intelligence artificielle, congrès
AFCET-IRIA, Toulouse 12, 13, 14 septembre 1979. Il est intitulé
« 2^e congrès » et prend la suite du congrès AFCET-IRIA
Reconnaissance des formes et traitement des images en 1978 à
Chatenay-Malabry.
33. ↑ Un GRECO est un ancêtre des actuels GDR du CNRS et un PRC est un
programme de recherche concertée
34. ↑ « AFIA - Association Française pour l'Intelligence
Artificielle », sur AFIA (consulté le 19 décembre 2017)
35. ↑ Guillaume Bregeras, « Serena Capital crée un fonds big data et
intelligence artificielle », Les Echos, 17 janvier 2017 (lire en
ligne)
36. ↑ « L’Intelligence artificielle menace-t-elle nos emplois ? »,
Public Senat, 20 janvier 2017 (lire en ligne)
37. ↑ Vincent Fagot, « La France fait le pari de l’intelligence
artificielle », Le Monde.fr, 20 janvier 2017 (ISSN 1950-6244, lire
en ligne)
38. ↑ ^a et b « Turing et l’Intelligence Artificielle ».
39. ↑ « L’intelligence artificielle et le test de Turing ».
40. ↑ Dictionnaire de l'informatique (1975), André Le Garff.
41. ↑ Michael David Mitchell, « Robotique et neurosciences détectent le
siège de la conscience de soi », Actualités Mediacom, école
polytechnique fédérale de Lausanne, 2010 (lire en ligne).
42. ↑ et occupant donc en nombre de comparaisons par seconde une
moyenne géométrique entre une balance de Roberval (1 opération
logique par seconde) et le cerveau humain.
43. ↑ ^a et b « Intelligence artificielle : pensée et calcul », sur
www.linternaute.com (consulté le 22 mai 2017)
44. ↑ (en) « If your brain were a computer, how much storage space
would it have? ».
45. ↑ Même si quelques avancées semblent spectaculaires : Jeopardy :
Watson, l’ordinateur d'IBM, a vaincu ses adversaires humains.
46. ↑ Au début des années 2010, le logiciel Picasa 3.8 y arrive
cependant avec un taux de réussite le rendant tout à fait
exploitable.
47. ↑
http://www.dailymail.co.uk/sciencetech/article-3011302/Could-robots
-turn-people-PETS-Elon-Musk-claims-artificial-intelligence-treat-hu
mans-like-Labradors.html.
48. ↑ Voir la Thèse CPC de Bruno Marchal, Thèse de Church-Turing.
49. ↑ Page de Roger Penrose.
50. ↑ Page d'Andrei Kirilyuk.
51. ↑ voir (en)Logical Foundations of Artificial Intelligence, chap.
2.2 Predicate Calculus, p. 13-20.
52. ↑ E.T. Jaynes, Probability Theory : the Logic of Science,
(ISBN 978-0-521-59271-0), également consultable ici :
http://bayes.wustl.edu/etj/prob/book.pdf.
53. ↑ François Rastier, Sémantique et recherches cognitives, PUF, 2001
(2^e éd.).
54. ↑
http://www.ibiblio.org/pub/Linux/docs/HOWTO/other-formats/pdf/AI-Al
ife-HOWTO.pdf.
55. ↑ Bientôt un hedge fund contrôlé par intelligence artificielle? -
BFMTV - 17/03/2015.
56. ↑
https://www.nytimes.com/2016/10/26/us/pentagon-artificial-intellige
nce-terminator.html?_r=0
57. ↑ Ivan Capecchi, « Médias, faites GAFA à l’IA ! », L’ADN, 11 mai
2017 (lire en ligne)
58. ↑ « Intelligence artificielle : le Gong de fin pour les agences
média ? »^(Archive • Wikiwix • Archive.is • Google • Que faire ?),
sur Siècle Digital, 11 mai 2017 (consulté le 14 mai 2017)
59. ↑ ^a, b et c (en) Game AI: The State of the Industry, Part Two,
David C. Pottinger, John E. Laird, Gamasutra, 8 novembre 2000.
60. ↑ ^a, b et c « MHiCS, une architecture de sélection de l'action
motivationnelle et hiérarchique à systèmes de classeurs pour
personnages non joueurs adaptatifs »^(Archive • Wikiwix •
Archive.is • Google • Que faire ?) (consulté le 15 juin 2017),
Gabriel Robert, LIP6, 2005.
61. ↑ ^a et b (en) Game AI: The State of the Industry, Steven Woodcock,
Gamasutra, 1^er novembre 2000.
62. ↑ ^a, b et c (en) Game AI: The State of the Industry, Steve
Woodcock, Gamasutra, 1998.
63. ↑ Aiseek.
64. ↑ « Le lion automate de Léonard de Vinci revit », sur
fr.reuters.com, 15 août 2009 (consulté le 17 avril 2017)
65. ↑ On parle de sémantique.
66. ↑ « Irving John Good »^(Archive • Wikiwix • Archive.is • Google •
Que faire ?) (consulté le 15 juin 2017).
67. ↑ (en) Robot à logique inductive (en anglais, PDF).
68. ↑ « Bill Gates », sur Universalis.fr (consulté le 16 octobre 2016)
69. ↑ Inria, « Intelligence Artificielle, les défis actuels et l'action
d'Inria - Inria », Inria, 2016 (lire en ligne)
70. ↑ Good, I. J. (1965), Franz L. Alt and Morris Rubinoff, eds.,
"Speculations Concerning the First Ultraintelligent Machine",
Advances in Computers, Advances in Computers.
71. ↑ Scruter la Singularité, Eliezer S. Yudkowsky, mai 2004.
72. ↑ Ray Kurzweil, Humanité 2.0 : La Bible du changement, 2007.
Édition originale, The Singularity is Near: When Humans Transcend
Biology, 2007.
73. ↑ « Intelligence artificielle : pourquoi Musk, Hawking et Gates
s'inquiètent ? », Les Échos.fr, 30 janvier 2015.
74. ↑ « Selon Stephen Hawking, l’intelligence artificielle est un
danger pour l’humanité - Web Développement Durable », sur Web
Développement Durable (consulté le 28 février 2016).
75. ↑ L'intelligence artificielle inquiète les grands cerveaux
contemporains, France 24, 2 février 2015.
76. ↑ L'intelligence artificielle pourrait mettre 50% de l'humanité au
chômage. L'Express - 15/02/16.
77. ↑ Morgane Tual, « Pourquoi Google a conçu un « bouton rouge » pour
désactiver des intelligences artificielles », Le Monde.fr, 7 juin
2016 (ISSN 1950-6244, lire en ligne).
78. ↑ Lewis Mumford, Le Mythe de la machine, deux volumes, 1967-1970;
tard., Fayard, 1974.
79. ↑ Jacques Ellul, La Technique ou l'Enjeu du siècle, 1954;
3^e édition : Economica 2008.
80. ↑ Günther Anders, L'obsolescence de l'homme, tome 1, 1956; tome 2,
1980; tard. fr .2002 et 2011.
81. ↑ Pièces et Main d'Œuvre Site officiel.
82. ↑ Technologos Site officiel.
83. ↑ François Jarrige, Techno-critiques. Du refus des machines à la
contestation des technosciences, La Découverte, 2014.
84. ↑ Jacques Ellul, L'Illusion politique, 1965; 3^e édition : La Table
Ronde, 2004.
85. ↑ Technologos, "Qui sommes-nous ?", articles 31 à 33.
86. ↑ Jacques Ellul, Les nouveaux possédés, 1973 ; 2^e éd. Mille et une
nuits/Fayard, 2003, p. 316.
87. ↑ Morgane Tual, « Intelligence artificielle : les géants du Web
lancent un partenariat sur l’éthique », Le Monde.fr, 28 septembre
2016 (ISSN 1950-6244, lire en ligne).
88. ↑ « Intelligence artificielle : Google DeepMind se dote d’une unité
de recherche sur l’éthique », Le Monde.fr, 4 octobre 2017
(ISSN 1950-6244, lire en ligne).
89. ↑ ^a, b, c, d, e, f, g, h, i et j (en) Katja Grace, John Salvatier,
Allan Dafoe, Baobao Zhang, Owain Evans, « When Will AI Exceed Human
Performance? Evidence from AI Experts », arxiv.org, 24 mai 2017.
90. ↑ AlloCine, « Westworld » (consulté le 22 décembre 2016)
91. ↑ Article de Dylan L. McClain, New York Times, 16 janvier 2017, et
article "Hans J. Berliner (1929-2017), Grand Maître d'échecs et
programmeur de génie", Denis Rozier, Le Courrier des Echecs n°639,
mars 2017
92. ↑ « Les jeux et l'intelligence artificielle », sur u-picardie.fr
(consulté le 27 septembre 2016)
93. ↑ ^a, b et c « Jeu de go : comment savoir si les programmes
d’intelligence artificielle sont vraiment… intelligents », Le
Monde.fr, 9 mars 2016.
94. ↑ Source : Nature News - Janvier 2016.^[réf. insuffisante]
95. ↑ « Jeu de go : Le champion du monde de nouveau battu par
l'ordinateur de Google », L'Obs.com.
96. ↑ « comment une-intelligence artificielle ridiculise les meilleurs
joueurs de poker », sur www.numerama.com, 27 janvier 2017 (consulté
le 11 décembre 2017)
Annexes[modifier | modifier le code]
Sur les autres projets Wikimedia :
* Département:Intelligence artificielle, sur Wikiversity
Bibliographie[modifier | modifier le code]
Aspects techniques
* Alan Turing, Jean-Yves Girard, La machine de Turing, Éditions du
Seuil, 1995 [détail de l’édition], Les Ordinateurs et
l'Intelligence, p. 133–174
* Claire Rémy, L'Intelligence artificielle, 1994 (ISBN 2-10-002258-X)
* Jean-Marc Alliot et Thomas Schiex, Intelligence artificielle et
informatique théorique, CEPADUES, 2002 (ISBN 2-85428-578-6)
* (en) Michael R. Genesereth et Nils J. Nilsson, Logical Foundations
of Artificial Intelligence, Los Altos, Californie, États-Unis,
Morgan Kaufmann, 1987, 405 p. [détail de l’édition]
(ISBN 0-934613-31-1)
* Stuart Jonathan Russell et Peter Norvig, Intelligence Artificielle,
Pearson education, 2006 (ISBN 978-2-7440-7150-8)
* Jean-Louis Laurière, Intelligence Artificielle, Eyrolles, 1986
* Jean-Paul Delahaye, Outils logiques pour l'intelligence
artificielle, Eyrolles, 1985 [détail des éditions]
(ISBN 978-2212084122)
* Jean-Paul Haton, Marie-Christine Haton, L'Intelligence
Artificielle, Que sais-je?, 1990 (ISBN 2-13-043164-X)
Aspects philosophiques
* Gilbert Boss, Les machines à penser - L'homme et l'ordinateur,
Éditions du Grand midi, 1987, 202 p. (ISBN 2-88093-105-3)
* Jacques Bolo, Philosophie contre intelligence artificielle, Lingua
Franca, 1996, 375 p. (ISBN 2-912059-00-3)
* Alan Ross Anderson, Pensée et machine, Editions Champ Vallon, 1983
(réimpr. 1993), 150 p. (ISBN 2-903528-28-4)
* Jean Sallantin et Jean-Jacques Szczeciniarz, Le Concept de preuve à
la lumière de l'intelligence artificielle, Presses universitaires
de France, 1999, 370 p. (ISBN 2-13-050104-4)
* Jean-Gabriel Ganascia, L'âme-machine, les enjeux de l'intelligence
artificielle, Éditions du Seuil, Collection Science Ouverte, 1990,
284 p. (ISBN 2-02-011470-4)
* (en) Nick Bostrom, Superintelligence: Paths, Dangers, Strategies,
2014 (ISBN 978-0199678112)
Fondements cognitifs, psychologiques et biologiques
* Hervé Chaudet et Liliane Pellegrin, Intelligence artificielle et
psychologie cognitive, Dunod, 1998, 179 p. (ISBN 2-10-002989-4)
Aspects linguistiques
* Gérard Sabah, L'intelligence artificielle et le langage,
Représentations des connaissances, Processus de compréhension,
vol. 1, Hermès, 1989 (ISBN 2-86601-134-1)
* Gérard Sabah, L'intelligence artificielle et le langage,
Représentations des connaissances, Processus de compréhension,
vol. 2, Hermès, 1990, 768 p. (ISBN 2-86601-187-2)
* Gérard Sabah, Compréhension des langues et interaction (Traité IC2,
Série Cognition et Traitement de l'Information), Hermès science:
Lavoisier, 2006 (ISBN 2-7462-1256-0)
Histoire
* Daniel Crevier et Nathalie Bukcek, À la recherche de l'intelligence
artificielle, Flammarion, 1997 (ISBN 2-08-081428-1), (traduction de
(en) The Tumultuous history of the search for artiticial
intelligence.)
Vulgarisation
* Gérard Tisseau et Jacques Pitrat, Intelligence artificielle :
problèmes et méthodes, Presses universitaires de France, 1996,
255 p. (ISBN 2-13-047429-2)
* Jack Challoner, L'Intelligence artificielle : Un guide d'initiation
au futur de l'informatique et de la robotique, Pearson Education,
2003 (ISBN 2-7440-1600-4)
* Hugues Bersini, De l'intelligence humaine à l'intelligence
artificielle, Ellipse, 2006 (ISBN 2-7298-2813-3)
* Jean-Gabriel Ganascia, L'Intelligence artificielle, Éditions du
Cavalier bleu, coll. « Idees recues », 2007 (ISBN 978-2846701655)
* Howard Selina (illustrations) et Henry Brighton (texte),
L'Intelligence artificielle en images, EDP Sciences,
coll. « Aperçu », 2015 (ISBN 9782759817726)
* Marion Montaigne (dessin) et Jean-Noël Lafargue (scénario),
L'Intelligence artificielle : fantasmes et réalités, Le Lombard,
coll. « La petite bédéthèque des savoirs », 2016
(ISBN 9782803636389)
Articles connexes[modifier | modifier le code]
Notions générales
* Agent intelligent
* Agent logiciel
* Agent virtuel
* Algorithme
* Algorithme génétique
* Apprentissage profond (Deep learning)
* Automation
* Bio-informatique
* Cerveau artificiel
* Cyborg
* Éthique de l'intelligence artificielle
* Explosion d'intelligence
* Histoire de l'intelligence artificielle
* Philosophie de l'intelligence artificielle
* Interactions homme-machine
* Principaux projets et réalisations en intelligence artificielle
* Réseau de neurones artificiels
* Singularité technologique
* Singularitarisme
* Système expert
* Téléchargement de l'esprit
* Test de Turing
* Vie artificielle
Notions techniques
* Agent conversationnel
* Apprentissage automatique
* Apprentissage par renforcement
* Architecture cognitive
* Diagnostic
* Data mining
* Inférence bayésienne
* Intelligence artificielle amicale
* Intelligence artificielle distribuée
* Intelligence artificielle faible
* Logique floue
* Métaheuristiques
* Planification
* Problème de satisfaction de contraintes
* Programmation génétique
* Programmation par contraintes
* Raisonnement par cas
* Réseaux de neurones
* Système multi-agents
* Théorème de Cox-Jaynes
Chercheurs en intelligence artificielle (espace anglophone)
* Edward Feigenbaum
* Irving John Good
* Douglas Hofstadter
* Douglas Lenat
* John McCarthy
* Marvin Lee Minsky
* Allen Newell
* Nils Nilsson
* Seymour Papert
* Rosalind Picard
* Roger Schank
* Herbert Simon
* Ray Solomonoff
* Gerald Jay Sussman
* Alan Turing
* Joseph Weizenbaum
Chercheurs en intelligence artificielle (espace francophone)
* Hugues Bersini
* Alain Colmerauer
* Jean-Paul Delahaye
* Rose Dieng-Kuntz
* Yann LeCun
* Jacques Pitrat
* Gérard Sabah
Liens externes[modifier | modifier le code]
* Association française pour l'intelligence artificielle
* « Association européenne pour l'Intelligence
Artificielle »^(Archive • Wikiwix • Archive.is • Google • Que
faire ?) (consulté le 15 juin 2017) (European Association for
Artificial Intelligence)
* Groupement de recherche du CNRS sur les Aspects Formels et
Algorithmiques de l'Intelligence Artificielle (pré-GDR IA)
* Références de sites : série de liens groupés par thème et
commentés ;
Réflexions
* « L'intelligence artificielle, menace ou avancée ? », Sébastien
KONIECZNY, Huffington Post, 9 mars 2016
* « À quoi sert l'intelligence artificielle ? », Juliette DEMEY, JDD,
19 juillet 2015
v · m
Robotique
Sujets connexes
* Capteur
* Intelligence artificielle
* Actionneur
* Source d'énergie
* Déplacement
* Programmation
* Compétition de robotique
Communication
* Communication série
* Communication parallèle
* Transmission sans fil
* Automatique
* Électricité
* Électrochimie
* Électromagnétisme
* Électronique
* Électrotechnique
* Traitement du signal
v · m
Technologies émergentes
Affichage
* Affichage sans écran
* Affichage tête haute
* Auto-stéréoscopie
* Diode électroluminescente organique
* Lentille de contact bionique
* Surface-conduction Electron-emitter Display
* Réalité virtuelle
Agriculture
* Agriculture de précision
* Agriculture urbaine
* Aquaponie
* Ferme verticale
* Hydroponie
* Mur végétalisé
* OGM
* Viande in vitro
Astronomie/Astrophysique
* Détecteurs d'ondes gravitationnelles
+ LISA
+ LIGO
+ VIRGO
* Interféromètre astronomique
+ Interféromètre optique à longue base
+ Interférométrie à très longue base
o Event Horizon Telescope
o HALCA
o Hypertélescope
Bioinformatique
* Pyroséquençage
* Séquençage de cellule unique
* Séquençage par ligation (en)
* Séquençage par ligation d'oligonucleotides (en)
* Séquençage par nanopores
* Séquençage par semiconducteur
Biologie
* Électrophorèse capillaire par spectrométrie de masse (en)
* Électrophorèse capillaire sur silicium
* Imagerie moléculaire
* Optofluidique
* Optogénétique
* Biophotonique
Biomédicale
* Ampakine
* Bio-impression
* Biologie de synthèse
* Biostase
* Cellule souche
* Cryoconservation
* Cryonie
* Génie génétique
* Interface neuronale directe
* Interférence par ARN
* Médecine régénérative
* Nanomédecine
* Robot médical
* Strategies for Engineered Negligible Senescence
* Thérapie génique
* Photochimiothérapie
Chimie
* Cristallographie sérielle femtoseconde
* Laboratoire sur puce
* Microfluidique
* Spectrométrie alpha
* Spectrométrie de masse
Électronique
* Impression 3D
* Nez électronique
* Opto-électronique
* Spintronique
* Textile intelligent
Informatique
* Calculateur quantique
* Cryptographie quantique
* Ordinateur optique
* Informatique ubiquitaire
* Intelligence artificielle
* Mémoire
+ CBRAM
+ FRAM
+ Millipede
+ MRAM
+ NRAM
+ PRAM
+ RRAM
+ 3D XPoint
+ Intelligence ambiante (Internet des objets)
Physique
* Laser
* Cristallographie aux rayons X
* Diffusion des rayons X
* Spectroscopie des rayons X
* Spectroscopie électronique
* Spectrométrie gamma
Robotique
* Domotique
* Exosquelette motorisé
* Microrobotique
* Nanorobot
* Robotique en essaim
Transport
* Hyperloop
* Lancement spatial sans fusée
* Propulsion laser
* Lanceur réutilisable
* Jetpack
* Train à sustentation magnétique
* Véhicule autonome
* Voiture volante
* Impression de voiture en 3D (Strati)
* Hoverbike
v · m
Principaux domaines de l'informatique
Remarque : ce modèle s'inspire du système de classification
informatique de l'ACM édité en 2012
Matériel
* Circuit imprimé
* Périphérique
* Circuit intégré
* Intégration à très grande échelle
* Informatique durable
* Conception assistée par ordinateur pour l'électronique
Organisation
du système
* Architecture matérielle
* Machine à calculer
* Mécanographie
* Calculateur analogique
* Calculatrice
* Calculateur quantique
* Ordinateur
* Système embarqué
* Système temps réel
* Sûreté de fonctionnement
Réseau
* Architecture de réseau
* Protocole de communication
* Équipement d'interconnexion de réseau informatique
* Planificateur de réseau (en)
* Rendement du réseau (en)
* Service réseau
Organisation du logiciel
* Interprète
* Middleware
* Machine virtuelle
* Système d'exploitation
* Qualité logicielle
Théorie (en)
et outil (en) de programmation
* Paradigme de programmation
* Langage de programmation
* Compilateur
* Langage dédié
* Langage de modélisation
* Cadriciel
* Environnement de développement
* Gestion de configuration logicielle
* Bibliothèque logicielle
* Dépôt
Développement de logiciel
* Processus de développement de logiciel (en)
* Analyse des exigences
* Conception de logiciel
* Assemblage de logiciel (en)
* Déploiement de logiciel (en)
* Maintenance du logiciel
* Équipe de programmation (en)
* Open source
Théorie du calcul (en)
* Modèle de calcul (en)
* Langage formel
* Théorie des automates
* Théorie de la complexité
* Logique (en)
* Sémantique
Algorithmique
* Algorithme
* Conception d'algorithme (en)
* Analyse de la complexité des algorithmes
* Algorithme probabiliste
* Géométrie algorithmique
Mathématiques
de l'informatique
* Mathématiques discrètes
* Probabilité
* Statistique
* Logiciel mathématique (en)
* Théorie de l'information
* Analyse
* Analyse numérique
Système
d'information
* Base de données
* Mémoire (informatique)
* Système d'information d'entreprise (en)
* Logiciel social
* Système d'information géographique
* Système d'aide à la décision
* Supervision
* Base de données multimédia
* Exploration de données
* Bibliothèque numérique
* Plate-forme
* Marketing électronique
* World Wide Web
* Recherche d'information
Sécurité
* Cryptographie
* Méthode formelle
* Service de sécurité (en)
* Système de détection d'intrusion
* Sécurité matérielle (en)
* Sécurité du réseau (en)
* Sécurité de l'information
* Sécurité de l'application (en)
Interactions
homme-machine
* Design numérique
* Informatique sociale (en)
* Informatique ubiquitaire
* Visualisation (en)
* Accessibilité numérique
Concurrence (en)
* Programmation concurrente
* Parallélisme
* Calcul distribué
* Multithreading
* Multiprocesseur
Intelligence
artificielle
* Traitement automatique du langage naturel
* Représentation des connaissances
* Vision par ordinateur
* Planification
* Optimisation
* Théorie du contrôle
* Philosophie de l'intelligence artificielle
* Intelligence artificielle distribuée
Apprentissage automatique
* Apprentissage supervisé
* Apprentissage non supervisé
* Apprentissage par renforcement
* Apprentissage multi-tâches (en)
* Validation croisée
Infographie
* Animation 3D
* Rendu photoréaliste
* Retouche d'image
* Processeur graphique
* Réalité mixte (en)
* Réalité virtuelle
* Compression d'image
* Conception paramétrique
Informatique
appliquée
* Commerce électronique
* Logiciel d'entreprise (en)
* Mathématique numérique (en)
* Physique numérique
* Chimie numérique
* Biologie computationnelle (en)
* Sciences sociales numérique (en)
* Ingénierie numérique
* Informatique médicale
* Art numérique
* Édition électronique
* Cyberguerre
* Vote électronique
* Jeu vidéo
* Traitement de texte
* Recherche opérationnelle
* Technologie éducative (en)
* Gestion électronique des documents
* Portail de l’informatique Portail de l’informatique
* Portail de la robotique Portail de la robotique
* Portail de la science-fiction Portail de la science-fiction
* Portail du Web sémantique Portail du Web sémantique
Ce document provient de
« https://fr.wikipedia.org/w/index.php?title=Intelligence_artificielle&
oldid=144350126 ».
Catégories :
* Intelligence artificielle
* Concept de la science-fiction
* Transhumanisme
* Terminologie du jeu vidéo
* Systémique
Catégories cachées :
* Article contenant un lien mort
* Article à référence nécessaire
* Article contenant un appel à traduction en anglais
* Article à référence souhaitée
* Portail:Informatique/Articles liés
* Portail:Robotique/Articles liés
* Portail:Électricité et électronique/Articles liés
* Portail:Science-fiction/Articles liés
* Portail:Web sémantique/Articles liés
* Article de qualité en tatar
Menu de navigation
Outils personnels
* Non connecté
* Discussion
* Contributions
* Créer un compte
* Se connecter
Espaces de noms
* Article
* Discussion
Variantes
Affichages
* Lire
* Modifier
* Modifier le code
* Afficher l’historique
Plus
Rechercher
____________________ Rechercher Continuer
Navigation
* Accueil
* Portails thématiques
* Article au hasard
* Contact
Contribuer
* Débuter sur Wikipédia
* Aide
* Communauté
* Modifications récentes
* Faire un don
Outils
* Pages liées
* Suivi des pages liées
* Importer un fichier
* Pages spéciales
* Lien permanent
* Informations sur la page
* Élément Wikidata
* Citer cette page
Imprimer / exporter
* Créer un livre
* Télécharger comme PDF
* Version imprimable
Dans d’autres projets
* Wikimédia Commons
* Wikiversité
Dans d’autres langues
* Afrikaans
* Alemannisch
* አማርኛ
* Aragonés
* العربية
* مصرى
* Asturianu
* Azərbaycanca
* Башҡортса
* Žemaitėška
* Беларуская
* Беларуская (тарашкевіца)
* Български
* বাংলা
* Bosanski
* Буряад
* Català
* کوردی
* Čeština
* Чӑвашла
* Cymraeg
* Dansk
* Deutsch
* Zazaki
* Ελληνικά
* English
* Esperanto
* Español
* Eesti
* Euskara
* فارسی
* Suomi
* Võro
* Furlan
* Gaeilge
* 贛語
* Galego
* Avañe'ẽ
* עברית
* हिन्दी
* Hrvatski
* Magyar
* Հայերեն
* Interlingua
* Bahasa Indonesia
* Ilokano
* Ido
* Íslenska
* Italiano
* 日本語
* Patois
* La .lojban.
* Basa Jawa
* ქართული
* Қазақша
* ಕನ್ನಡ
* 한국어
* Ripoarisch
* Кыргызча
* Latina
* Limburgs
* Lietuvių
* Latviešu
* Malagasy
* Македонски
* മലയാളം
* Монгол
* मराठी
* Bahasa Melayu
* မြန်မာဘာသာ
* Nedersaksies
* नेपाल भाषा
* Nederlands
* Norsk nynorsk
* Norsk
* Occitan
* ଓଡ଼ିଆ
* ਪੰਜਾਬੀ
* Polski
* پنجابی
* Português
* Română
* Русский
* Русиньскый
* Саха тыла
* Scots
* Srpskohrvatski / српскохрватски
* සිංහල
* Simple English
* Slovenčina
* Slovenščina
* Shqip
* Српски / srpski
* Svenska
* Kiswahili
* தமிழ்
* ไทย
* Türkmençe
* Tagalog
* Türkçe
* Татарча/tatarça
* Українська
* اردو
* Vèneto
* Tiếng Việt
* Winaray
* ייִדיש
* 中文
* Bân-lâm-gú
* 粵語
Modifier les liens
* La dernière modification de cette page a été faite le 10 janvier
2018 à 15:09.
* Droit d'auteur : les textes sont disponibles sous licence Creative
Commons attribution, partage dans les mêmes conditions ; d’autres
conditions peuvent s’appliquer. Voyez les conditions d’utilisation
pour plus de détails, ainsi que les crédits graphiques. En cas de
réutilisation des textes de cette page, voyez comment citer les
auteurs et mentionner la licence.
Wikipedia® est une marque déposée de la Wikimedia Foundation, Inc.,
organisation de bienfaisance régie par le paragraphe 501(c)(3) du
code fiscal des États-Unis.
* Politique de confidentialité
* À propos de Wikipédia
* Avertissements
* Développeurs
* Déclaration sur les témoins (cookies)
* Version mobile
* Wikimedia Foundation
* Powered by MediaWiki