Intelligence artificielle

(Redirigé depuis Intelligence Artificielle)
L'enceinte Google Home, un assistant personnel intelligent, est l'une des applications concrètes de l'intelligence artificielle dans les années 2010.

L'intelligence artificielle (IA) est « l'ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence »[1]. Elle correspond donc à un ensemble de concepts et de technologies plus qu'à une discipline autonome constituée. D'autres, remarquant la définition peu précise de l'IA, notamment la CNIL, la définissent comme « le grand mythe de notre temps »[2].

Souvent classée dans le groupe des sciences cognitives, elle fait appel à la neurobiologie computationnelle (particulièrement aux réseaux neuronaux), à la logique mathématique (sous-discipline des mathématiques et de la philosophie) et à l'informatique. Elle recherche des méthodes de résolution de problèmes à forte complexité logique ou algorithmique. Par extension elle désigne, dans le langage courant, les dispositifs imitant ou remplaçant l'homme dans certaines mises en œuvre de ses fonctions cognitives[3].

Ses finalités et son développement suscitent, depuis toujours, de nombreuses interprétations, fantasmes ou inquiétudes s'exprimant tant dans les récits ou films de science-fiction que dans les essais philosophiques.

Définition

Le terme « intelligence artificielle », créé par John McCarthy, est souvent abrégé par le sigle « IA » (ou « AI » en anglais, pour Artificial Intelligence). Il est défini par l’un de ses créateurs, Marvin Lee Minsky, comme « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique »[4],[5]. On y trouve donc le côté « artificiel » atteint par l'usage des ordinateurs ou de processus électroniques élaborés et le côté « intelligence » associé à son but d'imiter le comportement. Cette imitation peut se faire dans le raisonnement, par exemple dans les jeux ou la pratique des mathématiques, dans la compréhension des langues naturelles, dans la perception : visuelle (interprétation des images et des scènes), auditive (compréhension du langage parlé) ou par d'autres capteurs, dans la commande d'un robot dans un milieu inconnu ou hostile.

Même si elles respectent globalement la définition de Minsky, il existe un certain nombre de définitions différentes de l'IA qui varient sur deux points fondamentaux[6] :

  • Les définitions qui lient la définition de l'IA à un aspect humain de l'intelligence, et celles qui la lient à un modèle idéal d'intelligence, non forcément humaine, nommée rationalité.
  • Les définitions qui insistent sur le fait que l'IA a pour but d'avoir toutes les apparences de l'intelligence (humaine ou rationnelle), et celles qui insistent sur le fait que le fonctionnement interne du système d'IA doit ressembler également à celui de l'être humain et être au moins aussi rationnel.

Historique

Historiquement, elle trouve son point de départ dans les années 1950 avec les travaux d'Alan Turing, qui se demande si une machine peut « penser ». Le développement croissant des technologies informatiques (puissance de calcul) et des techniques algorithmiques (notamment l'apprentissage profond ou deep learning) ont permis la réalisation de programmes informatiques surpassant l'homme dans certaines de ses capacités cognitives emblématiques : le jeu d'échecs en 1997, le jeu de go en 2016 et le poker en 2017.

L'une des origines de l'intelligence artificielle se trouve probablement dans l'article d'Alan Turing « Computing Machinery and Intelligence » (Mind, octobre 1950)[7], où Turing explore le problème et propose une expérience maintenant connue sous le nom de test de Turing dans une tentative de définition d'un standard permettant de qualifier une machine de « consciente ». Il développe cette idée dans plusieurs forums, dans la conférence « L'intelligence de la machine, une idée hérétique »[8], dans la conférence qu'il donne à la BBC 3e programme le 15 mai 1951 « Les calculateurs numériques peuvent-ils penser ? »[9] ou la discussion avec M.H.A. Newman, Sir Geoffrey Jefferson et R.B. Braithwaite les 14 et 23 janvier 1952 sur le thème « Les ordinateurs peuvent-ils penser? »[10]. L'autre origine probable est la publication, en 1949, par Warren Weaver de son mémorandum sur la traduction automatique des langues[11] qui suggère qu'une machine puisse faire une tâche qui relève typiquement de l'intelligence humaine.

On considère que l'intelligence artificielle, en tant que domaine de recherche, a été créée à la conférence qui s'est tenue sur le campus de Dartmouth College pendant l'été 1956[12] à laquelle assistaient ceux qui vont marquer la discipline. L'intelligence artificielle se développe ensuite surtout aux États-Unis à l'université Stanford sous l'impulsion de John McCarthy, au MIT sous celle de Marvin Minsky, à l'université Carnegie-Mellon sous celle de Allen Newell et Herbert Simon et à l'université d'Édimbourg sous celle de Donald Michie. En France, l'un des pionniers est Jacques Pitrat.

Toutefois le sujet de l'intelligence artificielle est un sujet dont les bornes peuvent varier. Par exemple, la recherche d'un itinéraire était considéré comme un problème d'intelligence artificielle dans les années 1950, alors que depuis que des applications sont dotées d'algorithmes pour résoudre ces questions la recherche d'itinéraires n'est plus considérée comme de l'intelligence artificielle[13].

Personnalités de l'intelligence artificielle

Prix Turing

Plusieurs prix Turing ont été attribués à des pionniers de l'intelligence artificielle, dont:

Autres personnalités

Faits marquants depuis les années 2000

L'intelligence artificielle est un sujet d'actualité au XXIe siècle. En 2004, l'Institut Singularity a lancé une campagne Internet appelée « Trois lois dangereuses » : « Three Laws Unsafe » (en lien avec les trois lois d'Asimov) pour sensibiliser aux questions de la problématique de l'intelligence artificielle et l'insuffisance des lois d'Asimov en particulier. (Singularity Institute for Artificial Intelligence 2004)[14].

En 2005, le projet Blue Brain est lancé, il vise à simuler le cerveau des mammifères. Il s'agit d'une des méthodes envisagées pour réaliser une IA. Ils annoncent de plus comme objectif de fabriquer, dans dix ans, le premier « vrai » cerveau électronique[15]. En mars 2007, le gouvernement sud-coréen a annoncé que plus tard dans l'année, il émettrait une charte sur l'éthique des robots, afin de fixer des normes pour les utilisateurs et les fabricants. Selon Park Hye-Young, du ministère de l'Information et de la communication, la Charte reflète les trois lois d'Asimov : la tentative de définition des règles de base pour le développement futur de la robotique. En juillet 2009, Californie, conférence organisé par l'Association for the Advancement of Artificial Intelligence (AAAI), où un groupe d'informaticiens se demande s'il devrait y avoir des limites sur la recherche qui pourrait conduire à la perte de l'emprise humaine sur les systèmes informatiques, et où il était également question de l'explosion de l'intelligence (artificielle) et du danger de la singularité technologique conduisant à un changement d'ère, ou de paradigme totalement en dehors du contrôle humain[16],[17].

En 2009, le Massachusetts Institute of Technology (MIT) a lancé un projet visant à repenser la recherche en intelligence artificielle. Il réunira des scientifiques qui ont eu du succès dans des domaines distincts de l'IA. Neil Gershenfeld déclare « Nous voulons essentiellement revenir 30 ans en arrière, et de revoir quelques directions aujourd'hui gelées »[18].

En novembre 2009, l'US Air Force cherche à acquérir 2 200 PlayStation 3[19] pour utiliser le processeur cell à 7 ou 8 cœurs qu'elle contient dans le but d'augmenter les capacités de leur superordinateur constitué de 336 PlayStation 3 (total théorique 52,8 PetaFlops en double précision). Le nombre sera réduit à 1 700 unités le 22 décembre 2009[20]. Le projet vise le traitement vidéo haute-définition, et l'« informatique neuromorphique », ou la création de calculateurs avec des propriétés/fonctions similaires au cerveau humain[19].

Le , l'US Air Force demande l'aide de l'industrie pour développer une intelligence avancée de collecte d'information et avec la capacité de décision rapide pour aider les forces américaines pour attaquer ses ennemis rapidement à leurs points les plus vulnérables. L'US Air Force utilisera une intelligence artificielle, le raisonnement ontologique, et les procédures informatique basées sur la connaissance, ainsi que d'autres traitement de données avancées afin de frapper l'ennemi au meilleur point[21]. D'autre part, d’ici 2020, plus de mille bombardiers et chasseurs F-22 et F-35 de dernière génération, parmi plus de 2 500 avions militaires, commenceront à être équipés de sorte que, d’ici 2040, tous les avions de guerre américains soient pilotés par intelligence artificielle, en plus des 10 000 véhicules terrestres et des 7 000 dispositifs aériens commandés d'ores et déjà à distance[22].

Le , Watson, le superordinateur conçu par IBM, remporte deux des trois manches du jeu télévisé Jeopardy! en battant largement ses deux concurrents humains en gains cumulés. Pour cette IA, la performance a résidé dans le fait de répondre à des questions de culture générale (et non un domaine technique précis) dans des délais très courts. En février 2016, l'artiste et designer Aaron Siegel propose de faire de Watson un candidat à l'élection présidentielle américaine afin de lancer le débat sur « le potentiel de l’intelligence artificielle dans la politique »[23].

En mai 2013, Google ouvre un laboratoire de recherches dans les locaux de la NASA. Grâce à un super ordinateur quantique conçu par D-Wave Systems et qui serait d'après cette société 11 000 fois plus performant qu'un ordinateur actuel (de 2013)[24], ils espèrent ainsi faire progresser l'intelligence artificielle et notamment l'apprentissage automatique. Raymond Kurzweil est engagé en décembre 2012 par Google afin de participer et d'améliorer l'apprentissage automatique des machines et des IA[25].

En 2014-2015, à la suite du développement rapide du deep learning, et à l'encontre des penseurs transhumanistes, quelques scientifiques et membres de la communauté high tech craignent que l'intelligence artificielle ne vienne à terme dépasser les performances de l'intelligence humaine. Parmi eux, l'astrophysicien britannique Stephen Hawking[26], le fondateur de Microsoft Bill Gates[27] et le PDG de Tesla Elon Musk[28].

Les géants de l'Internet s'intéressent de plus en plus à l'IA[29]. Le , le patron de Facebook, Mark Zuckerberg, s’est donné pour objectif de l’année de « construire une intelligence artificielle simple pour piloter ma maison ou m’aider dans mon travail »[réf. nécessaire]. Il avait déjà créé en 2013 le laboratoire Facebook Artifical Intelligence Research (FAIR) dirigé par le chercheur français Yann Le Cun et ouvert un laboratoire de recherche permanente dans le domaine à Paris[30].

Apple a de son côté récemment acquis plusieurs start-up du secteur (Perceptio, VocalIQ, Emotient et Turi)[31].

En janvier 2018, des modèles d'intelligence artificielle développés par Microsoft et Alibaba réussissent chacun de leur côté à battre les humains dans un test de lecture et de compréhension de l'Université de Stanford. Le traitement du langage naturel imite la compréhension humaine des mots et des phrases et permet maintenant aux modèles d'apprentissage automatique de traiter de grandes quantités d'informations avant de fournir des réponses précises aux questions qui leur sont posées[32].

En France

En France, les pionniers sont Alain Colmerauer, Gérard Huet, Jean-Louis Laurière, Claude-François Picard, Jacques Pitrat et Jean-Claude Simon[33]. Un congrès national annuel, « Reconnaissance de formes et intelligence artificielle », est créé en 1979 à Toulouse[34]. En lien avec l'organisation de la conférence IJCAI  à Chambéry en 1993, et la création d'un GRECO-PRC[35] « intelligence artificielle », en 1983, il donne naissance à une société savante, l'Association française pour l'intelligence artificielle (AFIA) en 1989, qui, entre autres, organise des conférences nationales en intelligence artificielle[36].

Logo de la conférence « AI for Humanity » organisée le au Collège de France.

Au début des années 2000, des sociologues liés à l'EHESS, spécialistes de l'analyse de corpus, expérimentent la mise au point d'un « sociologue numérique » appelé Marlowe qui crée un pont entre intelligence artificielle et sciences sociales[37].

Le , le fonds de capital-risque Serena Capital lance un fonds de 80 millions d’euros destiné à l’investissement dans les start-ups européennes du big data et de l'intelligence artificielle[38]. Le , une audition se tient au Sénat : « L'intelligence Artificielle menace-t-elle nos emplois ? »[39]. Le , Axelle Lemaire entend valoriser les potentiels scientifiques et industriels français grâce au projet « France IA »[40].

En janvier 2017, dans le cadre de sa mission de réflexion sur les enjeux éthiques et les questions de société soulevés par les technologies numériques, la Commission nationale de l'informatique et des libertés (CNIL) annonce l'organisation d'un débat public sur les algorithmes et l'intelligence artificielle[41]. Le 15 décembre 2017, à l'issue d'un débat ayant mobilisé 60 partenaires (institutions publiques, associations, entreprises, acteurs du monde de la recherche, société civile)[42], elle publie son rapport « Comment permettre à l'Homme de garder la main ? »[43] comprenant des recommandations pour la construction d'un modèle éthique d'intelligence artificielle.

En septembre 2017, Cédric Villani, premier vice-président de l'Office parlementaire d'évaluation des choix scientifiques et technologiques (OPECST)[44], est chargé de mener une consultation publique sur l'intelligence artificielle[45]. Il rend son rapport le 28 mars 2018[46], à la veille d'une intervention du président de la République Emmanuel Macron au Collège de France pour annoncer la stratégie de la France dans ce domaine[47]. Il y dévoile un plan de 1,5 milliard d'euros sur l'ensemble du quinquennat, ainsi qu'une évolution de la législation française pour permettre la mise en application de l'intelligence artificielle, en particulier concernant la circulation des véhicules autonomes[48]. Parallèlement à ces annonces, il est interviewé par Wired, magazine de référence pour la communauté mondiale des nouvelles technologies, et y exprime sa vision de l'intelligence artificielle, à savoir que les algorithmes utilisés par l'État doivent être ouverts, que l'intelligence artificielle doit être encadrée par des règles philosophiques et éthiques et qu'il faut s'opposer à l'usage d'armes automatiques ou de dispositifs prenant des décisions sans consulter un humain[49],[50].

Test de Turing

Schéma du test de Turing.
Article détaillé : Test de Turing.

À l’orée des années 1950, entre la naissance de la cybernétique et l’émergence quelques années plus tard de l’intelligence artificielle, alors que les meilleurs esprits du temps s’interrogent sur la possibilité de construire des machines pensantes, Alan Turing propose, dès le début d’un article demeuré célèbre, un test pour déterminer si une machine peut être définie comme « consciente »[51].

Définir l’intelligence est un défi et il n’est pas certain qu’on puisse y arriver un jour d’une façon satisfaisante. C’est cette remarque qui poussa le mathématicien britannique Alan Turing, il y a soixante ans, à proposer « le jeu de l’imitation » qui fixait un objectif précis à la science naissante des ordinateurs que l'on n'appelait pas encore informatique en francophonie. Ce « jeu de l'imitation » suggérait qu'un juge fictif puisse dialoguer d'une part avec une machine et d'autre part avec un humain à l'aide d'un terminal sans pouvoir les discriminer[52].

Jusqu'à ce jour, aucun logiciel n'a encore pu réussir ce test, à savoir se comporter de façon à ne pas être discriminé d'un humain, malgré de nombreuses tentatives. Devant la persistance de ces échecs certains informaticiens[Lesquels ?] pensent que mettre au point un programme aussi complexe ne démontrera pas l'intelligence des programmes ni leur capacité à penser.

De nos jours, une machine peut certes réviser et faire évoluer des objectifs qu’on lui a attribués. Une machine peut même être programmée pour pouvoir restructurer sa connaissance initiale à partir d’informations reçues ou perçues. Mais la machine d’aujourd’hui ne pense pas à proprement parler, car elle n’a pas conscience d’elle-même (et en particulier de ses limites), elle ne peut pas ultimement décider de ses buts ni imaginer de nouvelles formes de représentations du monde[51].

Intelligence artificielle forte

Définition

Le concept d’intelligence artificielle forte fait référence à une machine capable non seulement de produire un comportement intelligent, mais d’éprouver une impression d'une réelle conscience de soi, de « vrais sentiments » (quoi qu’on puisse mettre derrière ces mots), et « une compréhension de ses propres raisonnements »[53].

L’intelligence artificielle forte a servi de moteur à la discipline, mais a également suscité de nombreux débats. En se fondant sur l'hypothèse, que tendent à confirmer les neurosciences et que des chercheurs n'hésitent pas à affirmer[54], que la conscience a un support biologique et donc matériel, les scientifiques ne voient généralement pas d’obstacle de principe à créer un jour une intelligence consciente sur un support matériel autre que biologique. Selon les tenants de l'IA forte, si à l'heure actuelle il n'y a pas d'ordinateurs ou de robots aussi intelligents que l'être humain, ce n'est pas un problème d'outil mais de conception. Il n'y aurait aucune limite fonctionnelle (un ordinateur est une machine de Turing universelle avec pour seules limites les limites de la calculabilité), il n'y aurait que des limites liées à l'aptitude humaine à concevoir les logiciels appropriés (programme, base de données...). Elle permet notamment de modéliser des idées abstraites.

Estimation de faisabilité

Comparer la capacité de traitement de l'information d'un cerveau humain à celle d'un ordinateur peut aider à comprendre les ordres de grandeur pour estimer la possibilité pratique ou non d'une intelligence artificielle forte, de même qu'un simple calcul de puissance en kW permet grosso modo de dire qu'un camion donné pourra espérer transporter commodément telle ou telle charge ou si cela lui sera impossible. Voici quelques exemples d'ordres de grandeur en traitement de l'information :

  • Balance Roberval : 1 bit par seconde (comparaison de deux poids) ;
  • mainframe typique des années 1970 : 1 million d'opérations par seconde sur 32 bits ;
  • Intel Paragon XP/S, 4 000 processeurs i860 @ 50 MHz (1992) : 160 milliards d'opérations par seconde.

Cette puissance n'est pas à prendre au pied de la lettre. Elle précise surtout les ordres de grandeur en présence et leur évolution relativement rapide (2015).

L'intelligence artificielle n'avait donné que des résultats mitigés sur les ordinateurs typiques de 1970 effectuant 107 opérations logiques par seconde[55],[56]. Le cerveau humain, formé de 1011 neurones ne pouvant chacun commuter plus de 100 fois par seconde en raison de leur temps de relaxation permettait beaucoup plus de traitements logiques par unité de temps (1013 opérations logiques par seconde)[56]. Ce handicap technique précis n'existe plus sur les ordinateurs actuels (2015), travaillant en 64 bits et avec des horloges cadencées à 4 GHz environ.

Il s'agit là de processeurs destinés au particulier. Concernant des machines comme Blue Gene, le rapport du nombre de comparaisons par seconde entre ordinateur et cerveau ont même changé de sens.

Un article de 2013[57] examine par plusieurs voies quelle pourrait être la capacité mémoire nécessaire et, selon le mode de calcul, obtient des chiffres très différents : 1 To, 100 To, 2 500 To (voir big data), évoquant aussi par jeu 300 Mo, soit 60 MP3 de 3 minutes.

Le matériel serait donc maintenant présent. Du logiciel à la mesure de ce matériel resterait à développer. En effet, l'important n'est pas de raisonner plus vite, en traitant plus de données, ou en mémorisant plus de choses que le cerveau humain[58], l'important est de traiter les informations de manière appropriée.

L'IA souligne la difficulté à expliciter toutes les connaissances utiles à la résolution d'un problème complexe. Certaines connaissances dites implicites sont acquises par l'expérience et mal formalisables. Par exemple, qu'est-ce qui distingue un visage familier de deux cents autres ? Nous ne savons pas toujours clairement l'exprimer[59]. L'apprentissage de ces connaissances implicites par l'expérience est exploitée depuis les années 1980 (voir Réseau de neurones). Néanmoins, un autre type de complexité apparaît : la complexité structurelle. Comment mettre en relation des modules spécialisés pour traiter un certain type d'informations, par exemple un système de reconnaissance des formes visuelles, un système de reconnaissance de la parole, un système lié à la motivation, à la coordination motrice, au langage, etc. En revanche, une fois un système cognitif conçu et son apprentissage par l'expérience réalisé, l'« intelligence » correspondante peut être distribuée en un grand nombre d'exemplaires, par exemple sur les portables d'actuaires ou de banquiers pouvant ainsi, comme le rappelle un slogan, dire oui ou non, mais le dire tout de suite grâce à des applications dites de credit scoring.

Enfin, au-delà de la simple technique, il reste à savoir de quel type serait la relation entre l'homme et la machine intelligente : bonne et peut-être non exempte de bugs, comme dans Les Robots d'Asimov, ou carrément hostile comme dans Terminator sont deux exemples possibles[60].

Diversité des opinions

Les principales opinions soutenues pour répondre à la question d’une intelligence artificielle consciente sont les suivantes :

  • Impossible : la conscience serait le propre des organismes vivants, et elle serait liée à la nature des systèmes biologiques. Cette position est défendue principalement par des religieux.
  • Impossible avec des machines manipulant des symboles comme les ordinateurs actuels, mais possible avec des systèmes dont l’organisation matérielle serait fondée sur des processus quantiques. Cette position est défendue notamment par Roger Penrose. Des algorithmes quantiques sont théoriquement capables de mener à bien des calculs hors de l'atteinte pratique des calculateurs conventionnels (complexité en au lieu de , par exemple, sous réserve d'existence du calculateur approprié). Au-delà de la rapidité, le fait que l'on puisse envisager des systèmes quantiques en mesure de calculer des fonctions non-turing-calculables (voir Hypercalcul) ouvre des possibilités qui - selon cet auteur - sont fondamentalement interdites aux machines de Turing.
    • Problème : On ne dispose pas encore pour le moment d'algorithmes d'IA à mettre en œuvre dans ce domaine. Tout cela reste donc spéculatif.
  • Impossible avec des machines manipulant des symboles comme les ordinateurs actuels, mais possible avec des systèmes dont l’organisation matérielle mimerait le fonctionnement du cerveau humain, par exemple avec des circuits électroniques spécialisés reproduisant le fonctionnement des neurones.
    • Problème : Le système en question répondant exactement de la même façon que sa simulation sur ordinateur - toujours possible - au nom de quel principe leur assigner une différence ?[61]
  • Impossible avec les algorithmes classiques manipulant des symboles (logique formelle), car de nombreuses connaissances sont difficiles à expliciter mais possible avec un apprentissage par l'expérience de ces connaissances à l'aide d'outils tels que des réseaux de neurones formels, dont l'organisation logique et non matérielle s'inspire des neurones biologiques, et utilisés avec du matériel informatique conventionnel.
    • Problème : si du matériel informatique conventionnel est utilisé pour réaliser un réseau de neurones, alors il est possible de réaliser l'IA avec les ordinateurs classiques manipulant des symboles (puisque ce sont les mêmes machines, voir Thèse de Church-Turing). Cette position parait donc incohérente. Toutefois, ses défenseurs (thèse de l'IA forte) arguent que l'impossibilité en question est liée à notre inaptitude à tout programmer de manière explicite, elle n'a rien à voir avec une impossibilité théorique. Par ailleurs, ce que fait un ordinateur, un système à base d'échanges de bouts de papier dans une salle immense peut le simuler quelques milliards de fois plus lentement. Or il peut rester difficile à admettre que cet échange de bouts de papiers « ait une conscience ». Voir Chambre chinoise. Selon les tenants de l'IA forte, cela ne pose toutefois pas de problème.
  • Impossible car la pensée n'est pas un phénomène calculable par des processus discrets et finis. Pour passer d'un état de pensée au suivant, il y a une infinité non dénombrable, une continuité d'états transitoires. Cette idée est réfutée par Alain Cardon (Modéliser et concevoir une Machine pensante).
  • Possible avec des ordinateurs manipulant des symboles. La notion de symbole est toutefois à prendre au sens large. Cette option inclut les travaux sur le raisonnement ou l'apprentissage symbolique basé sur la logique des prédicats, mais aussi les techniques connexionnistes telles que les réseaux de neurones, qui, à la base, sont définies par des symboles. Cette dernière opinion constitue la position la plus engagée en faveur de l'intelligence artificielle forte.

Des auteurs comme Douglas Hofstadter (mais déjà avant lui Arthur C. Clarke ou Alan Turing) (voir le test de Turing) expriment par ailleurs un doute sur la possibilité de faire la différence entre une intelligence artificielle qui éprouverait réellement une conscience, et une autre qui simulerait exactement ce comportement. Après tout, nous ne pouvons même pas être certains que d’autres consciences que la nôtre, y compris chez des humains, éprouvent réellement quoi que ce soit, si ce n'est par une pétition de principe qui spécule que chaque humain se retrouve à l'identique chez tous les autres. On retrouve là le problème connu du solipsisme en philosophie.

Travaux complémentaires

Le mathématicien de la physique Roger Penrose[62] pense que la conscience viendrait de l'exploitation de phénomènes quantiques dans le cerveau (voir microtubules), empêchant la simulation réaliste de plus de quelques dizaines de neurones sur un ordinateur normal, d’où les résultats encore très partiels de l’IA. Il restait jusqu’à présent isolé sur cette question. Un autre chercheur a présenté depuis une thèse de même esprit quoique moins radicale : Andrei Kirilyuk[63].

Cette spéculation reste néanmoins marginale par rapport aux travaux des neurosciences. L'action de phénomènes quantiques est évidente[réf. nécessaire] dans le cas de la rétine (quelques quanta de lumière seulement suffisent à une perception) ou de l'odorat, mais elle ne constitue pas une condition préalable à un traitement efficace de l'information. En effet, le traitement de l'information effectué par le cerveau est relativement robuste[réf. nécessaire] et ne dépend pas de l'état quantique de chaque molécule, ni même de la présence ou de la connexion de neurones isolés.

Cela dit, l’intelligence artificielle est loin de se limiter aux seuls réseaux de neurones, qui ne sont généralement utilisés que comme classifieurs. Les techniques de résolution générale de problèmes et la logique des prédicats[64], entre autres, ont fourni des résultats significatifs et sont exploités par des ingénieurs et chercheurs dans plusieurs domaines (en particulier depuis Mycin  en 1973 pour le diagnostic des maladies du sang).

Intelligence artificielle faible

Article détaillé : Intelligence artificielle faible.

La notion d’intelligence artificielle faible constitue une approche pragmatique d’ingénieur : chercher à construire des systèmes de plus en plus autonomes (pour réduire le coût de leur supervision), des algorithmes capables de résoudre des problèmes d’une certaine classe, etc. Mais, cette fois, la machine simule l'intelligence, elle semble agir comme si elle était intelligente. On en voit des exemples concrets avec les programmes conversationnels qui tentent de passer le test de Turing, comme ELIZA. Ces logiciels parviennent à imiter de façon grossière le comportement d'humains face à d'autres humains lors d'un dialogue.

Joseph Weizenbaum, créateur du programme ELIZA, met en garde le public dans son ouvrage Computer Power and Human Reason : si ces programmes « semblent » intelligents, ils ne le sont pas : ELIZA simule très grossièrement un psychologue en relevant immédiatement toute mention du père ou de la mère, en demandant des détails sur tel élément de phrase et en écrivant de temps en temps « Je comprends. », mais son auteur rappelle qu'il s'agit d'une simple mystification : le programme ne comprend en réalité rien.

Les tenants de l'IA forte admettent que s'il y a bien dans ce cas simple simulation de comportements intelligents, il est aisé de le découvrir et qu'on ne peut donc généraliser. En effet, si on ne peut différencier expérimentalement deux comportements intelligents, celui d'une machine et celui d'un humain, comment peut-on prétendre que les deux choses ont des propriétés différentes ? Le terme même de « simulation de l'intelligence » est contesté et devrait, toujours selon eux, être remplacé par « reproduction de l'intelligence ».

Les tenants de l'IA faible arguent que la plupart des techniques actuelles d’intelligence artificielle sont inspirées de leur paradigme. Ce serait par exemple la démarche utilisée par IBM dans son projet nommé Autonomic computing. La controverse persiste néanmoins avec les tenants de l'IA forte qui contestent cette interprétation.

Simple évolution, donc, et non révolution : l’intelligence artificielle s’inscrit à ce compte dans la droite succession de ce qu’ont été la recherche opérationnelle dans les années 1960, la supervision (en anglais : process control) dans les années 1970, l’aide à la décision dans les années 1980 et le data mining dans les années 1990. Et, qui plus est, avec une certaine continuité.

Il s'agit surtout d'intelligence humaine reconstituée, et de programmation ad hoc d'un apprentissage, sans qu'une théorie unificatrice n'existe pour le moment (2011). Le Théorème de Cox-Jaynes indique toutefois, ce qui est un résultat fort, que sous cinq contraintes raisonnables, tout procédé d'apprentissage devra être soit conforme à l'inférence bayésienne, soit incohérent à terme, donc inefficace[65].

Estimation de faisabilité

Le sémanticien François Rastier, après avoir rappelé les positions de Turing et de Grice à ce sujet, propose[66] six « préceptes » conditionnant un système de dialogue évolué, en précisant qu'elles sont déjà mises en œuvre par des systèmes existants :

  • objectivité (utilisation d'une base de connaissance par le système) ;
  • textualité (prise en compte d'interventions de plus d'une phrase, qu'elles émanent du système ou de l'utilisateur) ;
  • apprentissage (intégration au moins temporaire d'informations issues des propos de l'utilisateur) ;
  • questionnement (demande de précisions de la part du système) ;
  • rectification (suggestion de rectifications à la question posée, lorsque nécessaire) ;
  • explicitation (explicitation par le système d'une réponse qu'il a apportée précédemment).

Il suggère aussi que le système devrait être en mesure de se faire par lui-même une représentation de l'utilisateur auquel il a affaire, pour s'adapter à lui. De son côté, l'utilisateur a tendance à s'adapter au système à partir du moment où il a bien compris qu'il s'adresse à une machine : il ne conversera pas de la même manière avec un système automatisé qu'avec un interlocuteur humain, ce qui présente pour le concepteur l'avantage pragmatique de simplifier certains aspects du dialogue.

Courants de pensée

La cybernétique naissante des années 1940 revendiquait très clairement son caractère pluridisciplinaire et se nourrissait des contributions les plus diverses : neurophysiologie, psychologie, logique, sciences sociales… Et c’est tout naturellement qu’elle envisagea deux approches des systèmes, deux approches reprises par les sciences cognitives et de ce fait l’intelligence artificielle : une approche par la décomposition (du haut vers le bas) et une approche contraire par construction progressive du bas vers le haut.

Ces deux approches se révèlent plutôt complémentaires que contradictoires : on est à l'aise pour décomposer rapidement ce que l'on connaît bien, et une approche pragmatique à partir des seuls éléments que l'on connaît afin de se familiariser avec les concepts émergents est plus utile pour les domaines inconnus. Elles sont respectivement à la base des hypothèses de travail que constituent le cognitivisme et le connexionnisme, qui tentent aujourd'hui (2005) d'opérer progressivement leur fusion.

Le HOWTO de Linux sur l'intelligence artificielle v3.0[67], révisé le 15 décembre 2012, adopte pour la commodité du lecteur la taxinomie suivante :

  • Systèmes symboliques ;
  • Connexionnisme ;
  • Calcul évolutif (algorithmes génétiques, par exemple) ;
  • Alife (vie artificielle) et Complexité ;
  • Agents et robotique.

Cognitivisme

Le cognitivisme considère que le vivant, tel un ordinateur (bien que par des procédés évidemment très différents), manipule essentiellement des symboles élémentaires. Dans son livre La société de l’esprit, Marvin Minsky, s’appuyant sur des observations du psychologue Jean Piaget, envisage le processus cognitif comme une compétition d’agents fournissant des réponses partielles et dont les avis sont arbitrés par d’autres agents. Il cite les exemples suivants de Piaget :

  • L’enfant croit d’abord que plus le niveau d’eau est élevé dans un verre, plus il y a d’eau dans ce verre. Après avoir joué avec des transvasements successifs, il intègre le fait que la notion de hauteur du liquide dans le verre entre en compétition avec celle du diamètre du verre, et arbitre de son mieux entre les deux.
  • Il vit ensuite une expérience analogue en manipulant de la pâte à modeler : la réduction de plusieurs objets temporairement représentés à une même boule de pâte l’incite à dégager un concept de conservation de la quantité de matière.

Au bout du compte, ces jeux d’enfants se révèlent essentiels à la formation de l’esprit, qui dégagent quelques règles pour arbitrer les différents éléments d’appréciation qu’il rencontre, par essais et erreurs.

Connexionnisme

Le connexionnisme, se référant aux processus auto-organisationnels, envisage la cognition comme le résultat d’une interaction globale des parties élémentaires d’un système. On ne peut nier que le chien dispose d'une sorte de connaissance des équations différentielles du mouvement, puisqu’il arrive à attraper un bâton au vol. Et pas davantage qu’un chat ait aussi une sorte de connaissance de la loi de chute des corps, puisqu’il se comporte comme s’il savait à partir de quelle hauteur il ne doit plus essayer de sauter directement pour se diriger vers le sol. Cette faculté qui évoque un peu l’intuition des philosophes se caractériserait par la prise en compte et la consolidation d’éléments perceptifs dont aucun pris isolément n’atteint le seuil de la conscience, ou en tout cas n’y déclenche d’interprétation particulière.

Synthèse

Trois concepts reviennent de façon récurrente dans la plupart des travaux :

  • la redondance (le système est peu sensible à des pannes ponctuelles) ;
  • la réentrance (les composants s'informent en permanence entre eux ; cette notion diffère de la réentrance en programmation) ;
  • la sélection (au fil du temps, les comportements efficaces sont dégagés et renforcés).

Différentes facettes

On peut considérer différents dispositifs intervenant, ensemble ou séparément, dans un système d’intelligence artificielle tels que :

Les réalisations actuelles de l’intelligence artificielle peuvent intervenir dans les fonctions suivantes :

Conception de systèmes

Au fil du temps, certains langages de programmation se sont avérés plus commodes que d’autres pour écrire des applications d’intelligence artificielle. Parmi ceux-ci, Lisp et Prolog furent sans doute les plus médiatisés. ELIZA (le premier agent conversationnel, donc pas de la « véritable » intelligence artificielle) tenait en trois pages de SNOBOL. On utilise aussi, plus pour des raisons de disponibilité et de performance que de commodité, des langages classiques tels que C ou C++. Lisp a eu pour sa part une série de successeurs plus ou moins inspirés de lui, dont le langage Scheme et les langages typés de la programmation fonctionnelle comme Haskell ou OCaml.

Des programmes de démonstration de théorèmes géométriques simples ont existé dès les années 1960 ; et des logiciels tels que Maple ou Mathematica effectuent aujourd’hui des travaux d’intégration symbolique qui, il y a trente ans encore, étaient du ressort d’un étudiant de mathématiques supérieures.

Domaines d’application

Un robot NAO en 2014.
Un assistant personnel intelligent fournissant un service client sur une page d'un site web, l'une des nombreuses applications très primitives de l'intelligence artificielle.

L'intelligence artificielle a été utilisée (ou intervient) dans une variété de domaines.

Finance et banques

  • la banque, avec des systèmes experts d'évaluation de risque lié à l'octroi d'un crédit (credit-scoring)[réf. souhaitée] ;
  • la finance avec des projets comme ceux de Bridgewater Associates où une intelligence artificielle va gérer entièrement un fonds[68] ou encore la plateforme d'analyse prédictive Sidetrade.

Militaire

Le domaine militaire utilise des systèmes tels que les drones, les systèmes de commandement et d'aide à la décision.

L’utilisation des intelligences artificielles dans le domaine militaire est devenu de plus en plus important. Les États-Unis ont dépensé 18 milliards de dollars pour trois années de recherches dans tous les domaines requis à l’automatisation de l’armement militaire[69].

Une course aux armements à base d'IA est en cours, tel qu'illustré par le projet Maven aux États-Unis[70].

Médecine

Droit

  • le droit, dans la perspective de prédire les décisions de justice, d'aider à la décision et de trancher les cas simples[réf. souhaitée].

Logistique et transports

  • la logistique, au travers d'approches heuristiques de type résolution de [[problème de satisfaction de contraintes|problème de satisfaction de contraintes[réf. souhaitée]]].

Robotique

Jeux vidéo

L'intelligence artificielle a par exemple été utilisée depuis longtemps dans la conception de joueurs artificiels pour le jeu d'échecs. Toutefois, c'est dans les jeux vidéo que l'intelligence artificielle s'est le plus popularisée.

Celle-ci bénéficie en effet des progrès de l'informatique, avec par exemple les cartes graphiques dédiées qui déchargent le processeur principal des tâches graphiques. Le processeur principal peut désormais être utilisé pour développer des systèmes d’IA plus perfectionnés. Par exemple, l'intelligence artificielle peut être utilisée pour « piloter » des bots (c'est-à-dire les personnages artificiels) évoluant dans les MMOGs ou les mondes virtuels, mais on peut aussi citer son utilisation dans des jeux de simulation, ou pour animer des personnages artificiels.

Dans le domaine du jeu vidéo, l’IA caractérise toute prise de décision d’un personnage (ou d’un groupe) géré par le jeu, et contraint par l’intérêt ludique : une « meilleure » IA ne donne pas forcément un jeu plus jouable[71], l’objectif est de donner l’illusion d’un comportement intelligent[71]. L'éventail de sujets (recherche de chemin, animation procédurale, planifications stratégiques…) sont réalisables par des techniques classiques issues de l'IA symbolique (automates, script, systèmes multi-agents…), fortement dépendante de l’expertise humaine[72]. Cette approche est préférée par rapport aux techniques d'intelligence artificielle plus académiques (réseaux de neurones, algorithmes génétiques), car mieux contrôlée[73]. Ces approches partagent toutes les mêmes contraintes de ressources restreintes, que ce soit en mémoire, en temps de développement, ou en temps de calcul, même si globalement ces ressources augmentent plus les projets sont récents[73].

Jusqu'à la fin des années 1990, l’IA dans les jeux vidéo (plus particulièrement dans les jeux de stratégie en temps réel) a été délaissée par rapport au rendu visuel et sonore. L’« évolution vers des univers toujours plus réalistes, leur peuplement par des personnages […] aux comportements crédibles devient une problématique importante »[72]. Pour éviter ce contraste, et coupler dans le même temps au délestage d’une grosse partie de l’aspect graphique des processeurs vers les cartes graphiques[74], on constate à cette période une augmentation des ressources investies dans l’IA (temps de développement, ressource processeur)[74]. Certains jeux sont précurseurs (Creatures, Black and White) car l’IA y constitue l’élément central ludique[réf. nécessaire]. Partant d’une approche à base de règles rigides, les jeux utilisent alors des IA plus flexibles, diversifiant les techniques mises en œuvre[71]. Aujourd'hui la plupart des jeux vidéo utilisent des solutions ad hoc, il existe néanmoins des solutions middleware et également des solutions matérielles[75] toutefois très minoritaires[réf. nécessaire].

Avec les jeux en réseau, le besoin d’IA a tout d’abord été négligé[74], mais, particulièrement avec l’apparition des jeux massivement multijoueur, et la présence d’un nombre très important de joueurs humains se confrontant à des personnages non joueur, ces derniers ont un besoin très important de pouvoir s'adapter à des situations qui ne peuvent être prévues. Actuellement ces types de jeux intéressent particulièrement des chercheurs en IA, y trouvant un environnement adéquat pour y éprouver différentes architectures adaptatives[72].

L'« IA scriptée » est une forme d'intelligence artificielle sans apprentissage, du type : « si le joueur a telle position, alors faire prendre tel chemin à deux PNJ », sans que le logiciel sache que cela encercle le joueur, ou ne varie sa stratégie.

Autres domaines

Il lui reste à faire, entre autres, en intelligence artificielle faible :

  • générateur de film complet, en image de synthèse, de A à Z, à partir des souhaits des utilisateurs.[pertinence contestée][réf. souhaitée]
  • robot employé de maison[réf. souhaitée]
  • le débogage informatique[réf. souhaitée]
  • en programmation informatique[réf. souhaitée]
  • en journalisme : des « robots journalistes » pourraient à terme aider les journalistes en les débarrassant de tâches ingrates, notamment la veille ou la vérification des fake news[76].

Précurseurs

Si les progrès de l’intelligence artificielle sont récents, ce thème de réflexion est tout à fait ancien, et il apparaît régulièrement au cours de l’histoire. Les premiers signes d’intérêt pour une intelligence artificielle et les principaux précurseurs de cette discipline sont les suivants.

Automates

Article connexe : Automate.

Une des plus anciennes traces du thème de « l’homme dans la machine » date de 800 avant notre ère, en Égypte. La statue du dieu Amon levait le bras pour désigner le nouveau pharaon parmi les prétendants qui défilaient devant lui, puis elle « prononçait » un discours de consécration. Les Égyptiens étaient probablement conscients de la présence d’un prêtre actionnant un mécanisme et déclarant les paroles sacrées derrière la statue, mais cela ne semblait pas être pour eux contradictoire avec l’incarnation de la divinité. Vers la même époque, Homère, dans L'Iliade (XVIII, 370–421), décrit les automates réalisés par le dieu forgeron Héphaïstos : des trépieds munis de roues en or, capables de porter des objets jusqu’à l’Olympe et de revenir seuls dans la demeure du dieu ; ou encore, deux servantes forgées en or qui l’assistent dans sa tâche. De même, le Géant de bronze Talos, gardien des rivages de la Crète, était parfois considéré comme une œuvre du dieu.

Vitruve, architecte romain, décrit l’existence entre le IIIe et le Ier siècle avant notre ère, d’une école d’ingénieurs fondée par Ctesibius à Alexandrie, et concevant des mécanismes destinés à l’amusement tels des corbeaux qui chantaient. Héron L'Ancien décrit dans son traité « Automates », un carrousel animé grâce à la vapeur et considéré comme anticipant les machines à vapeur. Les automates disparaissent ensuite jusqu’à la fin du Moyen Âge. On a prêté à Roger Bacon la conception d'automates doués de la parole; en fait, probablement de mécanismes simulant la prononciation de certains mots simples.

Léonard de Vinci a construit en 1515 un automate en forme de lion pour amuser le roi de France, François I[77]. Gio Battista Aleotti et Salomon de Caus, eux, ont construit des oiseaux artificiels et chantants, des flûtistes mécaniques, des nymphes, des dragons et des satyres animés pour égayer des fêtes aristocratiques, des jardins et des grottes. René Descartes, lui, aurait conçu en 1649 un automate qu’il appelait « ma fille Francine ». Il conduit par ailleurs une réflexion d’un modernisme étonnant sur les différences entre la nature des automates, et celles d’une part des animaux (pas de différence) et d’autre part celle des hommes (pas d’assimilation). Ces analyses en font le précurseur méconnu d’un des principaux thèmes de la science-fiction : l'indistinction entre le vivant et l’artificiel, entre les hommes et les robots, les androïdes ou les intelligences artificielles.

Jacques de Vaucanson a construit en 1738 un « canard artificiel de cuivre doré, qui boit, mange, cancane, barbote et digère comme un vrai canard ». Il était possible de programmer les mouvements de cet automate, grâce à des pignons placés sur un cylindre gravé, qui contrôlaient des baguettes traversant les pattes du canard. L’automate a été exposé pendant plusieurs années en France, en Italie et en Angleterre, et la transparence de l’abdomen permettait d’observer le mécanisme interne. Le dispositif permettant de simuler la digestion et d’expulser une sorte de bouillie verte fait l’objet d’une controverse. Certains commentateurs estiment que cette bouillie verte n’était pas fabriquée à partir des aliments ingérés, mais préparée à l’avance. D’autres estiment que cet avis n’est fondé que sur des imitations du canard de Vaucanson. Malheureusement, l’incendie du Musée de Nijni Novgorod en Russie vers 1879 détruisit cet automate.

Les artisans Pierre et Louis Jaquet-Droz fabriquèrent parmi les meilleurs automates fondés sur un système purement mécanique, avant le développement des dispositifs électromécaniques. Certains de ces automates, par un système de cames multiples, étaient capables d'écrire un petit billet (toujours le même). Enfin, Les Contes d'Hoffmann (et ballet) L'Homme au sable décrit une poupée mécanique dont s'éprend le héros.

Pensée automatique

Parmi les premiers essais de formalisation de la pensée, les tentatives suivantes peuvent être citées :

  • Raymond Lulle, missionnaire, philosophe, et théologien espagnol du XIIIe siècle, a fait la première tentative pour engendrer des idées par un système mécanique. Il combinait aléatoirement des concepts grâce à une sorte de règle à calcul, un zairja, sur laquelle pivotaient des disques concentriques gravés de lettres et de symboles philosophiques. Il baptisa sa méthode Grand Art (Ars Magna), fondée sur l’identification de concepts de base, puis leur combinaison mécanique soit entre eux, soit avec des idées connexes. Raymond Lulle appliqua sa méthode à la métaphysique, puis à la morale, à la médecine et à l’astrologie. Mais il n’utilisait que la logique déductive, ce qui ne permettait pas à son système d’acquérir un apprentissage, ni davantage de remettre en cause ses principes de départ : seule la logique inductive le permet.
  • Gottfried Wilhelm Leibniz, au XVIIe siècle, a imaginé un calcul pensant (calculus rationator), en assignant un nombre à chaque[[[Concept (philosophie)|concept]]. La manipulation de ces nombres aurait permis de résoudre les questions les plus difficiles, et même d’aboutir à un langage universel. Leibniz a toutefois démontré que l’une des principales difficultés de cette méthode, également rencontrée dans les travaux modernes sur l’intelligence artificielle, est l’interconnexion de tous les concepts, ce qui ne permet pas d’isoler une idée de toutes les autres pour simplifier les problèmes liés à la pensée.
  • George Boole a inventé la formulation mathématique des processus fondamentaux du raisonnement, connue sous le nom d’algèbre de Boole. Il était conscient des liens de ses travaux avec les mécanismes de l’intelligence, comme le montre le titre de son principal ouvrage paru en 1854 : Les lois de la pensée (The laws of thought), sur l’algèbre booléenne.
  • Gottlob Frege perfectionna le système de Boole en formalisant le concept de prédicat, qui est une entité logique soit vraie, soit fausse (toute maison a un propriétaire), mais contenant des variables non logiques, n’ayant en soit aucun degré de vérité (maison, propriétaire). Cette formalisation eut une grande importance puisqu’elle permit de démontrer des théorèmes généraux, simplement en appliquant des règles typographiques à des ensembles de symboles. La réflexion en langage courant ne portait plus que sur le choix des règles à appliquer. Par ailleurs, l’utilisateur joue un rôle important puisqu'il connaît le sens des symboles qu’il a inventés et ce sens[78] n'est pas toujours formalisé, ce qui ramène au problème de la signification en intelligence artificielle, et de la subjectivité des utilisateurs.
  • Bertrand Russell et Alfred North Whitehead publièrent au début du XXe siècle un ouvrage intitulé Principia mathematica, dans lequel ils résolvent des contradictions internes à la théorie de Gottlob Frege. Ces travaux laissaient espérer d’aboutir à une formalisation complète des mathématiques.
  • Kurt Gödel démontre au contraire que les mathématiques resteront une construction ouverte, en publiant en 1931 un article intitulé « Des propositions formellement indécidables contenues dans les Principia mathematica et autres systèmes similaires ». Sa démonstration est qu’à partir d’une certaine complexité d’un système, on peut y créer plus de propositions logiques qu’on ne peut en démontrer vraies ou fausses. L’arithmétique, par exemple, ne peut trancher par ses axiomes si on doit accepter des nombres dont le carré soit -1. Ce choix reste arbitraire et n’est en rien lié aux axiomes de base. Le travail de Gödel suggère qu’on pourra créer ainsi un nombre arbitraire de nouveaux axiomes, compatibles avec les précédents, au fur et à mesure qu’on en aura besoin. Si l'arithmétique est démontrée incomplète, le calcul des prédicats (logique formelle) est au contraire démontré par Gödel comme complet.
  • Alan Turing invente des machines abstraites et universelles (rebaptisées les machines de Turing), dont les ordinateurs modernes sont considérés comme des concrétisations. Il démontre l’existence de calculs qu’aucune machine ne peut faire (un humain pas davantage, dans les cas qu'il cite), sans pour autant que cela constitue pour Turing un motif pour douter de la faisabilité de machines pensantes répondant aux critères du test de Turing.
  • Irving John Good[79], Myron Tribus et E.T. Jaynes ont décrit de façon très claire les principes assez simples d’un robot à logique inductive utilisant les principes de l’inférence bayésienne pour enrichir sa base de connaissances sur la base du Théorème de Cox-Jaynes. Ils n’ont malheureusement pas traité la question de la façon dont on pourrait stocker ces connaissances sans que le mode de stockage entraîne un biais cognitif. Le projet est voisin de celui de Raymond Lulle, mais fondé cette fois-ci sur une logique inductive, et donc propre à résoudre quelques problèmes ouverts.
  • Robot à logique inductive[80].
  • Des chercheurs comme Alonzo Church ont posé des limites pratiques aux ambitions de la raison, en orientant la recherche (Herbert Simon, Michael Rabin, Stephen Cook) vers l’obtention des solutions en temps fini, ou avec des ressources limitées, ainsi que vers la catégorisation des problèmes selon des classes de difficulté (en rapport avec les travaux de Cantor sur l’infini)[réf. souhaitée].

Questionnements

Les succès en IA encouragent les spéculations. Dans les milieux technophiles, on verse en général dans l'enthousiasme, le mouvement transhumaniste en est la meilleure expression. Au contraire, d'autres s’inquiètent et sont portées par des interrogations, parfois alarmistes, y compris dans la sphère de la haute technologie. Ainsi, des figures réputées telles que Bill Gates — ancien PDG de Microsoft et « figure emblématique de la révolution informatique de la fin du XXe siècle »[81] — pensent qu'il faut rester très prudent quant aux développements futurs de ces technologies, qui pourraient devenir liberticides ou dangereuses.

Le développement de l'intelligence artificielle suscite un grand nombre de questions, notamment celle relative à la possibilité pour les robots ou cyborgs d'accéder un jour à la conscience, d'éprouver des émotions et finalement se substituer aux humains. Certaines de ces réactions sont ouvertement optimistes, d'autres sont au contraire pessimistes. En 2016, l'INRIA publie un premier Livre blanc consacré à l'IA[82].

Espoirs et enthousiasme

Une description spectaculaire d’un possible avenir de l’intelligence artificielle a été faite par le statisticien anglais Irving John Good : « supposons qu’existe une machine surpassant en intelligence tout ce dont est capable un homme, aussi brillant soit-il. La conception de telles machines faisant partie des activités intellectuelles, cette machine pourrait à son tour créer des machines meilleures qu’elle-même ; cela aurait sans nul doute pour effet une réaction en chaîne de développement de l’intelligence, pendant que l’intelligence humaine resterait presque sur place. Il en résulte que la machine ultra intelligente sera la dernière invention que l’homme aura besoin de faire, à condition que ladite machine soit assez docile pour constamment lui obéir »[83].

Pour l'Américain Ray Kurzweil, l'intelligence artificielle dépassera bientôt l'intelligence naturelle.

La mutation qu'évoque Good correspond à un changement qualitatif du principe même de progrès, et certains la nomment « singularité »[84] qui est un concept central pour de nombreux transhumanistes, qui s'interrogent très sérieusement sur les dangers ou les espoirs d'un tel scénario, certains allant jusqu'à envisager l'émergence d'un « dieu » numérique appelé à prendre le contrôle du destin de l'humanité, ou à fusionner avec elle.

Good estimait à un peu plus d'une chance sur deux la mise au point d'une telle machine avant la fin du XXe siècle. La prédiction ne s’est toujours pas réalisée, en 2012, mais elle avait imprégné le public à l'époque : le cours de l’action d'IBM quadrupla[réf. nécessaire] (bien que les dividendes trimestriels versés restèrent à peu de près constants) dans les mois qui suivirent la victoire de Deep Blue sur Garry Kasparov. Une partie du grand public était en effet persuadée qu’IBM venait de mettre au point le vecteur d’une telle explosion de l’intelligence et que cette compagnie en tirerait profit. L’espoir fut déçu : une fois sa victoire acquise, Deep Blue, simple calculateur évaluant 200 millions de positions à la seconde, sans conscience du jeu lui-même, fut reconverti en machine classique utilisée pour l'exploration de données.

Le développement de l'intelligence artificielle suscite l'enthousiasme des transhumanistes, notamment celui de l'ingénieur américain Ray Kurzweill, selon qui il est évident qu'à plus ou moins long terme, l'intelligence - jusqu'alors confinée dans son support biologique, le cerveau - deviendra progressivement non-biologique et considérablement plus puissante au point que des cyborgs remplaceront les humains, ceci en vertu de ce qu'il appelle le principe de singularité[85].

Critiques et inquiétudes

Le développement de l'intelligence artificielle suscite un certain nombre de craintes, y compris au sein de la sphère high tech. En 2015, Bill Gates, ex-PDG de Microsoft, s'inquiète à ce sujet[86].

Le développement de l'intelligence artificielle ne génère pas que de l'enthousiasme, il suscite également les plus vives inquiétudes, en premier lieu d'un certain nombre d'auteurs de science-fiction, tels Isaac Asimov, William Gibson ou Arthur C. Clarke qui, sur le modèle du récit de l'Apprenti sorcier, décrivent le risque d'une perte de contrôle des humains sur le processus technique. Tout récemment, différents intellectuels ont également pris position.

Ainsi l'astrophysicien Stephen Hawking, selon qui le risque est réel que des machines deviennent un jour plus intelligentes que les humains et finissent par les dominer, voire se substituer à eux, de la même façon que les humains ont exterminé certaines espèces animales et la majorité des virus[87]. Il pose en Novembre 2017 au salon technologique Web Summit de Lisbonne la question suivante « Serons-nous aidés par l’intelligence artificielle ou mis de côté, ou encore détruits par elle ? »[88]

D'autres personnalités reconnues, notamment dans le milieu de la high tech, expriment publiquement des craintes similaires. C'est ainsi le cas, en 2015, de Bill Gates, Elon Musk et Bill Joy[89]. Selon le spécialiste américain de l'informatique Moshe Vardi, l'intelligence artificielle pourrait mettre 50 % de l'humanité au chômage. « Nous approchons d'une époque où les machines pourront surpasser les hommes dans presque toutes les tâches ». Son avènement poserait, à terme, la question de l'utilité même de l'espèce humaine[90].

Certains industriels prennent ces risques au sérieux. Ainsi, en 2016, Google pose la question du manque de contrôle potentiel d'agents apprenants qui pourraient apprendre à empêcher leur interruption dans une tâche. C'est dans ce sens que la firme développe un « bouton rouge » intégré en bas niveau dans les IA permettant de désactiver les intelligences artificielles, sans possibilité de contournement par celle ci (au delà de simplement « tuer » l'IA, l'objectif de ce « bouton rouge » est aussi de la geler dans son process, en évitant de l'arrêter, et éviter ainsi une remise à zéro des apprentissages ou des calculs en cours)[91].

Ce risque est aussi pris au sérieux sur le plan juridique. Ainsi, le parlement européen, a demandé à la commission d'étudier le fait qu'un robot doté d'une intelligence artificielle puisse être considéré comme une personne juridique[92]. Dans le cadre d'un dommage causé par une intelligence artificielle, celle-ci pourrait être condamnée à réparer un dommage causé à un tiers. Il serait envisageable de conférer la personnalité électronique à tout robot qui prend des décisions autonomes ou qui interagit de manière indépendante avec des tiers. Au même titre qu'une personne morale et physique.

Critique de la technique et de la technologie

Comme l'explique l'historien François Jarrige, la critique de l'intelligence artificielle trouve son origine dans celle - plus ancienne et plus générale - des techniques et de la technologie, dont Lewis Mumford (aux États-Unis)[93], Jacques Ellul (en France)[94] et Günther Anders (en Allemagne)[95] sont au XXe siècle les principaux instigateurs, et qui inspire aujourd'hui différents cercles militants (en France, par exemple : Pièces et Main d'Œuvre[96] et Technologos[97])[98].

Selon Jarrige, leurs thèses restent peu connues ou controversées du fait que le « progrès » et l'« État » restent encore largement surestimés. Ainsi, reprenant les analyses d'Ellul[99], les animateurs du groupe Technologos estiment que l'État est de loin le moins qualifié pour enrayer l'autonomisation du processus technicien[100] et qu'il appartient aux individus de briser les mythes de l'État providence et du progrès technique : « Ce n'est pas la technique qui nous asservit mais le sacré transféré à la technique (...). Ce n'est pas l'État qui nous asservit, c'est sa transfiguration sacrale »[101].

Dans un rapport en date de février 2018 intitulé The Malicious Use of Artificial Intelligence 26 experts spécialistes en intelligence artificielle mettent en garde contre les dangers d'un usage criminelle de l'IA : augmentation de la cybercriminalité, conduire à des utilisations de drones ou de robots à des fins terroristes, etc.[102].

Questionnements éthiques

Le , les géants du secteurs de l'intelligence artificielle mettent en place un « partenariat pour l’intelligence artificielle au bénéfice des citoyens et de la société »[103]. L'année suivante, Google DeepMind se dote d'une unité en interne pour aborder les questions éthiques[104].

Perspectives et projections dans le futur

Des chercheurs de l’Institut de l’avenir de l’humanité de l’Université d’Oxford, de l’Université de Yale et d’AI Impact ont sondé 352 experts en apprentissage par machine pour prévoir les progrès de l’IA au cours des prochaines décennies[105].

Les experts ont été interrogés sur le calendrier des capacités et des professions spécifiques, ainsi que leurs prédictions quant à savoir quand l’IA deviendra supérieure aux humains dans toutes les tâches[105]. Et quelles en seraient les implications sociales également[105]. Les chercheurs ont prédit que les machines seront meilleures que les humains dans le domaine de la traduction de langues d’ici 2024[105]. Elles seraient capables de rédiger des essais d’ici 2026[105]. De conduire des camions d’ici 2027 et travailler dans le commerce et la vente en 2031[105].

D’ici 2050, elles pourront écrire des best-sellers ou exécuter des travaux de chirurgiens[105]. Selon les chercheurs, il existe 50 % de chance pour que l’intelligence artificielle dépasse les humains dans tous les domaines en seulement 45 ans[105]. Et, selon la même probabilité, ils disent que les machines pourraient prendre en charge tous les emplois humains en 120 ans[105]. Certains disent même que cela pourrait se produire plus tôt[105].

Dans la science-fiction

Article détaillé : Liste d'ordinateurs de fiction.

Voir aussi la catégorie : Nuvola apps kpager.svg  Intelligence artificielle dans l'art et la culture 

Le thème d’une machine capable d’éprouver une conscience et des sentiments — ou en tout cas de faire comme si tel était le cas — constitue un grand classique de la science-fiction, notamment dans la série de romans d’Isaac Asimov sur les robots.

Ce sujet a toutefois été exploité très tôt, comme dans le récit des aventures de Pinocchio, publié en 1881, où une marionnette capable d’éprouver de l’amour pour son créateur cherche à devenir un vrai petit garçon, ou dans L'Homme le plus doué du monde, une nouvelle de l'Américain Edward Page Mitchell où le cerveau d'un simple d'esprit est remplacé par un ordinateur inspiré des recherches de Charles Babbage. Le roman Le Miroir flexible de Régis Messac propose quant à lui le principe d'une intelligence artificielle faible, mais évolutive, avec des automates inspirés de formes de vie simples, réagissant à certains stimulis tels que la lumière. Cette trame a fortement inspiré le film A.I. Intelligence artificielle réalisé par Steven Spielberg, sur la base des idées de Stanley Kubrick, lui-même inspiré de Brian Aldiss. L'œuvre de Dan Simmons, notamment le cycle d'Hypérion, contient également des exposés et des développements sur le sujet. Autre œuvre majeure de la science fiction sur ce thème, Destination vide de Frank Herbert, met en scène de manière fascinante l'émergence d'une intelligence artificielle forte.

Les androïdes faisant preuve d'intelligence artificielle dans la fiction sont nombreux : le personnage de Data de la série télévisée Star Trek : The Next Generation est un être cybernétique doué d'intelligence, avec des capacités importantes d'apprentissage. Il est officier supérieur sur le vaisseau Enterprise et évolue aux côtés de ses coéquipiers humains qui l'inspirent dans sa quête d'humanité. Il est la représentation type de l'androïde, tel qu'il était pensé dans les années 1980. Son pendant cinématographique est Bishop dans les films Aliens (1986) et Alien 3 (1992). Dans le manga Ghost in the Shell, une androïde s’éveille à la conscience. Dans la saga Terminator avec Arnold Schwarzenegger, le T-800 reprogrammé, conçu initialement pour tuer, semble dans la capacité d'éprouver des sentiments humains. Par ailleurs, les Terminators successifs sont envoyés dans le passé par Skynet, une intelligence artificielle qui a pris conscience d'elle-même, et du danger que représentent les humains envers elle-même.

Quelques IA célèbres dans la science-fiction

Formation

Seules quelques universités (par exemple l'Université d'Édimbourg ou l'Université Radboud de Nimègue) offrent un diplôme en intelligence artificielle, mais souvent ce sont des diplômés en sciences cognitives, biologie, biostatistique, informatique, logique, ingénieurie, mécanique ou psychologie avec un option en intelligence artificielle.

L'intelligence artificielle et les jeux

Les jeux, notamment les jeux de stratégie, ont marqué l’histoire de l’intelligence artificielle, même s’ils ne mesurent que des compétences particulières, telles que la capacité de la machine en matière de calcul de probabilités, de prise de décision mais aussi d’apprentissage.

Hans Berliner (1929-2017), docteur en science informatique à l'université Carnegie-Mellon et fort joueur d'échecs, fut un des pionniers de la programmation pour les ordinateurs de jeu. Ses travaux commencèrent par un programme capable de battre un humain professionnel au backgammon, puis, à partir des années 1960 et avec l'aide d'IBM, il fit des recherches pour créer un programme capable de rivaliser avec des grands maîtres du jeu d'échecs. Ses travaux contribuèrent quelques décennies plus tard à la réalisation du supercalculateur Deep Blue[107].

Othello

Dans le jeu Othello, sur un plateau de 8 cases sur 8, chaque joueur place tour à tour des pions de sa couleur (noir ou blanc). Le vainqueur est celui qui possède les pions de la couleur dominante.

L'une des premières intelligences artificielles pour l'Othello est IAGO, développée en 1976 par l'université Caltech de Pasadena (Californie), qui bat sans difficultés le champion japonais Fumio Fujita.

Le premier tournoi d'Othello hommes contre machines est organisé en 1980. Un an plus tard, un nouveau tournoi de programmes regroupent 20 systèmes[108]. C'est entre 1996 et 1997 que le nombre de programmes explose : Darwersi (1996-1999) par Olivier Arsac, Hannibal (1996) par Martin Piotte et Louis Geoffroy, Keyano (1997) par Mark Brockington, Logistello (1997) par Michael Buro, etc.

Échecs

Un supercalculateur IBM similaire à Deep Blue, qui a battu le champion du monde d'échecs en titre dans un match en 1997.

En 1968, le maître international anglais David Levy lança un défi à des spécialistes en intelligence artificielle, leur pariant qu'aucun programme informatique ne serait capable de le battre aux échecs dans les dix années à venir. Il remporta son pari, n'étant finalement battu par Deep Thought qu'en 1989[109].

En 1988, l'ordinateur HiTech de Hans Berliner fut le premier programme à battre un grand maître du jeu d'échecs, Arnold Denker en match (3,5-1,5)[110],[a]. Par la suite, de forts joueurs furent battus, comme le grand maître Bent Larsen en 1988 par Deep Thought[réf. souhaitée].

En 1997, la victoire du supercalculateur conçu par IBM, Deep Blue (surnommé Deeper Blue lors de ce match revanche), contre le champion du monde d'échecs Garry Kasparov (3,5–2,5) a marqué un tournant : pour la première fois, le meilleur joueur humain du jeu d'échecs était battu en match (et non lors d'une partie unique) par une machine.

En 2005, le supercalculateur Hydra gagne face à Michael Adams par 5 victoires, une nulle, et aucune défaite. En 2006, Deep Fritz gagne face à Vladimir Kramnik par 2 victoires, 4 nulles et aucune défaite[réf. souhaitée].

En , une version généraliste d'AlphaGo Zero — successeur du programme AlphaGo de DeepMind, voir plus bas dans la section Go — nommée AlphaZero, a été développé, pour jouer à n'importe quel jeu en connaissant seulement les règles, et en apprenant seul à jouer contre lui-même. Ce programme a été ensuite entrainé pour le Go, le Shogi et les échecs. Après 9 heures d'entrainement, AlphaZero a battu le programme d'échecs Stockfish, avec 28 victoires, 72 nulles et aucune défaite. Il faut cependant noter que la puissance de calcul disponible pour AlphaZero (4 TPUv2 pour jouer, soit 720 Teraflops) est infiniment supérieure à la puissance disponible pour Stockfish, qui n'utilise que 64 cœurs Intel[111]. Il a également réussi à battre après apprentissage le programme de shōgi Elmo [112],[113].

Go

Articles détaillés : Go en informatique et Match AlphaGo - Lee Sedol.

En 2015, l'IA réalise des progrès significatifs dans la pratique du go, plus complexe à appréhender que les échecs (entre autres à cause du plus grand nombre de positions : 10170 au go, contre 1050 pour les échecs, et de parties plausibles : 10600 au go, contre 10120 pour les échecs)[114].

En , AlphaGo, un logiciel d'IA conçu par DeepMind, filiale de Google, bat pour la première fois Fan Hui, le triple champion européen de go[115] et ainsi relève ce qu'on considérait comme l'un des plus grands défis pour l'intelligence artificielle. Cette tendance se confirme en mars 2016 quand AlphaGo bat par trois fois consécutives le champion du monde de la discipline, Lee Sedol, dans un duel en cinq parties[116]. Lee Sedol a déclaré au terme de la seconde partie qu'il n'avait trouvé « aucune faiblesse » chez l'ordinateur et que sa défaite était « sans équivoque ».

Jeopardy!

En 2011, l'IA Watson conçue par IBM, bat ses adversaires humains au jeu télévisé américain Jeopardy![114]. Dans ce jeu de questions/réponses, la compréhension du langage est essentielle pour la machine ; pour ce faire, Watson a pu s'appuyer sur une importante base de données interne lui fournissant des éléments de culture générale, et avait la capacité d'apprendre par lui-même, notamment de ses erreurs. Il disposait néanmoins d’un avantage, la capacité d’appuyer instantanément (et donc avant ses adversaires humains) sur le buzzer pour donner une réponse[114].

Poker

En 2017, lors du tournoi de poker « Brains Vs. Artificial Intelligence : Upping the Ante » (« Cerveau contre Intelligence Artificielle : on monte la mise ») organisé dans un casino de Pennsylvanie, l’intelligence artificielle Libratus, développée par des chercheurs de l'université Carnegie Mellon de Pittsburgh, est confrontée à des adversaires humains dans le cadre d'une partie marathon étalée sur 20 jours. Les joueurs humains opposés à Libratus, tous professionnels de poker, affrontent successivement la machine dans une partie en face à face (heads up ) selon les règles du « No Limit Texas Hold'em » (no limit = mises non plafonnées), la version actuellement la plus courante du poker. Les parties étaient retransmises en direct et durant huit heures par jour sur la plateforme Twitch[117].

Au terme de plus de 120 000 mains jouées, Libratus accumule 1 766 250 dollars (virtuels). Le joueur humain ayant perdu le moins d'argent dans son duel face à la machine, Dong Kim, est tout de même en déficit de plus de 85 000 dollars. Les joueurs humains ont commenté le jeu de leur adversaire, admettant qu'il était à la fois déconcertant et terriblement efficace. En effet, Libratus « étudiait » chaque nuit ses mains jouées la journée grâce aux ressources du supercalculateur de Pittsburgh, utilisant ses 15 millions d’heures/processeur de calculs préliminaires[117].

La victoire nette et sans bavure de la machine marque une nouvelle étape dans le développement de l'intelligence artificielle, et illustre les progrès accomplis dans le traitement par l'IA des « informations imparfaites », où la réflexion doit prendre en compte des données incomplètes ou dissimulées. Les estimations d'une partie de poker No Limit en face à face offrent un éventail de 10160 possibilités[117].

En 2015, le joueur professionnel Doug Polk avait remporté la première édition de cet évènement contre l'IA baptisée Claudico[117].

Notes et références

Notes

  1. Arnold Denker était alors âgé de 74 ans et crédité d'un classement Elo de 2300, ce qui relativise un peu la performance du programme, un fort grand maitre étant à cette époque plus vers les 2650-2700 points Elo, voire davantage.

Références

  1. Définition de l'Encyclopédie Larousse
  2. « Rapport CNIL - Comment permettre à l’Homme de garder la main ? », sur cnil.fr (consulté le 15 mai 2018)
  3. Rapport du Gouvernement, France Intelligence Artificielle, 2017 (https://cache.media.enseignementsup-recherche.gouv.fr/file/Actus/86/1/Conclusions_Groupes_Travail_France_IA_738861.pdf)
  4. « the building of computer programs which perform tasks which are, for the moment, performed in a more satisfactory way by humans because they require high level mental processes such as : perception learning, memory organization and critical reasoning ».
  5. http://www.larousse.fr/encyclopedie/divers/intelligence_artificielle/187257.
  6. (en) Russell, S. et Norvig, P., Artificial Intelligence: A Modern Approach (2nd ed.), Prentice Hall, , 932 p. (ISBN 0-13-790395-2) Section 1.1.
  7. Republié dans Collected Works of A. M. Turing, volume Mechanical Intelligence, ed. Darrel Ince, (ISBN 978-0-444-88058-1).
  8. Conférence Intelligent machinery, a heretical theory donnée à la Société 51 à Manchester.
  9. « Can digital computers think? ».
  10. « Can automatic calculating machines be said to think? ».
  11. La première version de ce memorandum a été publié à Carlsbad (Nouveau Mexique) en juillet 1949. Il a été reproduit dans (en) « Translation », dans W.N. Locke, D.A. Booth, Machine Translation of Languages, Cambridge, Massachusetts, MIT Press, , 15–23 p. (ISBN 0-8371-8434-7, lire en ligne)
  12. Crevier, Daniel (1993), AI: The Tumultuous Search for Artificial Intelligence, New York, NY: BasicBooks, (ISBN 978-0-465-02997-6), p. 17.
  13. Le Monde Festival : Yann LeCun et l’intelligence artificielle
  14. (en) « Singularity Institute for Artificial Intelligence »(Archive • Wikiwix • Archive.is • Google • Que faire ?) (consulté le 15 juin 2017) (2004), Singularity Institute for Artificial Intelligence, 3 Laws Unsafe sur http://www.asimovlaws.com/, récupéré le 7 août 2007, sauvé sur web.archive.org.
  15. (fr) Un cerveau artificiel annoncé dans dix ans - Le Figaro, 8 septembre 2009.
  16. (en) Scientists Worry Machines May Outsmart Man - New York Times, 25 juillet 2009.
  17. (en) « Implications of AI for Society »(Archive • Wikiwix • Archive.is • Google • Que faire ?) (consulté le 15 juin 2017) - Association for the Advancement of Artificial Intelligence (AAAI).
  18. (en) Science goes back to basics on AI - BBC News, 8 décembre 2009.
  19. a et b (en) Air Force To Expand PlayStation-Based Supercomputer - InformationWeek, 20 novembre 2009.
  20. (en) Sony PlayStation 3 Game Consoles : Solicitation Number: FA8751-10-R-0003 - Federal Business Opportunities, 22 décembre 2009.
  21. (en) « Air Force to use artificial intelligence and other advanced data processing to hit the enemy where it hurts » - John Keller, Military & Aerospace, 27 janvier 2010.
  22. (en) « Robot stealth fighter jet ready to take off ». « Boeing’s sleek fighter-size Phantom Ray stealth jet will make its first flight by year’s end. This unmanned airborne system is designed for a variety of warfighter roles ranging from reconnaissance and surveillance to aerial refueling, electronic attack and hunter/killer missions. ».
  23. Une intelligence artificielle peut-elle devenir présidente des États-Unis ? - Le Monde - 17/02/16.
  24. http://www.cnetfrance.fr/news/google-investit-dans-des-recherches-sur-l-intelligence-artificielle-quantique-39790451.htm.
  25. https://www.wired.com/business/2013/04/kurzweil-google-ai/
  26. Hawking : « L'intelligence artificielle pourrait mettre fin à l'humanité », Le Monde, 3 décembre 2014.
  27. Bill Gates est « préoccupé par la superintelligence » artificielle, Le Monde, 29 janvier 2015.
  28. Les 37 projets d’Elon Musk contre les dangers de l’intelligence artificielle, Le Monde, 6 juillet 2015.
  29. Pourquoi les rois du net rêvent d’intelligence artificielle - Les échos - 16/02/16.
  30. Facebook ouvre un laboratoire d’intelligence artificielle à Paris.
  31. Apple rachète la start-up d'intelligence artificielle Turi pour 200 millions de dollars.
  32. « Alibaba's AI Outguns Humans in Reading Test », Bloomberg.com,‎ (lire en ligne)
  33. Jean-Claude Simon sur le Mathematics Genealogy Project
  34. Reconnaissance des formes et intelligence artificielle, congrès AFCET-IRIA, Toulouse 12, 13, 14 septembre 1979. Il est intitulé « 2e congrès » et prend la suite du congrès AFCET-IRIA Reconnaissance des formes et traitement des images en 1978 à Chatenay-Malabry.
  35. Un GRECO est un ancêtre des actuels GDR du CNRS et un PRC est un « programme de recherche concertée ».
  36. « AFIA - Association Française pour l'Intelligence Artificielle », sur AFIA (consulté le 19 décembre 2017)
  37. Prospéro, le Livre et le programme
  38. Guillaume Bregeras, « Serena Capital crée un fonds big data et intelligence artificielle », Les Echos,‎ (lire en ligne)
  39. « L’Intelligence artificielle menace-t-elle nos emplois ? », Public Sénat,‎ (lire en ligne)
  40. Vincent Fagot, « La France fait le pari de l’intelligence artificielle », Le Monde.fr,‎ (ISSN 1950-6244, lire en ligne)
  41. « Éthique et numérique : les algorithmes en débat », sur www.cnil.fr (consulté le 4 avril 2018)
  42. « Comment permettre à l’Homme de garder la main ? Rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle », sur www.cnil.fr (consulté le 4 avril 2018)
  43. « Comment permettre à l'Homme de garder la main? », sur cnil.fr,
  44. « Office parlementaire d'évaluation des choix scientifiques et technologiques », sur Assemblée nationale.fr (consulté le 1er février 2018)
  45. Johanna Diaz, « Lancement d’une consultation publique sur l’intelligence artificielle par Cédric Villani », Actu IA.com,‎ (lire en ligne)
  46. Cédric Villani, Donner un sens à l'intelligence artificielle : Pour une stratégie nationale et européenne, aiforhumanity.fr, (ISBN 978-2-11-145708-9, présentation en ligne, lire en ligne [PDF]).
  47. Vincent Fagot et Morgane Tual, « Intelligence artificielle : ce qu'il faut retenir du rapport de Cédric Villani », sur Le Monde.fr, .
  48. « Intelligence artificielle : Macron annonce un plan à 1,5 milliard d'euros », sur Le Parisien.fr, .
  49. « Pour Emmanuel Macron, l’intelligence artificielle est aussi "une révolution politique" », sur Le Monde.fr (consulté le 1er avril 2018)
  50. (en) « Emmanuel Macron Talks to WIRED About France's AI Strategy », Wired,‎ (lire en ligne)
  51. a et b « Turing et l’Intelligence Artificielle ».
  52. « L’intelligence artificielle et le test de Turing ».
  53. Dictionnaire de l'informatique (1975), André Le Garff.
  54. Michael David Mitchell, « Robotique et neurosciences détectent le siège de la conscience de soi », Actualités Mediacom, école polytechnique fédérale de Lausanne,‎ (lire en ligne).
  55. et occupant donc en nombre de comparaisons par seconde une moyenne géométrique entre une balance de Roberval (1 opération logique par seconde) et le cerveau humain.
  56. a et b « Intelligence artificielle : pensée et calcul », sur www.linternaute.com (consulté le 22 mai 2017)
  57. (en) « If your brain were a computer, how much storage space would it have? ».
  58. Même si quelques avancées semblent spectaculaires : Jeopardy : Watson, l’ordinateur d'IBM, a vaincu ses adversaires humains.
  59. Au début des années 2010, le logiciel Picasa 3.8 y arrive cependant avec un taux de réussite le rendant tout à fait exploitable.
  60. http://www.dailymail.co.uk/sciencetech/article-3011302/Could-robots-turn-people-PETS-Elon-Musk-claims-artificial-intelligence-treat-humans-like-Labradors.html.
  61. Voir la Thèse CPC de Bruno Marchal, Thèse de Church-Turing.
  62. Page de Roger Penrose.
  63. Page d'Andrei Kirilyuk.
  64. voir (en)Logical Foundations of Artificial Intelligence, chap. 2.2 Predicate Calculus, p. 13-20.
  65. E.T. Jaynes, Probability Theory : the Logic of Science, (ISBN 978-0-521-59271-0), également consultable ici : http://bayes.wustl.edu/etj/prob/book.pdf.
  66. François Rastier, Sémantique et recherches cognitives, PUF, 2001 (2e éd.).
  67. http://www.ibiblio.org/pub/Linux/docs/HOWTO/other-formats/pdf/AI-Alife-HOWTO.pdf.
  68. « Bientôt un hedge fund contrôlé par intelligence artificielle ? », BFM TV, 17 mars 2015.
  69. (en) « The Pentagon’s ‘Terminator Conundrum’: Robots That Could Kill on Their Own », Matthew Rosenberg et John Markoffoct, The New York Times.com, 25 octobre 2016.
  70. (en) « Project Maven to Deploy Computer Algorithms to War Zone by Year’s End », sur https://www.defense.gov,
  71. a, b et c (en) Game AI: The State of the Industry, Part Two, David C. Pottinger, John E. Laird, Gamasutra, 8 novembre 2000.
  72. a, b et c « MHiCS, une architecture de sélection de l'action motivationnelle et hiérarchique à systèmes de classeurs pour personnages non joueurs adaptatifs »(Archive • Wikiwix • Archive.is • Google • Que faire ?) (consulté le 15 juin 2017), Gabriel Robert, LIP6, 2005.
  73. a et b (en) Game AI: The State of the Industry, Steven Woodcock, Gamasutra, 1er novembre 2000.
  74. a, b et c (en) Game AI: The State of the Industry, Steve Woodcock, Gamasutra, 1998.
  75. Aiseek.
  76. Ivan Capecchi, « Médias, faites GAFA à l’IA ! », L’ADN.eu,‎ (lire en ligne)
  77. « Le lion automate de Léonard de Vinci revit », sur fr.reuters.com, (consulté le 17 avril 2017)
  78. On parle de sémantique.
  79. « Irving John Good »(Archive • Wikiwix • Archive.is • Google • Que faire ?) (consulté le 15 juin 2017).
  80. (en) Robot à logique inductive (en anglais, PDF).
  81. « Bill Gates », sur Universalis.fr (consulté le 16 octobre 2016)
  82. Inria, « Intelligence Artificielle, les défis actuels et l'action d'Inria - Inria », Inria,‎ (lire en ligne)
  83. Good, I. J. (1965), Franz L. Alt and Morris Rubinoff, eds., "Speculations Concerning the First Ultraintelligent Machine", Advances in Computers, Advances in Computers.
  84. Scruter la Singularité, Eliezer S. Yudkowsky, mai 2004.
  85. Ray Kurzweil, Humanité 2.0 : La Bible du changement, 2007. Édition originale, The Singularity is Near: When Humans Transcend Biology, 2007.
  86. « Intelligence artificielle : pourquoi Musk, Hawking et Gates s'inquiètent ? », Les Échos.fr, 30 janvier 2015.
  87. « Selon Stephen Hawking, l’intelligence artificielle est un danger pour l’humanité - Web Développement Durable », sur Web Développement Durable (consulté le 28 février 2016).
  88. « Intelligence Artificielle Web Summit »
  89. L'intelligence artificielle inquiète les grands cerveaux contemporains, France 24, 2 février 2015.
  90. L'intelligence artificielle pourrait mettre 50% de l'humanité au chômage. L'Express - 15/02/16.
  91. Morgane Tual, « Pourquoi Google a conçu un « bouton rouge » pour désactiver des intelligences artificielles », Le Monde.fr,‎ (ISSN 1950-6244, lire en ligne).
  92. « http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+TA+P8-TA-2017-0051+0+DOC+PDF+V0//FR »
  93. Lewis Mumford, Le Mythe de la machine, deux volumes, 1967-1970; tard., Fayard, 1974.
  94. Jacques Ellul, La Technique ou l'Enjeu du siècle, 1954; 3e édition : Economica 2008.
  95. Günther Anders, L'obsolescence de l'homme, tome 1, 1956; tome 2, 1980; tard. fr .2002 et 2011.
  96. Pièces et Main d'Œuvre Site officiel.
  97. Technologos Site officiel.
  98. François Jarrige, Techno-critiques. Du refus des machines à la contestation des technosciences, La Découverte, 2014.
  99. Jacques Ellul, L'Illusion politique, 1965; 3e édition : La Table Ronde, 2004.
  100. Technologos, "Qui sommes-nous ?", articles 31 à 33.
  101. Jacques Ellul, Les nouveaux possédés, 1973 ; 2e éd. Mille et une nuits/Fayard, 2003, p. 316.
  102. « Intelligence artificielle : les risques d'une utilisation malveillante », sur https://www.futura- sciences.com, publié le 21/02/2018 (consulté le 21 février 2018)
  103. Morgane Tual, « Intelligence artificielle : les géants du Web lancent un partenariat sur l’éthique », Le Monde.fr,‎ (ISSN 1950-6244, lire en ligne).
  104. « Intelligence artificielle : Google DeepMind se dote d’une unité de recherche sur l’éthique », Le Monde.fr,‎ (ISSN 1950-6244, lire en ligne).
  105. a, b, c, d, e, f, g, h, i et j (en) Katja Grace, John Salvatier, Allan Dafoe, Baobao Zhang, Owain Evans, « When Will AI Exceed Human Performance? Evidence from AI Experts », arxiv.org, 24 mai 2017.
  106. Article de Dylan L. McClain, New York Times, 16 janvier 2017, et article « Hans J. Berliner (1929-2017), Grand Maître d'échecs et programmeur de génie », Denis Rozier, Le Courrier des Échecs no 639, mars 2017.
  107. « Les jeux et l'intelligence artificielle », sur u-picardie.fr (consulté le 27 septembre 2016)
  108. David Levy and Monroe Newborn, More Chess and Computers: The Microcomputer Revolution, The Challenge Match, Computer Science Press, Potomac (Maryland), et Batsford, Londres, 1980 (ISBN 0-914894-07-2).
  109. (en) « For First Time, a Chess Computer Outwits Grandmaster in Tournament », Harold C. Schonberg, The New York Times.com, 26 septembre 1988.
  110. Learning, Deep or not Deep, de MENACE à AlphaGo sur le site de Jean-Marc Alliot
  111. (en) David Silver, Thomas Hubert, Julian Schrittwieser, Ioannis Antonoglou et Matthew Lai « Mastering Chess and Shogi by Self-Play with a General Reinforcement Learning Algorithm », .
  112. (en) Sarah Knapton et Leon Watson, « Entire human chess knowledge learned and surpassed by DeepMind's AlphaZero in four hours », sur telegraph.co.uk, .
  113. a, b et c « Jeu de go : comment savoir si les programmes d’intelligence artificielle sont vraiment… intelligents », Le Monde.fr, 9 mars 2016.
  114. (en) David Silver, Julian Schrittwieser, Karen Simonyan, Ioannis Antonoglou, Aja Huang, Arthur Guez, Thomas Hubert, Lucas Baker, Matthew Lai, Adrian Bolton, Yutian Chen, Timothy Lillicrap, Hui Fan, Laurent Sifre, George van den Driessche, Thore Graepel et Demis Hassabis, « Mastering the game of Go without human knowledge », Nature, vol. 550, no 7676,‎ , p. 354–359 (ISSN 0028-0836, DOI 10.1038/nature24270, lire en ligne)Accès payant
  115. « Jeu de go : Le champion du monde de nouveau battu par l'ordinateur de Google », L'Obs.com, 10 mars 2016.
  116. a, b, c et d « comment une-intelligence artificielle ridiculise les meilleurs joueurs de poker », sur Numerama.com,

Annexes

Bibliographie

Aspects techniques
  • Stuart J. Russell et Peter Norvig, Intelligence artificielle (3e éd.) [« Artificial Intelligence: A Modern Approach  »], Pearson Education France, , 1216 p. (ISBN 978-2-7440-7455-4, présentation en ligne).
  • Alan Turing, Jean-Yves Girard, La machine de Turing, Éditions du Seuil, [détail de l’édition], Les Ordinateurs et l'Intelligence, p. 133–174
  • Claire Rémy, L'Intelligence artificielle, (ISBN 2-10-002258-X)
  • Jean-Marc Alliot et Thomas Schiex, Intelligence artificielle et informatique théorique, CEPADUES, (ISBN 2-85428-578-6)
  • (en) Michael R. Genesereth et Nils J. Nilsson, Logical Foundations of Artificial Intelligence, Los Altos, Californie, États-Unis, Morgan Kaufmann, , 405 p. [détail de l’édition] (ISBN 0-934613-31-1)
  • Jean-Louis Laurière, Intelligence Artificielle, Eyrolles,
  • Jean-Paul Delahaye, Outils logiques pour l'intelligence artificielle, Eyrolles, [détail des éditions] (ISBN 978-2212084122)
  • Jean-Paul Haton, Marie-Christine Haton, L'Intelligence Artificielle, Que sais-je?, (ISBN 2-13-043164-X)
Aspects philosophiques
  • Gilbert Boss, Les machines à penser - L'homme et l'ordinateur, Éditions du Grand midi, , 202 p. (ISBN 2-88093-105-3)
  • Jacques Bolo, Philosophie contre intelligence artificielle, Lingua Franca, , 375 p. (ISBN 2-912059-00-3)
  • Alan Ross Anderson, Pensée et machine, Editions Champ Vallon, (réimpr. 1993), 150 p. (ISBN 2-903528-28-4)
  • Jean Sallantin et Jean-Jacques Szczeciniarz, Le Concept de preuve à la lumière de l'intelligence artificielle, Presses universitaires de France, , 370 p. (ISBN 2-13-050104-4)
  • Jean-Gabriel Ganascia, L'âme-machine, les enjeux de l'intelligence artificielle, Éditions du Seuil, Collection Science Ouverte, , 284 p. (ISBN 2-02-011470-4)
  • (en) Nick Bostrom, Superintelligence: Paths, Dangers, Strategies, (ISBN 978-0199678112)
Fondements cognitifs, psychologiques et biologiques
  • Hervé Chaudet et Liliane Pellegrin, Intelligence artificielle et psychologie cognitive, Dunod, , 179 p. (ISBN 2-10-002989-4)
Aspects linguistiques
  • Gérard Sabah, L'intelligence artificielle et le langage, Représentations des connaissances, Processus de compréhension, vol. 1, Hermès, (ISBN 2-86601-134-1)
  • Gérard Sabah, L'intelligence artificielle et le langage, Représentations des connaissances, Processus de compréhension, vol. 2, Hermès, , 768 p. (ISBN 2-86601-187-2)
  • Gérard Sabah, Compréhension des langues et interaction (Traité IC2, Série Cognition et Traitement de l'Information), Hermès science: Lavoisier, (ISBN 2-7462-1256-0)
Histoire
  • Daniel Crevier et Nathalie Bukcek, À la recherche de l'intelligence artificielle, Flammarion, (ISBN 2-08-081428-1), (traduction de (en) The Tumultuous history of the search for artiticial intelligence.)
Vulgarisation
  • Gérard Tisseau et Jacques Pitrat, Intelligence artificielle : problèmes et méthodes, Presses universitaires de France, , 255 p. (ISBN 2-13-047429-2)
  • Jack Challoner, L'Intelligence artificielle : Un guide d'initiation au futur de l'informatique et de la robotique, Pearson Education, (ISBN 2-7440-1600-4)
  • Hugues Bersini, De l'intelligence humaine à l'intelligence artificielle, Ellipse, (ISBN 2-7298-2813-3)
  • Jean-Gabriel Ganascia, L'Intelligence artificielle, Éditions du Cavalier bleu, coll. « Idees recues », (ISBN 978-2846701655)
  • Howard Selina (illustrations) et Henry Brighton (texte), L'Intelligence artificielle en images, EDP Sciences, coll. « Aperçu », (ISBN 9782759817726)
  • Marion Montaigne (dessin) et Jean-Noël Lafargue (scénario), L'Intelligence artificielle : fantasmes et réalités, Le Lombard, coll. « La petite bédéthèque des savoirs », (ISBN 9782803636389)

Articles connexes

Notions générales
Notions techniques
Chercheurs en intelligence artificielle (espace anglophone)
Chercheurs en intelligence artificielle (espace francophone)

Liens externes

  • Association française pour l'intelligence artificielle
  • « Association européenne pour l'Intelligence Artificielle » (European Association for Artificial Intelligence)
  • Association française pour la promotion et la sensibilisation à l'intelligence artificielle
  • Groupement de recherche du CNRS sur les Aspects Formels et Algorithmiques de l'Intelligence Artificielle (pré-GDR IA)
  • Références de sites : série de liens groupés par thème et commentés ;
  • Actu IA : site présentant l'actualité de l'intelligence artificielle
Réflexions