Accueil / Notes de lecture / L’intelligence artificielle

L’intelligence artificielle

Publié en ligne le 12 janvier 2019
Note de lecture de Antoine Pitrou - janvier 2019
L’intelligence artificielle

Nicolas Spatola

Presses Universitaires Blaise Pascal, Coll. L’Opportune, 2018, 64 pages, 4,51 €

La petite collection L’Opportune propose de très courts ouvrages censés résumer « l’essentiel d’un sujet ». Les quelques ouvrages publiés jusqu’ici traitent de thèmes à la mode : le féminisme, les séries télévisées, l’économie de l’immigration… Nicolas Spatola, post-doctorant en psychologie, poursuit la série avec cet ouvrage traitant de l’intelligence artificielle (IA) sous un angle plus social et prospectif que scientifique. Plus précisément, après avoir brièvement esquissé l’histoire des recherches en IA, l’auteur s’intéresse à ce qu’il appelle Machine Learning, à savoir l’apprentissage automatisé.

Chaque décennie semble porter avec elle un nouvel engouement techno-scientifique, avec grandes prétentions au bouleversement social : il y a dix ans c’étaient les imprimantes 3D et les « fablabs » 1, aujourd’hui c’est l’IA. Le livre ne dévie guère, sur le fond, du discours majoritaire actuel sur l’IA. Mais l’auteur y ajoute une grandiloquence embarrassante lorsqu’il affirme que «  notre système économique se fonde en grande partie sur les intelligences artificielles  » (p. 24), «  la révolution de l’intelligence artificielle est amenée à rebattre les cartes de la géopolitique actuelle  » (p. 26) ou encore «  l’intelligence artificielle va continuer d’exploser car elle représente un outil économique révolutionnaire  » (p. 61, en conclusion du livre). Ce sont là de grandes affirmations sourcées (le peu de références bibliographiques est d’ailleurs une caractéristique de l’ouvrage, mais peut-être s’agit-il d’une exigence de l’éditeur dans un tel format grand public) et probablement fausses… D’autres affirmations plus précises paraissent douteuses ou formulées de façon trompeuse, comme celle selon laquelle le nombre d’enseignants aurait augmenté de « 580 % » au sein de la main-d’œuvre britannique en vingt ans (p. 54).

L’inévitable volet éthique du débat sur l’IA est traité de façon assez vague. Paradoxalement, le problème de la concentration des données chez quelques acteurs dominants (les GAFAM — acronyme regroupant quelques géants de l’industrie numérique : Google, Apple, Facebook, Amazon, Microsoft —) paraît mieux expliqué que le problème spécifique de l’interaction entre règles sociales humaines et décision artificielle. Pour ce qui concerne l’IA, l’auteur affirme par exemple qu’il faudrait « concevoir une vision morale du monde prenant en compte l’apprentissage des intelligences artificielles  » (p. 37), mais comme souvent dans ce genre d’écrits, on ne saura pas ce qu’est une « vision morale du monde » ou un « principe éthique ». Ce sont pourtant là des termes fort malléables sur lesquels il est difficile de bâtir un débat sérieux, faute de définition et d’accord sur la qualité « morale » ou « éthique » de tel ou tel principe… On saura aussi que la CNIL s’est emparée du sujet, mais sans que cela ne vienne fournir le moindre éclairage de fond : c’est d’ailleurs un défaut fréquent du livre, qui expose des informations éparses sans les pondérer, les analyser ni les articuler dans un raisonnement (que m’apporte de savoir que l’Arabie saoudite a un projet de « ville du futur » ?).

Le volet économique de la présentation a le mérite de remettre en question l’idée reçue selon laquelle le progrès technologique représenté par l’IA créerait un nouveau chômage de masse, idée liée à une vision naïve, purement statique, de l’économie. La loi de Moore 2 est également évoquée ainsi que son épuisement actuel (p. 16), mais sans en tirer de conséquences sur une possible stagnation à venir des capacités des IA. Du côté de l’enseignement, l’auteur affirme que «  le rôle de l’éducation consistera davantage à encourager l’ouverture d’esprit, la curiosité, et la capacité d’adaptation des élèves, afin qu’ils soient capables d’intégrer un grand nombre d’informations, et surtout de comprendre le fonctionnement de la société nouvelle  » : discours assez à la mode, sans lien réel avec l’IA, et qui confond néanmoins connaissances, savoir et intégration d’informations. Il y a, de plus, un paradoxe puisque «  intégrer un grand nombre d’informations  » est précisément un point fort de l’IA : pourquoi former spécifiquement les humains à une tâche que l’on prévoit de déléguer aux machines pensantes ? Dans cette optique, il vaudrait peut-être mieux développer des capacités cognitives complémentaires : par exemple l’esprit de système, la compréhension et le maniement des concepts philosophiques, le raisonnement spéculatif, la réflexivité, la conscience des pièges du langage, mais aussi, bien sûr, la connaissance de notre propre histoire, biologique, politique, sociale, économique, sans laquelle on ne forme pas des citoyens.

L’ouvrage n’est pas exempt d’explications techniques. Malheureusement, la plus détaillée d’entre elles, qui semble tenter de mettre la compréhension des réseaux de neurones au niveau d’un enfant de dix ans (ou d’un adulte réfractaire à toute notion de mathématiques niveau lycée, comme la notion de fonction), s’avère simpliste et approximative. Un réseau de neurones y est décrit comme « un panneau disposant d’un grand nombre de boutons à l’image de potentiomètres, que l’algorithme va pouvoir pivoter afin de créer un pattern, c’est-à-dire un ensemble de positions, qui correspondra à une représentation d’avion » (p. 10). L’algorithme d’apprentissage « doit produire la bonne séquence de position de “boutons” pour que ceux-ci correspondent à la séquence “avion” » (p. 11). L’algorithme d’apprentissage est décrit en termes hasardeux, l’auteur semblant affirmer que l’ajustement des paramètres est effectué graduellement par un humain (p. 11) (« le rôle de l’opérateur humain va être de modifier le ou les boutons responsables »). Au bout d’une dizaine de pages d’explications, le lecteur restera ignorant de la structuration en couches d’un réseau de neurones, ou de la façon précise dont s’effectue l’apprentissage.

L’ouvrage fournira tout de même des informations utiles, par exemple sur l’existence de recherches sur des IA « imaginatives » ou sur les avancées techniques les plus marquantes des dernières décennies. Mais il reste difficile de considérer, comme l’affirme la quatrième de couverture, que l’ouvrage permettra de «  s’emparer du sujet et prendre part aux réflexions qui détermineront le monde de demain », tant les « notions-clés » sont exposées de façon sommaire et peu éclairante.

1 D’après le Robert illustré : « Atelier mettant à la disposition du public des outils de fabrication d’objets assistée par ordinateur ».

2 « Loi » de la miniaturisation progressive des circuits intégrés, qui prédisait un doublement du nombre de transistors par unité de surface sur une puce électronique tous les deux ans. La loi de Moore (du nom de son inventeur, Gordon Moore, un des fondateurs de la société Intel) s’est trouvée bien vérifiée des années 70 jusqu’au début des années 2010, permettant ainsi l’augmentation fulgurante des capacités de calcul.