Accueil / Intelligence artificielle et controverse sur la fin de l’humanité

Intelligence artificielle et controverse sur la fin de l’humanité

Publié en ligne le 23 septembre 2023 - Intelligence Artificielle -

Avec l’apparition des « IA génératives » capables de produire du contenu original (textes, images, vidéos…) sur tout type de sujets, les déclarations sur un risque apocalyptique à venir se succèdent. Une lettre ouverte initiée le 22 mars 2023 par l’organisation Future of Life Institute [1] appelle « tous les laboratoires d’IA à suspendre immédiatement pendant au moins six mois l’entraînement des systèmes d’IA plus puissants que GPT-4 » [2]. En cause : la menace de machines pouvant « inonder nos canaux d’information de propagande et de contrevérité », et « développer des esprits non humains qui pourraient éventuellement être plus nombreux, plus intelligents […] et nous remplacer ». Le risque serait alors de « perdre le contrôle de notre civilisation ». Cette pause devrait être mise à profit pour concevoir des « protocoles de sécurité partagés ». Une nouvelle lettre est initiée fin mai 2023 par le Center for AI Safety avec cette seule phrase [3] : « L’atténuation du risque d’extinction [de l’humanité] par l’IA devrait être une priorité mondiale au même titre que d’autres risques sociétaux comme les pandémies et la guerre nucléaire. »

La Longue-Vue, Ogata Gekkô (1859-1920)

Ce qui est marquant, c’est la qualité des signataires de l’une ou de l’autre lettre. Outre des entrepreneurs emblématiques de l’industrie de l’IA et du numérique (par exemple Elon Musk, le patron de SpaceX et de Tesla, mais aussi de Neuralink, une entreprise qui développe des implants cérébraux destinés à permettre la communication directe avec des ordinateurs, Sam Altmann, le patron d’OpenAI et créateur de ChatGPT, Bill Gates, un des fondateurs de Microsoft), on y retrouve des scientifiques reconnus comme Geoffroy Hinton et Yoshua Bengio, lauréats du prix Turing, l’équivalent en informatique du prix Nobel.

Cela ne rend pas pour autant plus crédibles les annonces faites. En réalité, elles ne sont étayées par aucun argumentaire, si ce n’est des généralités comme « la machine va dépasser l’Homme, va devenir incontrôlable »… Rien de concret n’explique par quel processus les technologies et les applications actuelles seraient les prémices d’une menace existentielle.

Plusieurs des initiateurs de ces lettres se rattachent à un courant de pensée très populaire dans le monde anglo-saxon, appelé « long-termiste » [4]. Dans cette conception, la priorité doit être donnée à « ce qui peut être fait maintenant pour assurer un avenir florissant à long terme » [5]. Ce que nous vivons aujourd’hui ne serait qu’une toute petite page d’une histoire beaucoup plus longue, et notre responsabilité majeure concernerait le temps long [6]. La principale critique que l’on peut adresser à cette éthique est de privilégier ainsi un futur spéculatif au détriment des problèmes du présent.

Les deux organismes que sont le Future of Life Institute et le Center for AI Safety [3], initiateurs des appels mentionnés plus haut, s’inscrivent dans cette vision du monde. Ainsi, si l’IA peut devenir un risque « plus grand que les pandémies et la guerre nucléaire », ce n’est pas dans l’absolu, ni maintenant, mais dans une vision très spéculative du futur de l’humanité mis en danger par des IA qui seraient mal conçues. C’est dans l’esprit de sauvegarder l’avenir de l’humanité que s’inscrivent d’ailleurs des projets menés par certains des signataires, comme la colonisation de Mars chère à Elon Musk.

Il y a une contradiction apparente à voir ainsi des entrepreneurs de l’IA, des responsables de sociétés qui investissent des milliards de dollars dans l’intelligence artificielle, déclarer redouter une apocalypse et réclamer une « pause » (pause qu’ils n’appliquent pas à leurs travaux). Pour l’historien et philosophe Émile P. Torres, « les défenseurs de cette idée ont une vision très binaire de l’intelligence artificielle. Soit elle nous conduira vers une utopie merveilleuse, soit, si elle est mal conçue, à l’annihilation de l’humanité » [7]. Et bien entendu, l’IA « bien conçue » sera celle qu’ils proposeront.

Propagande, Jean-Eugène Buland (1852-1926)

De nombreux spécialistes de l’IA rejettent cette vision apocalyptique. Certains dénoncent une saturation de l’espace médiatique où « les menaces existentielles sont souvent présentées comme des faits avérés » [8]. Cette saturation, selon eux, relègue au second plan les risques bien réels et actuels qu’il conviendrait de mieux encadrer. De fait, quand on y regarde de plus près, on découvre de nombreux paradoxes apparents. Ainsi, Sam Altmann, le patron de Open-AI et créateur de ChatGPT, réclame d’un côté, devant le Congrès américain, une régulation appropriée pour encadrer les développements des IA génératives [9]. Mais, devant la Commission européenne, face à des projets concrets de réglementation, il menace de retirer ses logiciels des pays de l’Union européenne [10] (avant de revenir, quelques jours plus tard, sur ses propos). Autorégulation par les grandes entprises du numérique ? Systèmes ouverts et transparence ou systèmes propriétaires ? Autant de débats décisifs qui se perdent dans le brouillard médiatique d’une possible disparition de l’humanité.

Le risque agité de machines prenant le pouvoir sur les êtres humains est également accusé de rendre inaudibles tous les propos qui mettraient en avant les bienfaits potentiels des nouveaux systèmes d’IA, par exemple pour faire face à des défis majeurs, en termes de santé publique ou encore dans la lutte contre le réchauffement climatique [11].

Le sensationnalisme trouve un écho complaisant dans les médias, et c’est en particulier le cas des déclarations prédisant une disparition de l’humanité et un processus irréversible en train de s’enclencher. Ce risque existentiel apparaît ainsi faussement comme une préoccupation dominante des chercheurs, alors que, dans les congrès scientifiques, c’est « un sujet marginal » [8].

Les développements de l’intelligence artificielle s’accompagnent, presque régulièrement depuis la naissance de cette discipline dans les années 1950, de déclarations alarmistes ou apocalyptiques. Ce n’est d’ailleurs pas propre à l’intelligence artificielle : beaucoup de nouvelles technologies suscitent des craintes similaires. La réalité doit toutefois s’apprécier au cas par cas, en se fondant sur des arguments étayés, en examinant les avantages et les inconvénients de chacune des applications, et en considérant comment le cadre réglementaire doit être organisé pour tirer bénéfices des découvertes scientifiques tout en minimisant, autant que possible, les risques réellement identifiés.

Publié dans le n° 345 de la revue


Partager cet article


L' auteur

Jean-Paul Krivine

Rédacteur en chef de la revue Science et pseudo-sciences (depuis 2001). Président de l’Afis en 2019 et 2020. (…)

Plus d'informations

Intelligence Artificielle

L’intelligence artificielle (IA) suscite curiosité, enthousiasme et inquiétude. Elle est présente dans d’innombrables applications, ses prouesses font régulièrement la une des journaux. Dans le même temps, des déclarations médiatisées mettent en garde contre des machines qui pourraient prendre le pouvoir et menacer la place de l’Homme ou, a minima, porter atteinte à certaines de nos libertés. Les performances impressionnantes observées aujourd’hui sont-elles annonciatrices de comportements qui vont vite nous échapper ?