Accueil / Regards sur la science / Encore l’intelligence artificielle

Encore l’intelligence artificielle

Publié en ligne le 13 mai 2016 -
par Jean-Paul Delahaye - SPS n° 315, janvier 2016

L’intelligence des ordinateurs n’est jamais celle que l’on attend et c’est la raison pour laquelle certains réfutent, et continueront longtemps de le faire, l’idée que nos ordinateurs sont en train de devenir intelligents.

La science-fiction a imaginé des robots humanoïdes impossibles à distinguer des humains où les imitant assez bien. Pourtant, aujourd’hui ceux que la recherche et l’industrie proposent sont très loin de pouvoir se faire prendre pour des humains. Même le test de Turing n’est pas réussi : on ne sait pas faire des systèmes informatiques destinés à entretenir des conversations écrites et qui fonctionnent si bien qu’on ne sache pas décider si c’est une machine ou un humain qui nous répond.

En revanche, pour de nombreuses tâches plus spécialisées demandant du traitement de l’information, du calcul et du raisonnement, les ordinateurs sont meilleurs que nous. Par exemple, pour vous donner des conseils sur la route à suivre en voiture permettant de rejoindre une adresse, ou la page Internet à consulter sur tel ou tel sujet. De la même façon que nous n’hésitons pas à dire que nous savons fabriquer des objets volants (nos avions, comparés aux moineaux, n’en ont pas l’agilité mais ils volent plus haut, plus vite et plus longtemps), nous devons accepter de dire que nous fabriquons des machines intelligentes qui le sont moins que nous assez souvent, mais qui le sont aussi plus que nous pour des tâches de plus en plus nombreuses.

Je ne donnerai ici qu’un exemple supplémentaire de cette intelligence particulière des machines qui devrait et nous ouvrir les yeux et nous faire accepter de dire que nos ordinateurs sont en train de devenir intelligents ou même qu’ils le sont déjà. Les mathématiciens aujourd’hui produisent (collectivement) des démonstrations si longues et difficiles qu’ils sont devenus incapables d’avoir la certitude de leur exactitude... sauf s’ils font appel aux machines.

Le dernier exemple en date est remarquable ; il s’agit de la démonstration de la conjecture de Kepler. Elle affirme que l’empilement qu’on utilise naturellement pour installer un étalage d’oranges (une couche basée sur un réseau triangulaire d’oranges, sur laquelle on en dépose une autre du même type en utilisant les creux créés par la première, etc.) est la méthode donnant le plus dense des remplissages de l’espace par des sphères. Une démonstration en a bien été proposée par Samuel Ferguson et Thomas Hales en 1998, mais le comité d’experts qui a examiné leur travail a refusé de conclure que les deux mathématiciens avaient produit une démonstration juste ; il s’est contenté de dire qu’elle l’était assez probablement. Longue et utilisant par endroit des calculs menés par ordinateurs à l’aide de logiciels complexes, la preuve de Ferguson et Hales résolvait donc peut-être la conjecture de Kepler, mais cela restait incertain.

Les assistants de preuves sont des logiciels qui servent à valider les démonstrations mathématiques à la condition qu’on écrive les preuves dans un langage défini minutieusement et assez délicat à utiliser. C’est la précision exigée par le logiciel qui assure qu’aucune erreur ne peut se glisser. Le logiciel aide aussi le mathématicien à donner toutes les précisions nécessaires, d’où le nom d’assistant de preuve. Ne réussissant pas à faire valider sa preuve par les spécialistes humains, Thomas Hales décida de s’adresser aux machines ! Son équipe et lui se mirent donc à préparer la preuve sous la forme exigée par la machine (utilisant une combinaison de deux logiciels assistant de preuve Isabelle et HOL). Il y a un an, ce fut fait. La démonstration de Ferguson et Hales est correcte.

Bien sûr, c’est la capacité d’un ordinateur à mener des calculs méticuleux sans erreur, même s’ils sont très longs, qui a permis cette vérification. C’est donc uniquement le côté calculateur fiable qui en définitive a compté. Bien sûr aussi, les logiciels assistants de preuve utilisés ont été conçus puis programmé par des humains qui ont pour cela mis au point des méthodes limitant au maximum les erreurs, dont en particulier celle consistant à faire prouver que le noyau principal de calcul de l’assistant de preuve fait ce qu’on attend, sans erreur. On peut donc dire que ce que fait l’assistant informatique est uniquement ce que des humains lui ont demandé de faire, qui eux seuls doivent donc être qualifiés d’intelligents.

Cependant, ce serait là encore refuser de voir l’évidence : bien que nous éduquions nos enfants et que nous soyons essentiels à leur développement intellectuel, cela n’empêche pas qu’une fois séparés de nous on puisse dire qu’ils sont – eux – intelligents. Même chose avec les programmes pour jouer aux échecs qui battent ceux qui les programment. Les assistants de preuves n’ont que des capacités intellectuelles spécialisées, cela n’empêche pas qu’ils mènent un travail précieux, délicat, intellectuel, que nous ne savons pas faire aussi bien qu’eux, quels que soient le soin et le temps que nous sommes prêts à y consacrer. Même si je sais que cela horripile nombre de mes collègues – et aussi de nombreux philosophes – j’aime dire que ces assistants de preuves possèdent une forme d’intelligence qui a une grande valeur.

Si à chaque fois qu’un ordinateur réussit à faire ce qu’un humain ne peut pas faire, nous décrétons que ce n’est que du calcul – il est certain que nous pourrons toujours dire ça – et donc que l’ordinateur n’est pas intelligent, nous finirons par nous retrouver entourés de machines « stupides » sachant faire tout ce que nous savons faire et beaucoup plus. Ne faut-il pas plutôt essayer de comprendre ce que sont ces morceaux d’intelligence que nous créons, qui ne s’assemblent pas très bien aujourd’hui et donnent donc souvent une impression de bêtise ? Leur spécialisation ne doit pas nous empêcher de réfléchir et de nous interroger sur les problèmes qu’elles posent, par exemple quand les militaires mettent au point des systèmes autonomes capables de prendre la décision de tuer et les envoient sur les terrains de combat.

Une lettre signée par plusieurs milliers de personnes, dont de nombreux chercheurs dans le domaine de l’intelligence artificielle, demande qu’on interdise les recherches et la mise au point de ces robots autonomes tueurs. Croyez-vous vraiment qu’il faille en rire et se contenter de dire que l’intelligence artificielle est impossible et donc que tout cela ne compte pas ?

Publié dans le n° 315 de la revue


Partager cet article