Une seconde révolution
l'intelligence machine ?
Max Dauchet
La révolution copernicienne nous a chassés du centre de l'univers. Nous sommes peut-être au seuil d'une seconde révolution du même acabit, qui nous chassera du cœur de l'intelligence. Et c'est une bonne nouvelle.
Nuremberg 1543, De revolutionibus orbium coelestium [1] sort de presse. L'ouvrage révolutionne l'idée que l'humain se fait de lui-même. C'est la révolution copernicienne, la science réfute l'idée d'un homme au centre d'un univers créé pour lui.
Dartmouth 1956, une poignée de chercheurs, qui deviendront célèbres, invente le terme « intelligence artificielle » (IA). La science interroge une seconde fois l'humain : a-t-il l'exclusivité de l'intelligence, ou celle-ci est-elle inscrite dans les lois de l'information au même titre que la Terre est inscrite dans les lois de l'astrophysique ? Privé par la révolution copernicienne d'un privilège, l'homme s'en inventa un autre pour demeurer au centre du jeu, celui de l'intelligence. Descartes avait préparé le terrain, affirmant dans son Discours sur la méthode que l'humain est seul doté de raison. Linné, dans sa célèbre classification des espèces, avait conclu l'affaire en qualifiant notre espèce d'homo Sapiens. Tout est dans le qualificatif Sapiens, c'est là que nous avons placé notre fierté et notre orgueil. Avant, au moyen âge, la noblesse de sang et la bravoure étaient les valeurs cardinales. Désormais le mérite prévalait, la connaissance devenait un bien commun, le savant admiré et la science synonyme de progrès. Cela donna les Lumières, l'humanisme et les Droits de l'Homme.
Cependant notre arrogance intellectuelle a fini par nous envoyer dans le mur écologique, en nous poussant à nous croire seuls architectes d'une planète à notre disposition. Car l'évolution darwinienne est une forme d'intelligence, qui résout des problèmes pour trouver des équilibres durables (2). Et voilà que des machines contestent notre monopole de l'intelligence. Dur à avaler.
Après la révolution copernicienne, qu'annonce la révolution de l'IA ?
À quelques jours d'intervalle, les pionniers du Deep learning se sont exprimés de manière divergente sur les craintes et les espoirs que suscite ChatGPT, qui se situe dans la filiation de leurs travaux. Il s'agit de Yoshua Bengio et Yann le Cun dans une interview du Monde du 28 avril 2023, puis de Geoffrey Hinton, dans les echos.fr du 4 mai. Les trois universitaires partagent le prix Turing 2018, équivalent du Nobel pour les sciences du numérique. Le français Le Cun soutient que l'intelligence machine peut « conduire à une renaissance de l'humanité, un nouveau siècle des Lumières ». Au contraire, Bengio craint la perte de contrôle et Hinton a basculé dans le pessimisme radical, allant jusqu'à voir dans les développements en cours une menace pour l'humanité. Pour que les prévisions de Le Cun se réalisent, un travail de deuil sur à notre supposée exclusivité de l'intelligence reste à accomplir. C'est parce que nous ne l'avons pas entamé que nous avons nommé intelligence artificielle (IA) l'exploitation par des machines des lois universelles de l'information. Nous n'avons jamais parlé de vol artificiel en inventant l'avion, ni de puissance artificielle en inventant la machine à vapeur, parce que nous ne revendiquions aucune supériorité dans ces domaines et que nous savions qu'ils s'inscrivent dans les lois de la physique [2]. Si la crainte d'un « grand remplacement » de l'humain par des IA a toujours cours, c'est faute d'oser mettre sur le tapis la question de l'intelligence, comme si il s'agissait de mettre du même coup en question le genre humain. L'intelligence des machines est ce que savent faire les machines, l'intelligence humaine est notre capacité à traiter les problèmes qui nous concernent, liés à notre condition. Les machines peuvent nous aider à concevoir des scénarios de réforme des retraites, mais pas à traiter les questions de fin de vie, parce que c'est de notre vie et de notre mort à nous qu'il s'agit, et ce n'est pas numérisable.
« Mal nommer un objet, c'est ajouter au malheur de ce monde. » écrivait Camus. Renommer l'IA intelligence machine (IM) prendrait acte de ce que nous dit la science au fur et à mesure qu'elle progresse, et qui laisse à penser que les lois de l'information sont universelles, comme les lois de la physique, et que l'intelligence, en tant qu'organisation pour résoudre les problèmes, s'exprime partout, selon les mêmes lois de base, sur terre comme ailleurs, que le support soit organique ou minéral, l'échelle corpusculaire ou cosmique, l'enveloppe compacte ou disséminée. Rien d'étonnant alors que l'évolution ait inventé le neurone muni de la loi de Hebb, il s'agit d'un séparateur linéaire, que l'on peut voir comme une sorte de particule élémentaire de l'apprentissage. Le cortex apparaît alors comme une solution économe – sinon optimale – en espace et en temps (donc en énergie) pour traiter utilement pour une espèce les informations fournies par les sens et les interactions des individus avec leurs semblables et leur environnement. Que les techniques dérivées du deep learning réalisent des prouesses n'a dès lors plus rien de troublant. Pas plus qu'un avion qui vole. Dans les deux cas, nous avons utilisé les lois de la nature pour les construire. Et si un réseau de neurones formels ressemble à un morceau de cortex comme un avion à un oiseau, c'est parce que la nature avait déjà trouvé avant nous de bonnes solutions.
Les modèles que nous construisons et expérimentons sont toujours réductionnistes, le filtre de nos sens et de notre condition d'humains ampute nécessairement notre perception de la réalité. Ces modèles n'en sont pas moins féconds, et toujours perfectibles. La numérisation de l'information est de cet ordre. Boltzmann fut un des premiers à lier information et matière à travers sa célèbre formule S = k log W avec S l'entropie d'un gaz, log W la longueur de la description d'un état de ce gaz et k la constante de Boltzmann. Et dans une vision algorithmique de l'information, un principe ancestral comme le rasoir d'Ockham, pilier de la démarche scientifique, devient un théorème : les explications les plus courtes sont les plus probables (1).
Si à l'instar de la révolution de Nuremberg, la révolution de Dartmouth peut aussi conduire à une renaissance de l'humanité, un nouveau siècle des Lumières comme le prédit Le Cun, on ne peut encore que tenter d'en esquisser des pistes.
Escomptons d'abord qu'une approche critique de l'intelligence, plaçant les débats sur l'IM sur un plan scientifique solide, apaisera les fantasmes et les peurs trans- ou post-humanistes d'un « grand remplacement » de l'humain par des cyborgs ou des robots. La nécessaire régulation de l'IM n'apparaîtra plus comme le domptage d'un monstre mystérieux mais comme une mise en sécurité de l'humain au même titre que les barrières de chantier nous protègent des dangers des engins.
Plus généralement, le rationalisme gagnera en humilité, l'intelligence qui le guide n'étant plus en surplomb mais maintenant au sein de la nature et en interaction d'égal à égal avec elle. Les complotistes ne suspecteront plus les sachants et la science d'être au service d'on ne sait quel « état profond ». La science n'en contribuera que mieux au débat public.
Notre représentation de la société changera de paradigme. Les interactions primeront sur les hiérarchies, le nuage remplacera la norme.
La raison des Lumières pense et organise de façon arborescente, selon un petit nombre de paramètres. L'Encyclopédie de Diderot d'Alembert a été conçue ainsi, et Auguste Comte a théorisé la démarche [3].
. Les sociétés, les administrations, les entreprises sont hiérarchiques. Les normes sociales et morales, aujourd'hui contestées, ont enfermé les individus dans des classes et des sous-classes. Les données et l'IM, en manipulant des milliards de paramètres, fournissent des outils pour penser en termes de nuances et de diversité, pour penser en termes d'interactions multiples entre les humains, les choses, le vivant et la nature. Et évoluer ainsi vers un humanisme intégral, écologique et plus fraternel.
Max Dauchet
Professeur émérite, université de Lille
Références
(1) Ray Solomonoff. An Introduction to Kolmogorov Complexity and its Applications. Dans Information, complexité et hasard , J.-P. Delahaye, Hermès, 1999.
(2) Leslie Valiant. Probablement approximativement correct : les algorithmes de la nature pour apprendre à vivre et prospérer dans un monde complexe. Éd. Cassini, 2018.
Paru dans 1024 - Bulletin de la SIF, numéro 22, novembre 2023, p. 55-58.
https://1024.societe-informatique-de-france.fr/1024/2023/11/1024_22_2023_55.html
Cet article est sous licence Creative Commons Attribution 4.0 International.
https://creativecommons.org/licenses/by/4.0/deed.fr
NOTES
[1] Des révolutions des orbes célestes ou des sphères célestes.
[2] Les contes pour enfants illustrent bien où nous plaçons notre ego de Sapiens : c'est toujours le petit futé qui triomphe du grand costaud.
[3] « Classer tous les phénomènes observables en un petit nombre de catégories naturelles disposées de manière telle que chaque catégorie soit fondée sur la connaissance des lois principales de la catégorie précédente, et devienne le fondement de l'étude de la suivante ».
|