La stupidité de l’intelligence artificielle

Ceci est le quatrième volet d’une série. Voir la première partie, la deuxième partie et la troisième partie.

Par Jonathan Tennenbaum
Paru sur Asia Times sous le titre The stupidity of Artificial Intelligence


Heureusement, votre cerveau n’est pas un ordinateur

La poursuite de notre analyse des faiblesses de l’intelligence artificielle actuelle – ce que j’ai appelé le « problème de la stupidité » – nous amène dans le domaine fascinant de la neurobiologie, qui a connu ces derniers temps une série de découvertes révolutionnaires. Ces découvertes ont bouleversé les nombreux dogmes sur le fonctionnement du cerveau qui ont façonné le développement précoce de l’IA, tout en suggérant des orientations révolutionnaires pour l’IA à l’avenir.

L’IA, le cerveau et l’esprit

Comment fonctionne le cerveau humain ? Il va sans dire que les tentatives de réponse à cette question ont façonné le développement de l’intelligence artificielle depuis ses débuts dans les années 1940 et 1950 jusqu’à aujourd’hui. Il en va de même pour une question quelque peu différente : comment fonctionne l’esprit humain ?

L’espoir initial selon lequel on pourrait effectivement construire des machines dotées d’une intelligence semblable à celle de l’homme, a trouvé des encouragements dans trois directions principales.

D’abord, la preuve que le fonctionnement du cerveau et du système nerveux humains, bien qu’affreusement compliqué d’un point de vue biologique, est fondé sur des processus élémentaires de type « tout (1) ou rien (0) », comme ceux qui peuvent être facilement imités par des circuits électroniques numériques (voir ci-dessous).

Diagramme d’un pic de tension unique (potentiel d’action) généré par un neurone. Illustration: Wiki Commons

Ensuite, le développement d’une logique symbolique et de langages formels capables d’exprimer de nombreux aspects des mathématiques supérieures, ce qui suggère que tout raisonnement humain pourrait être réduit en fin de compte à l’équivalent d’une manipulation de chaînes de symboles selon des ensembles de règles. Des opérations formelles de ce type peuvent également être facilement imitées par un ordinateur numérique.

Enfin, la perspective de construire des appareils de calcul électronique toujours plus rapides. À cet égard, les progrès réalisés depuis les années 1950 n’ont pas été décevants : la densité des éléments de commutation des puces électroniques actuelles dépasse celle des neurones du cerveau.

Notez que le premier point concerne le cerveau, tandis que le second concerne l’esprit. Ils correspondent aux deux grandes orientations que l’IA a eu tendance à suivre dans sa deuxième période : les réseaux neuronaux artificiels et le « machine learning » d’une part, et l’intelligence artificielle dite symbolique d’autre part.

Symboles issus du calcul logique inventé par Gustav Frege (Begriffschrift 1879) et équivalents utilisés aujourd’hui en logique mathématique (à droite).

La première ne s’intéresse pas beaucoup aux aspects structurels de la pensée, qui sont censés « émerger » d’une manière ou d’une autre du processus de formation du système. En revanche, l’intelligence artificielle symbolique s’oriente vers la structure supposée de la pensée et du langage humains. Dans ce dernier cas, il n’est pas nécessaire d’essayer d’imiter le cerveau en tant qu’organe. On peut en principe utiliser n’importe quel type de matériel.

La tendance actuelle de l’IA est aux systèmes hybrides qui combinent les deux approches, tout en conservant les ordinateurs numériques comme base technologique pour la réalisation des systèmes d’IA. Les systèmes d’IA restent sans exception mathématiquement équivalents aux machines de Turing et peuvent donc être classés comme stupides (voir partie 2).

Le mauvais paradigme

Malgré leur succès – et même leur caractère indispensable dans de nombreux domaines pratiques aujourd’hui – les approches dominantes de l’intelligence artificielle restent ancrées dans des conceptions erronées sur la nature de l’esprit et du cerveau en tant qu’organe biologique.

Malheureusement, les modèles simplistes du cerveau et de l’esprit, qui étaient le point de départ initial de l’IA, sont devenus depuis le paradigme de presque tout ce que l’on appelle aujourd’hui science cognitive, ainsi que d’une grande partie de la neurobiologie. Il est devenu habituel d’imposer des méthodes, des concepts, des modèles et du vocabulaire issus des domaines de l’intelligence artificielle, de l’informatique et de la théorie de l’information, à l’étude du cerveau et de l’esprit. Il est difficile de trouver un document scientifique sur ces sujets qui ne soit pas rempli de termes comme « informatique », « traitement », « circuits », « stockage et récupération d’informations », « codage », « décodage », etc.

Ces termes sont-ils appropriés pour décrire ce que le cerveau et l’esprit humains font réellement ?

En science, nous devrions toujours essayer d’adapter nos concepts et nos méthodes aussi étroitement que possible à la nature des objets étudiés ; et à tout le moins de ne pas ignorer leurs caractéristiques les plus essentielles.

On pourrait objecter à cela : comment pouvons-nous jamais savoir quelle est la « vraie nature » ou les « caractéristiques les plus essentielles » d’un objet ?

Il est certain que nous ne pouvons jamais en être sûrs, d’une manière absolue. Néanmoins, j’affirme que l’esprit humain est en fait capable de comprendre les natures des choses. Ou du moins de reconnaître – même avec du retard – qu’un modèle conceptuel donné peut être totalement divorcé de la réalité qu’il est censé représenter.

C’est précisément ce type de compréhension qui est faible ou inexistante dans le phénomène de la stupidité. Très souvent, dans le domaine scientifique et ailleurs, les personnes qui adoptent une approche totalement inappropriée ne sont pas dissuadées par l’accumulation des preuves qui les infirment. Au lieu de cela, elles modifient simplement leurs théories et leurs explications pour tenir compte des critiques ou des preuves du contraire de ce qu’elles affirment. Leurs théories deviennent de plus en plus compliquées, tandis que leurs hypothèses de base restent inchangées.

Cellules vivantes contre puces électroniques mortes

Un circuit intégré (à gauche) et des neurones vivants dans le cerveau d’un rat. Photos : Wikimedia

En ce qui concerne la biologie et de la physique, le cerveau n’a pratiquement rien de commun avec les systèmes de traitement numérique. Pourquoi sont-ils si souvent traités comme analogues ? Pourquoi les concepts de l’informatique sont-ils si souvent utilisés dans la recherche sur le cerveau ?

L’idée selon laquelle les neurones du cerveau peuvent fonctionner comme des éléments numériques, et le cerveau comme un ordinateur numérique, remonte à la découverte du principe dit du « tout ou rien » du fonctionnement des nerfs à la fin du XIXe siècle. Les neurones génèrent des « pointes » d’électricité discrètes, séparées par des périodes d'(apparente) inactivité électrique. La « mise à feu » d’un neurone correspondrait à un « 1 » par opposition à l’état de repos (« pas d’impulsion », ou 0). L’impulsion se propage le long des axones du neurone, qui se ramifient jusqu’à dix mille autres neurones. Aux points de contact, les synapses, la pointe de tension provoque la libération de substances dites neurotransmettrices, qui à leur tour communiquent le signal aux neurones cibles. Dans l’état « 0 », rien n’est censément communiqué. Aujourd’hui, même les écoliers apprennent cette image.

Pics rythmiques générés par un neurone de Purkinje du cortex cérébelleux en réponse à une seule impulsion de courant continu, tels qu’enregistrés par des microélectrodes placés dans différentes positions sur les dendrites et le corps de la cellule.

La question clé est de savoir comment les neurones réagissent aux signaux entrants. En langage technique : quelle est leur relation « entrée-sortie » ? On a supposé que cette relation pouvait être représentée par une fonction mathématique, permettant ainsi de simuler le comportement d’un réseau de neurones interconnectés par des ordinateurs de façon strictement algorithmique.

À partir des travaux précurseurs de McCulloch et Pitts (1943), d’innombrables modèles mathématiques de ce type ont été développés, dont certains constituent la base des systèmes de deep learning de l’IA. Une étape importante a consisté à tenir compte du fait que les caractéristiques des synapses des neurones réels changent au cours de leur interaction. À cette fin, les synapses des réseaux neuronaux artificiels se voient attribuer des poids numériques variables, dont les valeurs sont déterminées au cours d’un processus d’ « apprentissage » (voir la deuxième partie). Ce processus se déroule généralement selon un algorithme basé sur la règle dite de Hebb, proposée pour la première fois en 1949 par le neuropsychologue Donald Hebb.

L’effort d’imitation de la structure présumée du cerveau de cette manière s’est avéré extrêmement utile pour l’IA. Mais qu’en est-il du vrai cerveau humain ?

Modèle mathématique d’un neurone (à gauche). Modèle d’un réseau de neurones (centre). Un réseau de neurones réels (à droite).

Il est remarquable que dans leurs écrits sur le cerveau humain, les pionniers de l’intelligence artificielle tels que John von Neumann, Alan Turing, Marvin Minsky, John McCarthy et d’autres aient tous échoué à reconnaître les implications du fait que les neurones du cerveau sont des cellules vivantes.

Il serait très étrange que ce fait ne soit pas important pour la compréhension des phénomènes de la cognition humaine !

Je ne veux pas parler de choses mystérieuses ou ésotériques, mais simplement des caractéristiques essentielles des processus vivants, car elles devraient être bien connues tout le monde.

Par exemple, il serait insensé de supposer que des neurones vivants se comporteraient de la manière rigidement déterministe suggérée par une comparaison avec des éléments d’un ordinateur ou d’une autre machine. Des cellules vivantes ne se soumettraient jamais à des procédures algorithmiques strictes, à moins d’y être artificiellement contraintes. N’est-il pas probable que les propriétés des neurones en tant qu’individus vivants – par opposition aux éléments de circuits morts – soient essentielles à la cognition humaine?

Comme toutes les autres cellules du corps, les neurones méritent d’être considérés comme des organismes individuels à part entière. Il est bien établi que les organismes unicellulaires présentent, sous forme embryonnaire, une grande partie du comportement intelligent que l’on trouve chez les animaux multicellulaires : comportement spontané de type intentionnel et ludique ; perception et reconnaissance, et certaines formes d’apprentissage. Comme tout autre organisme multicellulaire, le corps humain existe en tant que société composée d’individus vivants. La pensée correspond à un processus social qui se déroule entre les cellules du cerveau. Peu ou rien ne reste fixe, et peu ou rien n’obéit à des règles de type mathématique rigide.

Les dogmes mordent la poussière

Dans ce contexte, les découvertes en neurobiologie ont bouleversé, un à un, presque tous les dogmes mécanistes qui prévalaient à l’époque de la naissance de l’IA. En voici quelques-uns :

Dogme 1. Le cerveau humain est « câblé » : à partir d’un certain âge, les « circuits » formés par les neurones et leurs interconnexions restent fixes.

Non. Aujourd’hui, il est bien connu que dans le cerveau adulte, de nouvelles connexions sont constamment formées (synaptogénèse) et supprimées (« élaguées »). La neuroplasticité, qui comprend non seulement la synaptogénèse mais aussi les changements constants de la morphologie des synapses existantes et des arbres dendritiques auxquels elles sont attachées, joue un rôle central dans l’apprentissage et les autres processus cognitifs.

Dogme 2 : Dans le cerveau adulte, les neurones peuvent mourir, mais aucun nouveau neurone ne naît.

Non. Dans l’hippocampe en particulier – une région corticale identifiée comme essentielle à l’apprentissage et à la mémoire ainsi qu’aux processus émotionnels – de nouveaux neurones naissent constamment (neurogenèse). Ces nouveaux neurones se déplacent, migrent à travers les tissus avant de s’installer dans un endroit approprié et de former des connexions avec d’autres neurones. La neurogenèse semble nécessaire au bon fonctionnement de cette partie du cerveau.

Dogme 3. Les neurones communiquent de manière strictement « tout ou rien », par la génération et la propagation de pointes de tension discrètes.

Non. Les neurones possèdent ce qu’on appelle des « oscillations sous le seuil ». Il s’agit d’oscillations complexes du potentiel électrique de leurs membranes, qui sont trop faibles pour déclencher des pics, mais qui modifient le comportement des pics du neurone et peuvent être communiquées à d’autres neurones, sans pics. Entre autres choses, les oscillations inférieures sous le seuil semblent jouer un rôle important dans la synchronisation de l’activité des neurones. Cette découverte a des implications révolutionnaires. La variabilité continue de ces oscillations, et leur propagation d’un neurone à l’autre, contredit la notion selon laquelle le cerveau fonctionne comme un système numérique.

Dogme 4. Toute communication entre neurones se fait par le biais du réseau d’axones et de synapses.

Non. Il est maintenant bien établi que les neurones communiquent également par la libération de molécules spécialisées dans l’espace extracellulaire, et leur action sur les récepteurs dits extrasynaptiques portés par d’autres neurones. Cette « transmission en volume » constitue un second système de communication, à côté de la « transmission câblée » par les axones et les synapses.

Dogme 5. L’activité cérébrale qui sous-tend la cognition est entièrement basée sur les interactions entre les neurones.

Non. Il a été établi qu’en plus des neurones, les cellules gliales (astrocytes) du cerveau jouent un rôle actif dans la perception, la mémoire, l’apprentissage et le contrôle de l’activité consciente. Les cellules gliales sont plus nombreuses d’environ 3:2 que les neurones dans le cerveau. Cette découverte du rôle des cellules gliales dans la cognition marque une révolution dans les neurosciences. L’ensemble de ces cellules est parfois appelé « second cerveau », bien que les cellules gliales soient si intimement liées aux neurones sur le plan métabolique et électrique qu’il soit difficile de les séparer.

Pour sa documentation, le lecteur peut consulter les sources suivantes (en anglais) :

1. The Impact of Studying Brain Plasticity

2. What Do New Neurons in the Brains of Adults Actually Do?, Ashley Yeager, The Scientist, May 1, 2020

3. Generation and Propagation of Subthreshold Waves in a Network of Inferior Olivary Neurons

4.Extracellular-vesicle type of volume transmission and tunnelling-nanotube type of wiring transmission add a new dimension to brain neuro-glial networks and Extrasynaptic exocytosis and its mechanisms: a source of molecules mediating volume transmission in the nervous system
(Ces deux dernières sont des publications plutôt techniques, mais donnent une bonne impression de la complexité presque inimaginable des interactions de cellule à cellule qui sous-tendent l’activité cérébrale).

5. “The Other Brain” by R. Douglas Fields  (Simon and Schuster 2009), and Astrocytes and human cognition: Modeling information integration and modulation of neuronal activity

Jonathan Tennenbaum a obtenu son doctorat en mathématiques à l’université de Californie en 1973 à l’âge de 22 ans. Également physicien, linguiste et pianiste, il est un ancien rédacteur en chef du magazine FUSION. Il vit à Berlin et voyage fréquemment en Asie et ailleurs, où il est consultant en économie, sciences et technologie.

Traduction Entelekheia
Illustration Gerd Altmann / Pixabay

Ajouter un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

%d blogueurs aiment cette page :