L’avenir de l’IA se situe dans son passé réellement humain

Par Jonathan Tennenbaum
Paru sur Asia Times sous le titre AI’s future lies in its truly human past


Ceci est le troisième volet d’une série. Voir la première partie et la deuxième partie.

Beaucoup voient l’avenir de l’IA dans la reprise d’une ancienne approche logique « symbolique » qui visait à correspondre à l’intelligence humaine

Après une période d’euphorie, les critiques de l’approche de l’intelligence artificielle centrée sur le deep learning se sont multipliées. Nous semblons entrer dans un nouvel épisode des cycles maniaco-dépressifs qui ont affecté l’IA depuis le tout début, en corrélation avec les flux et reflux des financements des agences gouvernementales et des investisseurs.

Beaucoup voient aujourd’hui l’avenir de l’intelligence artificielle dans une renaissance de l’IA dite symbolique – l’approche initiale de l’IA qui visait à atteindre un niveau d’intelligence réellement « humain » en utilisant des méthodes de logique symbolique (mathématique).

L’idée initiale est de programmer le système avec un ensemble d’axiomes (règles), un ensemble de prédicats (symboles représentant des objets, des relations, des attributs, des champs, des propriétés, des fonctions et des concepts) et des règles d’inférence, afin que le système puisse effectuer un raisonnement logique analogue à celui des humains.

Les premières tentatives pour développer l’IA dans cette direction ont été laborieuses et ont obtenu des résultats utiles principalement dans le domaine des systèmes dits experts. En 1983, le pionnier de l’IA, John McCarthy, a noté que les performances des systèmes experts dans leurs domaines de spécialisation sont souvent impressionnantes.

Néanmoins, pratiquement aucun d’entre eux n’a les capacités et les connaissances fondée sur le bon sens que possède tout être humain normalement constitué. Ce manque les rend « fragiles ». Les faits et méthodes du bon sens humain ne sont que très partiellement compris aujourd’hui, et la transcription de cette compréhension à l’IA est le principal problème auquel elle est confrontée.

La tentative de loin la plus ambitieuse pour résoudre ce problème est le projet « Cyc » lancé par le spécialiste de l’IA Douglas Bruce Lenat vers 1984. Progressivement, Lenat et son équipe ont construit un gigantesque système d’IA, qui en 2017 comptait 1 500 000 termes (416 000 catégories d’objets, plus d’un million d’objets individuels), 42 500 prédicats (relations, attributs, champs, propriétés, fonctions), 2 093 000 faits et 24 millions de règles et d’affirmations de bon sens.

Nombre de ces règles ont été rédigées individuellement par des membres du groupe de Lenat, ce qui a nécessité le travail de plus de 1 000 hommes sur des années.

Le cœur du Cyc est un « moteur de déduction » qui tire des conclusions d’affirmations construites à partir des termes et prédicats, en accord avec les règles. À cette fin, le Cyc utilise des outils de logique mathématique tels que le calcul de prédicats du second ordre, la logique modale et la logique contextuelle.

Tout cela est très impressionnant. En laissant de côté la question de la performance du Cyc dans la pratique, que je ne suis pas en mesure de juger, quelques questions importantes se posent :

La structure de Cyc correspond-elle à la façon dont le bon sens est acquis et utilisé par les êtres humains? Ou s’agit-il plutôt d’une forme très sophistiquée d’ajustement des courbes, comme si l’on essayait d’opérer la quadrature du cercle ?

Dans l’effort d’approximation d’un cercle par des polygones, nous sommes obligés de continuer à ajouter de plus en plus de côtés. Mais les côtés du polygone sont toujours des segments de ligne droite ; nous n’obtenons jamais rien de courbe. Les polygones stupides ont de plus en plus de coins, alors que le cercle n’en a aucun. À cet égard, ils deviennent de plus en plus différents du cercle.

Par analogie, la complexité et le volume des bases de données des systèmes d’IA pourraient croître indéfiniment dans le futur, sans jamais arriver à la Terre Promise de « l’intelligence de type humain ». Cela n’empêcherait cependant pas l’IA de devenir un instrument précieux pour les êtres humains, à condition qu’ils restent suffisamment intelligents pour l’utiliser correctement.

La stupidité des pionniers de l’IA

Dans la suite de cette série, j’ai l’intention d’aborder, de manière assez détaillée, la deuxième dimension du problème de la stupidité de l’IA, qui remonte aux pionniers de l’IA et qui imprègne encore le domaine aujourd’hui.

Voici quelques indices pour aiguiser l’appétit du lecteur et compléter certains points évoqués auparavant dans cette série.

Comme je l’ai souligné au début, je ne veux pas insinuer que les pionniers de l’IA étaient des gens stupides. Ce serait idiot. Von Neumann et Alan Turing, par exemple, étaient des personnes exceptionnellement brillantes, ainsi que beaucoup d’autres dans le domaine jusqu’à nos jours.

Je pense plutôt à la stupidité d’affirmer ou de croire que la cognition humaine est essentiellement de nature algorithmique, et/ou qu’elle est basée sur des processus neuronaux élémentaires de type numérique, dont les résultats pourraient être reproduits exactement par un ordinateur suffisamment grand. En résumé, que le cerveau est la version biologique d’un ordinateur numérique.

Pourquoi était-il stupide de faire ce genre d’affirmation ? Pourquoi est-il stupide de continuer à la faire aujourd’hui ?

Dans les prochains épisodes, je me concentrerai sur deux raisons principales.

La neurobiologie :

Les vrais neurones vivants se comportent de manière complètement différente des éléments de commutation qui composent un ordinateur numérique. Entre beaucoup, beaucoup d’autres choses, les neurones vivants – comme toutes les autres cellules vivantes – ont leur propre activité spontanée. Comme les oiseaux qui chantent dans les arbres, les neurones émettent souvent des impulsions et des salves rythmiques d’impulsions en l’absence de tout signal des neurones qui leur sont connectés.

Les réseaux réels de neurones dans le cerveau des humains et des animaux n’ont rien du comportement rigoureusement algorithmique qu’impliquaient les premiers modèles mathématiques des réseaux de neurones. Ils ne se comportent pas non plus comme les réseaux neuronaux artificiels sur lesquels sont basés les systèmes d’IA de « deep learning » actuels.

En poursuivant cette série, je présenterai les découvertes fascinantes de la neurobiologie au cours des dernières décennies, des découvertes qui démolissent ce qui reste du concept du cerveau en tant qu’ « ordinateur biologique ».

Les données modernes n’étaient bien sûr pas disponibles pour les pionniers de l’IA comme John von Neumann et Alan Turing, ni pour McCullock et Pitts – auteurs des premiers modèles mathématiques de réseaux de neurones. Les bases conceptuelles de l’IA ont été jetées dans les années 1940 et 1950.

Mais les preuves du comportement spontané des neurones, de leurs pulsations, de l’apparent codage de fréquence dans le contrôle neuromoteur, de l’existence de formes chimiques de communication au sein du système nerveux, de la présence d’oscillations des membranes, etc. étaient nombreuses.

Aussi intéressant et fructueux ait-il été pour le développement précoce de l’IA, d’un point de vue biologique, le modèle du réseau neuronal était dès le départ un non-sens. Néanmoins, les pionniers de l’IA se sont enferrés dans la notion stupide (S 1 ; voir le premier volet pour la liste des quatre formes de stupidité, soit S 1, S 2, S 3 et S 4) selon laquelle le cerveau est essentiellement un système informatique numérique.

En croyant qu’ils allaient résoudre les mystères du cerveau et de l’esprit, ils ont grossièrement surestimé la puissance de leurs propres méthodes mathématiques et modes de pensée (S 3) – des méthodes qui, il est vrai, avaient réussi à construire la première bombe atomique, des machines électroniques de calcul et de décryptage, des radars, des systèmes de guidage automatique, etc, pendant la Seconde Guerre mondiale et l’immédiat après-guerre.

La nature du sens

Les significations de concepts essentiels, telles qu’elles se manifestent réellement dans l’activité cognitive humaine, ne peuvent être définies ou représentées de manière adéquate en termes formels et combinatoires. Elles ne peuvent pas être stockées dans une base informatique ou intégrées dans une architecture logicielle.

Les pionniers de l’intelligence artificielle auraient dû reconnaître ce fait, même sans les résultats de Kurt Gödel en logique mathématique des années 1930, que von Neumann, Turing et d’autres connaissaient bien. Mais les arguments de Gödel ne laissent aucun doute raisonnable quant à l’inépuisabilité du sens, même pour des concepts mathématiques censément simples comme celui d’un « ensemble fini » ou de la « vérité » telle qu’elle s’applique aux propositions des mathématiques.

À en juger par leurs écrits, on a l’impression que les pionniers de l’IA n’ont pas compris (S 4) la signification des travaux de Gödel.

Il n’est cependant pas nécessaire d’étudier la logique mathématique pour reconnaître que le « sens » se situe en dehors de l’univers des relations combinatoires. Personne n’a besoin d’être une « grenouille au fond du puits » [parabole du philosophe taoïste Tchouang-tseu dans laquelle une grenouille au fond d’un puits ne voit que partiellement le ciel. La morale en est que les ignorants n’ont qu’un savoir très limité hors de leur périmètre immédiat, NdT].

Jonathan Tennenbaum a obtenu son doctorat en mathématiques à l’université de Californie en 1973 à l’âge de 22 ans. Également physicien, linguiste et pianiste, il a été rédacteur en chef du magazine FUSION. Il vit à Berlin et voyage fréquemment en Asie et ailleurs, où il est consultant en économie, sciences et technologie.

Traduction Entelekheia
Illustration Gerd Altmann / Pixabay

Ajouter un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

%d blogueurs aiment cette page :