Pourquoi l’IA n’est pas, et de loin, aussi intelligente qu’elle en a l’air

Par Jonathan Tennenbaum
Paru sur Asia Times sous le titre Why AI isn’t nearly as smart as it looks


L’intelligence artificielle promet de libérer l’humanité de ses corvées et de déclencher une révolution de la productivité, mais nous en sommes encore loin.

L‘intention de cet article n’est pas d’attaquer l’intelligence artificielle en tant que technologie.

Outre les dangers inhérents à tout développement révolutionnaire, l’IA présente un ensemble d’avantages vaste et croissant, déclenchant des cascades de progrès dans les domaines les plus variés de la science et de la technologie, libérant les gens de corvées assommantes, rendant la vie plus commode et l’économie plus productive.

Cela étant, l’IA a encore un long chemin à parcourir. Compte tenu de l’ampleur colossale et sans précédent des efforts et de la créativité investis dans le développement des systèmes d’IA, et intégrés dans ses bases de données, il n’est pas certain que l’IA ait produit plus d’intelligence que les humains n’en ont mis dedans.

L’intelligence artificielle présente un aspect problématique, que j’évoquerai sous l’appellation générale de « stupidité ». Ici, j’entends le terme « stupidité » dans un sens analytique et non péjoratif. Chez l’homme au moins, la stupidité et l’intelligence – même la plus brillante – ne s’excluent pas mutuellement. Elles coexistent souvent, comme l’expérience nous l’enseigne.

Dans cet article et les suivants, j’ai l’intention d’aborder le problème de la stupidité de l’IA dans trois dimensions interdépendantes :

A. Les faiblesses inhérentes aux systèmes informatiques conçus selon les principes de l’intelligence artificielle tels qu’ils sont actuellement compris, qui les rendent stupides dans un sens un peu analogue à la stupidité des êtres humains. La stupidité des systèmes d’IA est à l’origine de la plupart des problèmes et risques bien connus liés à leur utilisation dans des situations réelles.

B. La stupidité des pionniers de l’IA et de la plupart de leurs successeurs – en dépit de leur génie intellectuel – a été de penser que la cognition humaine est fondamentalement de nature algorithmique ; ou qu’elle est en fin de compte fondée sur des processus de type algorithmique. Il était également stupide d’adopter des dispositifs informatiques numériques comme paradigme principal pour comprendre l’esprit humain et le cerveau en tant qu’organe biologique.

Ces hypothèses gratuites, sans fondement scientifique, ont dynamisé certains des premiers travaux sur les systèmes d’IA ; mais à mon avis, aujourd’hui, elles entravent considérablement leur développement. En conséquence, non seulement l’IA en tant que telle, mais aussi une grande partie de ce que l’on appelle aujourd’hui la « science cognitive », est devenue prisonnière du monde minuscule et plat de la Combinatoire et des modèles mathématiques formels.

L’expression chinoise 井底之蛙 (jǐngdǐzhīwā) – la grenouille au fond du puits – convient parfaitement !

C. La stupidité induite chez les êtres humains par leurs interactions avec les systèmes d’IA et par l’impact de la soi-disant « révolution cognitive » et de ses précurseurs philosophiques sur le langage, l’éducation, la science et la culture en général.

Le danger n’est pas que les systèmes d’IA deviennent plus intelligents que les êtres humains. Au contraire, les gens peuvent devenir stupides au point de ne plus faire la différence. Ici, la même règle s’applique aux formes de cognition spécifiquement humaines qu’à exercice de nos muscles : « Utilisez-les ou perdez-les » !

Qu’est-ce que la stupidité ?

Il est difficile de définir le sens du terme « stupidité » d’une manière qui corresponde aux critères universitaires actuels. Néanmoins, le phénomène de la stupidité a été au centre de l’attention de la culture humaine depuis les temps les plus reculés, comme en témoignent les anciennes traditions orales, les enseignements des anciens et des sages, ainsi que d’innombrables fables, histoires et anecdotes.

Dès les temps les plus anciens, l’humour métaphorique et l’ironie ont été cultivés comme contrepoids à la stupidité. On peut à juste titre supposer que la race humaine n’aurait pas survécu sans eux. Bien que la « base de données » se soit considérablement développée au cours de l’histoire, il est douteux que les gens d’aujourd’hui aient une meilleure compréhension de la nature de la stupidité qu’il y a 3000 ans.

Cela étant, la littérature des dernières décennies sur le problème de la stupidité contient des caractérisations utiles, que j’utilise ici.

Problème typique : une entreprise a des employés très intelligents et compétents et une direction apparemment excellente. Après quelques succès initiaux, elle échoue et fait faillite, en raison d’erreurs persistantes, de mauvais jugements et de performances médiocres. Que se passe-t-il ?

L’étude de ces cas a conduit les universitaires et les consultants en gestion au concept de « stupidité fonctionnelle ». (Voir par exemple Le paradoxe de la stupidité – La puissance et les pièges de la stupidité fonctionnelle à l’œuvre par Mats Alvesson et André Spicer).
Bien que la « stupidité fonctionnelle » se réfère généralement à un contexte institutionnel, elle éclaire tout le spectre de la stupidité, de celle des individus à celle des sociétés entières.

Les points suivants constituent ma tentative de saisir l’essence de la stupidité en quatre points. Ils ne s’appliquent pas exactement de la même manière à chacune des dimensions A, B et C identifiées ci-dessus, mais les analogies devraient devenir claires au fur et à mesure de ma progression :

1. L’adhésion obtuse aux procédures, habitudes, modes de pensée et de comportement existants, combinée à une incapacité à reconnaître des signes clairs indiquant que ceux-ci sont inappropriés, voire désastreux dans le cas concret donné. Une adhésion rigide à l’expérience passée et un apprentissage par cœur face à des situations qui exigent une réflexion neuve. On pourrait parler de comportement aveuglément « algorithmique » au sens large.

2. l’Incapacité à « penser hors des sentiers battus », de considérer la situation dans son ensemble, de sortir mentalement du processus dans lequel on est engagé et de se poser des questions de plus grande envergure telles que « Qu’est-ce que je suis réellement en train de faire ? » et « Est-ce que ceci a un sens ? » et « Que se passe-t-il réellement ici ? »

3. La tendance à surestimer fortement l’efficacité des stratégies et des méthodes adoptées pour faire face à un nouveau problème (par exemple l’effet Dunning-Kruger chez l’homme, qui se rencontre généralement dans l’IA utilisant des méthodes statistiques d’optimisation).

4. Le manque de capacité à saisir le sens et la signification d’affirmations, de situations et d’événements – un déficit généralement évoqué chez les humains par des expressions telles que « Cette personne est trop stupide pour comprendre… »

La stupidité dans les systèmes d’IA

Il n’est pas surprenant qu’avec la propagation de l’IA à pratiquement tous les secteurs de la société et de l’économie, et la dépendance croissante à l’égard des systèmes d’IA, l’inquiétude s’est accrue quant aux conséquences de ses défaillances.

Au-delà des simples erreurs (telles que la fausse identification d’objets), les dysfonctionnements des systèmes d’IA peuvent entraîner des conséquences indésirables et néfastes dans des domaines où ils sont censés se substituer au jugement humain.
Il s’agit notamment de choisir entre différentes actions – par exemple, conduire une voiture dans une situation d’accident potentiel ou répondre rapidement à des menaces militaires – ainsi que dans des tâches telles que le traitement des demandes d’emploi et la conception de traitements médicaux.

Il ne s’agit pas ici de savoir si les systèmes d’IA sont plus ou moins performants que les humains dans un cas donné. Il s’agit plutôt de la stupidité en tant que problème systémique, englobant à la fois la dimension humaine et celle des systèmes d’IA.
Ces deux aspects sont souvent liés et il est intéressant de voir, avec les implications juridiques que cela implique, comment la responsabilité des conséquences des défaillances de l’IA doit être partagée entre les concepteurs, les fournisseurs de bases de données et les gestionnaires et utilisateurs du système.

Les systèmes d’IA peuvent être défaillants de nombreuses manières. (Voir Classification Schemas for Artificial Intelligence Failures par P J Scott et R V Yampolski). Peu d’analystes ont cherché de manière rigoureuse à identifier un dénominateur commun.

Mais je suis sûr que nombre de ceux qui ont travaillé assez longtemps avec les systèmes d’IA – notamment ceux qui, souvent avec beaucoup de perspicacité et d’ingéniosité, ont cherché à remédier aux défaillances des systèmes de l’IA et à améliorer ses performances – pourront établir des analogies avec les comportements stupides des êtres humains.

Ils ont dû investir de grandes quantités d’intelligence humaine supplémentaire dans les systèmes d’IA pour les rendre moins stupides.

(Deuxième partie)

(Troisième partie)

(Quatrième partie)

Jonathan Tennenbaum a obtenu son doctorat en mathématiques à l’université de Californie en 1973 à l’âge de 22 ans. Également physicien, linguiste et pianiste, il est un ancien rédacteur en chef du magazine FUSION. Il vit à Berlin et voyage fréquemment en Asie et ailleurs, où il est consultant en économie, sciences et technologie.

Traduction Entelekheia
Hoto : Hal, l’IA meurtrière du fim 2001, L’odyssée de l’espace / Wikimedia

1 réponse

  1. 5 juillet 2020

    […] Pourquoi l’IA n’est pas, et de loin, aussi intelligente qu’elle en a l’air […]

Ajouter un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

%d blogueurs aiment cette page :