L’intelligence artificielle peut accidentellement détruire l’humanité (et sans s’excuser)

Intelligence, artificielle, menace, psychopathe,

L’intelligence artificielle, quelles perspectives pour l’humain, des super-serviteurs dévoués comme seuls peuvent l’être des robots, ou une épée de Damoclès pour nous tous ? De fait, les trois lois de la robotique* d’Asimov restent de la science-fiction. Et c’est bien là le problème.


Par Lee Camp
Paru sur Truthdig sous le titre Artificial Intelligence May Destroy Humanity by Accident (but It Won’t Apologize)


L‘armée américaine a discrètement déclaré qu’elle voulait 70 camions de ravitaillement automatiques sans chauffeur d’ici 2020. Et comme 21 billions de dollars se sont évaporés au Pentagone au cours des 20 dernières années, il est clair que lorsque le Pentagone veut quelque chose, il l’obtient.

Bien sûr, des camions de ravitaillement, cela n’a pas l’air si menaçant en soi. Même si ces camions sans chauffeurs écrasent de pauvres pékins innocents, ce sera quand même la moindre des destructions que nos militaires aient jamais connue. Mais parce que j’ai lu une ou deux choses sur nos forces armées des USA, je suis sûr que par « camions de ravitaillement », le Pentagone entend « d’impitoyables machines à tuer ». En fait, il est aujourd’hui clair que le « Département de la Défense » n’est qu’un nom de code pour « Département des impitoyables machines à tuer. »

Et même s’il s’agit effectivement de simples camions de ravitaillement, une fois que ces camions sans chauffeurs se déplaceront à travers le Moyen-Orient, dans un remake bâtard de « Miss Daisy et son chauffeur » et « Platoon », combien de temps pensez-vous qu’il faudra pour qu’un connard haut gradé lâche « Et si on mettait un missile ou deux sur ces trucs ? »

La réponse est dix-sept minutes. (Quinze si Trump est toujours président.)

De plus, ces camions ne sont pas la seule entreprise de l’armée dans le domaine de l’intelligence artificielle. La Marine veut 13,5 millions de dollars pour faire progresser rapidement l’IA. Les forces aériennes veulent 87 millions de dollars pour des expérimentations. L’armée de terre a demandé 6,5 millions de dollars de plus. Et le corps des Marines dit qu’il a besoin de 7,1 millions de dollars. (Il ne s’agit là que des chiffres rendus publics. Tout comme un vampire, nos militaires font 95 % de leur meilleur travail dans l’obscurité.)

Cela soulève donc une question urgente qui resurgira encore et encore dans les années à venir : Jusqu’à quel point faut-il craindre l’intelligence artificielle — ou s’agit-il simplement d’un grand progrès technologique ?

Permettez-moi de répondre à cette question en prenant une certaine tangente. Les êtres humains sont notoirement peu fiables. Mais il y a deux choses pour lesquelles on peut toujours compter sur eux :

1. Les humains feront progresser la technologie de toutes les façons possibles.

2. D’autres humains trouveront le moyen de coller des explosifs sur cette technologie.

Pensez-y bien : L’automobile est finalement devenue le tank. L’avion est devenu le bombardier. La presse à imprimer est devenue la presse à imprimer d’assaut semi-automatique. Et ainsi de suite.

Mais peut-être suis-je paranoïaque. Peut-être que l’intelligence artificielle est là pour nous aider. L’un des plus grands génies de l’intelligence artificielle de Google affirme que le monde est actuellement dans une merde noire (changement climatique, pollution, autotune). Pour le sauver, dit-il, « soit nous avons besoin d’une amélioration exponentielle du comportement humain — moins d’égoïsme, moins de court-termisme, plus de collaboration, plus de générosité — soit il nous faut une amélioration exponentielle de la technologie. … Je ne pense pas que nous allions obtenir une amélioration exponentielle du comportement humain. … C’est pourquoi nous avons besoin d’un progrès rapide des technologies comme l’IA. »

En gros, il dit que nous sommes des gens horribles, des gens merdiques qui ne vont pas changer, MAIS les robots vont bientôt arriver pour nous montrer la voie !

Et il y a une part de vérité là-dedans. Un jour, l’intelligence artificielle sera en mesure d’accéder simultanément à l’ensemble de l’Internet et d’apprendre tout ce qui a été appris bien plus rapidement que les troglodytes comme nous. Il sera donc incroyablement intelligent, d’une intelligence inimaginable, et il aura toujours trois coups d’avance sur nous. En plus de cela, il n’aura pas les choses qui entravent notre progrès mental en tant qu’espèce, comme par exemple :

  • La faim
  • La peur
  • L’insécurité
  • La superstition
  • La religion
  • l’envie de mettre son pénis dans tout ce qui bouge

L’intelligence artificielle n’a pas à se préoccuper de tout cela. [Non plus que de surmoi et de tout ce qui va avec, comme l’empathie, l’éthique, la loyauté, la justice, les sentiments, les liens affectifs, etc. Ce qui en fait une parfaite imitation d’humain psychopathe au dernier degré. La suite du texte va d’ailleurs en attester, NdT]

Alors peut-être que l’IA nous sauvera de nous-mêmes. … Ouuuuu bien, peut-être qu’avec ses connaissances infinies, elle décidera que la planète irait mieux sans les créatures simiesques qui essaient systématiquement de lui dicter quoi faire. Elon Musk, le PDG de Tesla, a eu une réponse enthousiaste et optimiste lorsqu’on lui a récemment demandé à quelle vitesse l’intelligence artificielle progresse.

« J’ai essayé de convaincre les gens de ralentir. De ralentir l’IA, de réguler l’IA. C’était peine perdue. J’ai essayé pendant des années. »

(Si par hasard vous avez un comprimé de cyanure sous le coude, c’est le moment de le prendre).

Musk pense que l’intelligence artificielle est une menace bien plus grande pour l’humanité que les armes nucléaires. Gardez à l’esprit que pour que l’IA puisse faire beaucoup de tort à notre stupide espèce, il n’est pas nécessaire qu’elle cherche à nous faire le moindre mal. Elle pourrait simplement trouver des « solutions » auxquelles les humains ne sont pas préparés. Voici un exemple d’une erreur de l’IA tirée de The Atlantic :

« Un algorithme devait trouver comment faire atterrir un avion virtuel avec une force minimale. Mais l’IA a vite découvert que s’il écrasait l’avion au sol, le programme enregistrerait une force si importante qu’elle dépasserait sa mémoire et la compterait comme un score parfait. Alors l’IA a fait s’écraser l’avion, à chaque nouvel essai du test, tuant toutes les personnes virtuelles à bord. »

Ce bot particulier a obtenu un score parfait pour l’atterrissage d’un avion en tuant tous les humains imaginaires. Cela me rappelle un peu la fois où j’ai empêché mon petit frère de me battre dans le jeu vidéo « The Legend of Zelda » en jetant notre télévision dans une rivière.

Alors maintenant, cher lecteur, vous vous dites peut-être : « C’est terrifiant — on a donné un objectif à l’IA et il a simplement TOUT fait pour y arriver ». Mais est-ce si différent des humains ? Dans notre société, on nous donne pour objectif « d’accumuler des richesses et du pouvoir », et à l’arrivée, nous avons des gens comme des entrepreneurs en armement et de grands magnats du pétrole qui atteignent cet objectif en fomentant des guerres et en semant la mort partout dans le monde. Un peu comme s’ils se moquaient de la façon dont ils atteignent leur objectif.

Je ne dis pas que je sais si l’IA nous sauvera tous ou nous tuera tous, mais je dis que c’est le genre de questions qu’il faut se poser, ET VITE, parce que nous n’allons rapidement plus être les créatures les plus intelligentes sur cette planète. (Dans l’état actuel des choses, nous nous accrochons à peine à la première place. Quelque chose comme 50% d’entre nous ne sont que des majordomes de luxe de leurs chiens et chats. Et on ne peut pas vraiment prétendre régner sur le monde quand on porte les crottes d’une autre espèce.)

Lee Camp est un satiriste politique, écrivain, acteur et activiste américain. Il anime l’émission satirique hebdomadaire Redacted Tonight sur RT America. Il a écrit pour The Onion et le Huffington Post.

Traduction et notes Entelekheia

* Note de la traduction : Les trois lois de la robotique de l’écrivain de science-fiction Isaac Asimov stipulent que,

1) Un robot ne peut porter atteinte à un être humain ni, en restant passif, laisser cet être humain exposé au danger.

2) Un robot doit obéir aux ordres donnés par les êtres humains, sauf si ces ordres contreviennent à la première loi.

3) Un robot doit protéger son existence dans la mesure ou cette protection n’est pas en contradiction avec la première ou la deuxième loi.

Vous aimerez aussi...

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.