Psycho : Croire son opinion supérieure à celle des autres est mauvais signe

A ceux, de droite comme de gauche, qui aiment bien enfermer leurs interlocuteurs dans des stéréotypes (« facho », « sexiste », « conspi », « gauchiste », « bien-pensant », « terraplatiste », etc) pour éviter d’avoir à examiner leurs arguments ou, tout simplement, à débattre.

Et si nous réapprenions les nuances, l’interrogation, l’écoute et l’échange ?


Par Tom Stafford
Paru sur le site de la British Psychological Society/Research Digest via Mind Hacks sous le titre People who think their opinions are superior to others are most prone to overestimating their relevant knowledge and ignoring chances to learn more


Les gens qui croient leurs opinions supérieures à celles des autres ont tendance à surestimer leur savoir et à s’interdire d’apprendre

Nous connaissons tous quelqu’un qui est convaincu que son opinion vaut mieux que celle des autres sur un sujet – et peut-être même que son opinion est la seule correcte. Peut-être que, sur certains sujets, vous êtes cette personne. Aucun psychologue ne s’étonnerait d’apprendre que les personnes convaincues de la supériorité de leur croyance sur tel ou tel sujet pensent être mieux informées que les autres, mais cela mène à la question suivante : ces gens sont-ils réellement bien informés sur les sujets où ils considèrent leur opinion comme supérieure à celle des autres ? C’est ce que Michael Hall et Kaitlin Raimi ont entrepris de vérifier dans une série d’expériences publiées dans le Journal of Experimental Social Psychology.

Les chercheurs distinguent la « croyance dans sa supériorité » de la « confiance dans sa croyance » (quand vous ne faites que penser que votre opinion est correcte). La « croyance dans sa supériorité » est relative – à des degrés divers, c’est quand vous pensez que votre opinion est plus juste que celle des autres ; au sommet de leur échelle de la croyance dans sa supériorité se trouvent ceux pour qui leur croyance est ‘Totalement juste’ (« la seule vue correcte est la mienne »).

Les deux chercheurs ont cherché des gens qui estimaient leurs croyances supérieures sur diverses questions politiques controversées (comme le terrorisme, les libertés individuelles ou la redistribution des richesses), et à vérifier – au moyen de questionnaires à choix multiples – dans quelle mesure ils étaient bien informés sur les sujets sur lesquels ils considéraient leur opinion comme plus valable que celle des autres.

Dans cinq études, Hall et Raimi ont constaté que les personnes ayant la plus grande croyance dans la supériorité de leur opinion sur un sujet donné avaient aussi tendance à avoir le plus grand écart entre les connaissances qu’ils pensaient avoir (leurs connaissances perçues) et leurs connaissances réelles – les personnes qui croyaient le plus fermement dans la justesse de leur opinion souffraient toutes de l’illusion qu’elles étaient mieux informées qu’elles ne l’étaient en réalité. Comme on pouvait s’y attendre, ceux qui avaient la plus faible croyance dans la supériorité de leur opinion avaient tendance à sous-estimer ce qu’ils savaient.

En plus de simples connaissances de base, les chercheurs se sont aussi intéressés aussi à la façon dont les personnes ayant une croyance dans la supériorité de leur opinion sur un sujet donné cherchaient à obtenir de nouvelles informations sur le sujet en question. Ils ont donné aux participants une sélection de titres d’articles de presse et leur ont demandé de choisir ceux qu’ils aimeraient lire à la fin de l’expérience. Les chercheurs ont classé les titres selon leur conformité ou non aux croyances des participants, et ils ont observé que ceux qui avaient la plus grande croyance dans leur supériorité étaient plus susceptibles de choisir des manchettes conformes à leur opinion. En d’autres termes, bien qu’ils aient été plus mal informés que ce qu’ils imaginaient, ces participants choisissaient de négliger les sources d’information qui auraient pu améliorer leurs connaissances.

Enfin, et c’est plus prometteur, les chercheurs ont trouvé des preuves que la croyance dans sa supériorité peut être entamée par certains arguments. Si l’on disait aux participants que les personnes croyant dans la supériorité de leur opinion sur un sujet tendent à avoir de mauvais résultats aux tests de connaissance du sujet en question, ou si l’on leur disait directement que leurs résultats au test sur leur connaissance du sujet étaient faibles, non seulement cela réduisait leur croyance dans leur supériorité, mais cela les incitait aussi à rechercher le genre d’information qu’ils avaient négligées dans le test des titres (bien que les preuves de cet effet comportemental aient été mitigées*).

Toutes les études auxquelles ont participé comprenaient des participants contactés via le Mechanical Turk d’Amazon, ce qui a permis aux chercheurs de travailler sur de larges échantillons d’Américains pour chacune de leurs études. Leurs conclusions reflètent l’effet bien connu Dunning-Kruger – Kruger et Dunning ont démontré que dans des domaines comme le jugement de la grammaire, de l’humour ou de la logique, les plus compétents ont tendance à sous-estimer leurs capacités, alors que les moins compétents les surestiment. Les recherches de Hall et Raimi s’étendent au domaine des opinions politiques (où l’évaluation objective de l’exactitude n’est pas possible), démontrant que la croyance selon laquelle votre opinion est supérieure à celle des autres tend à être associée à une surestimation de vos connaissances.

Dans l’ensemble, ces recherches présentent un tableau nuancé. Elles démontrent, une nouvelle fois, que nos opinions ne sont souvent pas aussi justifiées que nous le croyons – même les opinions dont nous sommes les plus sûrs qu’elles sont meilleures que celles des autres. D’un autre côté, elles démontrent que les gens sont sensibles à certains arguments, et qu’ils ne sont pas uniquement motivés par un désir de validation lorsqu’ils cherchent à obtenir de nouvelles informations. Le tableau final est celui d’une rationalité humaine imparfaite, mais qui peut être corrigée, et ne doit pas être condamnée.

Tom Stafford est psychologue à l’Université de Sheffield et contribue régulièrement au blog Mind Hacks. Son dernier livre est For argument’s sake : evidence that reason can change minds.

Traduction et note d’introduction Entelekheia
Photo Tumisu/Pixabay

*Il est normal que ces participants n’aient pas tous immédiatement demandé à en savoir plus sur les sujets qu’ils avaient cru bien maîtriser jusqu’à ce qu’on les détrompe : il n’est jamais agréable de se voir prouver qu’on a tort. Ce n’est qu’une fois l’humiliation d’avoir été mis face à leurs lacunes digérée que ces gens se sont probablement mis, dans leur majorité, à chercher des informations sur les sujets en question. De fait, il aurait fallu retourner voir les participants quelques mois après l’étude pour voir combien d’entre eux ont fini par le faire et combien ont préféré s’en tenir à leur première idée, que ce soit par confort intellectuel, pour éviter de remettre en cause d’autres préjugés rattachés au sujet en question, par loyauté envers leur communauté ou parti, ou encore par crainte de perdre leur statut social, leur poste, leur cercle d’amis, etc.

Ajouter un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

%d blogueurs aiment cette page :