Quand les preuves se retournent contre vous

Presque un mois écoulé depuis le dernier article posté! Bon, j’avais prévenu chez Scepticisme Scientifique que je n’arriverais pas à tenir une fréquence d’un article par semaine pour l’instant, et pour de bonnes raisons puisque je suis papa d’une petite fille de 3 mois. Ceux qui ont des enfants me comprendront. Ceci dit, ça ne veut pas dire que je n’ai absolument aucun moment disponible pour faire ce que je veux; mais quand j’en ai, je le passe soit à mon autre (ma première en fait) passion, la musique, soit à diverses activités qui ne servent absolument à rien, comme par exemple aller discuter avec la société de la terre plate. Si ça vous intéresse, vous trouverez mes posts ici, ici, ici, ici,ou  (et il y en a d’autres).

Bref, tout ça pour dire qu’aujourd’hui sort un nouvel article. Malheureusement, il s’agit d’un sujet un peu déprimant pour les sceptiques « militants » puisqu’il revient à dire, en gros, que ce qu’on fait, ça ne sert à rien. Plus spécifiquement, quand vous voulez combattre la désinformation avec de l’information, vous risquez d’augmenter la croyance en des affirmations fausses… Je vous laisse découvrir l’article original, posté sur BigThink par Neurobonkers: When Evidence Backfires.


When-evidence-backfires

Ne lisez pas ce post. Surtout ne le lisez pas jusqu’au bout. Ne vous ai-je pas dit de ne pas lire ce post? Vous êtes encore en train de lire… Nous pouvons rire de notre capacité propre à faire le contraire de ce qu’on voudrait, mais malheureusement c’est ce qui peut arriver lorsqu’on fournit à un être humain des preuves scientifiques dans le but de tordre le cou à la désinformation. L’un des paradoxes les plus déprimants en communication des sciences est que non seulement la désinformation se répand souvent plus rapidement que la vérité (considérez par exemple les fameux « uberfacts », qui ont beaucoup de succès mais ne sont pas si factuels que ça, ou bien le succès de Natural News, le modèle même de la désinformation scientifique), mais en plus, apporter des preuves pour combattre la désinformation peut souvent avoir l’effet complètement opposé à ce que vous vous vouliez. Ce phénomène frustrant de retour de flammes a été récemment démontré à nouveau dans une étude sur les réponses de parents face à divers types de preuves selon lesquelles les vaccins ne sont pas dangereux. L’étude contrôlée et randomisée a repris quatre sources du CDC, toutes conçues de sorte à utiliser les preuves scientifiques pour démontrer pourquoi les enfants doivent être vaccinés:

  1. Un site web du CDC réfutant la désinformation à propos du lien entre autisme et vaccin ROR.
  2. Une fiche d’information du CDC sur le ROR, décrivant les symptômes et effets adverses associés à la rougeole, aux oreillons et à la rubéole.
  3. Une page du site web du CDC où est publiée l’histoire d’une maman qui a dû hospitaliser son enfant à cause de la rougeole.
  4. Des images du CDC d’enfants avec la rougeole, les oreillons ou la rubéole:
Crédit: US Centers for Disease Control and Prevention

Crédit: US Centers for Disease Control and Prevention

Dans les quatre cas, aucune des informations fournies n’a augmenté l’intention des parents de vacciner leurs enfants. Les informations directes sur la rougeole, les oreillons et la rubéole n’ont pratiquement pas eu d’effets. Les images d’enfants avec la rougeole, les oreillons et la rubéole, ainsi que l’histoire de la maman et son enfant hospitalisé, ont tous deux eu comme effet inattendu d’augmenter les croyances sur les effets adverses des vaccins. Les images ont également augmenté les fausses croyances sur le lien entre vaccins et autisme. L’information qui réfutait le lien entre ROR et autisme a pu diminuer les croyances sur un tel lien, mais ont par ailleurs étonnamment réduit l’intention de vacciner chez les parents ayant les croyances anti-vaccins les plus fortes.

Ce n’est pas la première fois que de tels résultats déprimants sont obtenus dans des études tentant de réfuter les mythes sur les vaccins. Une étude décrite dans un article de Schwarz et al. a trouvé qu’un dépliant du CDC, contenant des « faits et mythes » sur les vaccins, augmentait l’intention de vacciner immédiatement après, mais avait l’effet inverse après seulement une demi-heure – lorsque les participants se mettaient à oublier les mythes et à les considérer comme des faits. Il semble que notre mémoire ne fait pas mieux que celle des poissons rouges quand il s’agit de faire la séparation entre faits et fictions. Lorsque les chercheurs ont créé une version du dépliant dans laquelle les mythes étaient réécrits dans un style similaire à ceux des faits, le dépliant a réussi à augmenter l’intention de vacciner, ce qui contrastait avec le dépliant original qui faisait plus de dégâts que prévu. Éviter toute référence aux mythes est cependant loin d’être une solution parfaite car cela empêche de répondre directement aux mythes en circulation.

Comme si ce ne pouvait être plus déprimant, Norbert Schwarz, le coauteur de l’article des « faits et mythes » suggéra que, lorsqu’une institution respectée comme le CDC prend position pour réfuter une affirmation erronée, cela peut en réalité donner du crédit à l’affirmation en question. Schwarz cite en exemple une rumeur qui circulait sur internet à propos de bananes mangeuses de chair, et qui eut tellement de succès qu’elle fut démontée sur le site web du CDC. Lorsque ce fut le cas, la peur des bananes mangeuses de chair ne fit qu’augmenter et commença même à être attribuée au CDC même!

Dans une autre étude, un effet similaire de retour de flammes a été observé chez les votants conservateurs qui croient que l’Irak possède des armes de destruction massive. Après avoir reçu des informations correctes sur le fait que l’Irak ne possédait pas d’armes de destruction massive, ils étaient ensuite plus enclins que le groupe contrôle à croire que l’Irak avait bien des armes de destruction massive. La même chose s’est reproduite lorsque des conservateurs ont reçu des preuves à propos de l’inefficacité des coupes budgétaires décidées par Bush pour stimuler la croissance économique – dans ce cas, le pourcentage de personnes d’accord avec l’affirmation selon laquelle les coupes budgétaires de Bush ont augmenté les revenus du gouvernement est passé de 36% à 67%, tandis que les mêmes preuves présentées aux non-conservateurs ont eu l’effet inverse (de 31% à 28%).

De façon inquiétante, il a été montré que cet effet était particulièrement profond chez les personnes âgées, chez qui on pense qu’ils se rappellent une affirmation spécifique, mais oublient l’information contextuelle indiquant que l’affirmation en question est fausse. Pire encore, répéter qu’une affirmation est fausse peut en réalité laisser une impression plus forte qu’elle est vraie. Dans une étude, « plus on répétait à des adultes plus âgés qu’une affirmation était fausse, plus il était probable qu’ils en aient un souvenir inverse après un délai de 3 jours. La taille de cet effet est loin d’être négligeable. Après 3 jours, les adultes plus âgés se souvenaient de façon erronée que 28% des affirmations fausses étaient vraies lorsqu’on leur disait une seule fois qu’elles étaient fausses, mais cela montait à 40% lorsqu’on leur disait trois fois ». Point intéressant, dans cette étude l’effet était exactement l’inverse chez les jeunes personnes – insister sur la fausseté d’une affirmation les rendait plus enclins à considérer cette affirmation comme fausse.

Alors que de jeunes adultes étaient moins enclins à se rappeler de façon erronée la fausseté d'une affirmation lorsqu'on leur a dit trois fois qu'elle était fausse, les adultes plus âgés étaient par contre plus enclins à se rappeler erronément que l'affirmation était vraie. (Skurnik et al, 2005)

Alors que de jeunes adultes étaient moins enclins à se rappeler de façon erronée la fausseté d’une affirmation lorsqu’on leur a dit trois fois qu’elle était fausse, les adultes plus âgés étaient par contre plus enclins à se rappeler erronément que l’affirmation était vraie. (Skurnik et al, 2005)

À moins d’être extrêmement attentif, il semble qu’essayer de convaincre les cyniques les plus endurcis avec des preuves peut en réalité faire plus de mal que de bien. La nécessité de plus en plus pressante de combattre la désinformation à propos du vaccin ROR a été discutée en longueur sur ce blog. La réponse intuitive, et quelque peu convenue, est souvent de combattre la désinformation avec une meilleure éducation. Il semble pourtant que certaines idées sont tellement ancrées que l’éducation seule ne pourra faire le boulot. Une étude à propos des croyances sur le réchauffement climatique a trouvé que le niveau d’éducation semblait être un facteur moins important que les appartenances politiques lorsqu’il s’agissait de déterminer le niveau d’accord ou de désaccord avec le consensus scientifique. L’étude concluait que « la vision du monde explique plus de variance que la culture scientifique ». Chez ceux qui partagent une vision du monde « individualiste hiérarchique », la culture scientifique était en réalité corrélée avec une faible croyance au réchauffement climatique, tandis que la culture scientifique était corrélée avec une croyance plus forte au réchauffement climatique parmi ceux ayant une vision du monde « égalitaire communautaire ».

Le côté pernicieux de cette problématique ne doit pas être sous-estimée, et on peut s’attendre certainement à voir de nombreuses recherches sur le combat contre la désinformation dans les années à venir. C’est un domaine qui m’intéresse particulièrement, et j’apprécierais franchement d’entendre les idées des lecteurs sur la question, étant donné que je suis en train de travailler sur les illusions collectives. Nous pouvons espérer qu’avec une meilleure compréhension de nos erreurs passées, nous pouvons repartir sur des bases plus constructives et éviter de répéter ces erreurs. Pour l’instant, la meilleure ressource que j’ai trouvée pour comprendre comment s’attaquer au mieux à la désinformation est le Debunking Handbook (PDF) de John Cook et Stephan Lewandowsky; cinq minutes de montagnes russes intellectuelles qui (si vous êtes comme moi) vous feront réfléchir longtemps et intensément.

Références:

Kahan D.M., Peters E., Wittlin M., Slovic P., Ouellette L.L., Braman D. & Mandel G. (2012). The polarizing impact of science literacy and numeracy on perceived climate change risks, Nature Climate Change, 2 (10) 732-735. DOI:

Nyhan B., Reifler J., Richey S. & Freed G.L. (2014). Effective Messages in Vaccine Promotion: A Randomized Trial., Pediatrics, PMID:

Nyhan B. & Reifler J. (2010). When Corrections Fail: The Persistence of Political Misperceptions, Political Behavior, 32 (2) 303-330. DOI:

Skurnik I., Yoon C., Park D. & Schwarz N. (2005). How Warnings about False Claims Become Recommendations, Journal of Consumer Research, 31 (4) 713-724. DOI:

Schwarz N., Sanna L.J., Skurnik I. & Yoon C. Metacognitive Experiences And The Intricacies Of Setting People Straight: Implications For Debiasing And Public Information Campaigns, Advances In Experimental Copyright 2007, Elsevier Inc. Social Psychology, 39 127-161. DOI:


5 réflexions sur “Quand les preuves se retournent contre vous

  1. Pingback: Tout le monde se trompe sur les parents anti-vaccins (Amy Tuteur) | Sceptom

  2. Il me semble que ce problème est beaucoup plus large que la simple réfutation d’un mythe, c’est la question du changement de croyance personnelle qui est en jeu ici ; Un seul exemple, la difficulté à faire des campagnes de lutte contre la drogue : l’effet boomerang existe aussi et on s’est rendu compte après coup que bcp de campagne n’avait aucun effet ou pouvait favoriser la consommation de toxique !

    L’effet de groupe : la loyauté au groupe est une des causes principales dans ce type de biais cognitif : il est très coûteux d’abandonner les croyances du groupe (risque d’exclusion) beaucoup plus en tout cas que refuser d’adhérer aux explications qui entraînerait le changement de notre opinion.

    Même dans les processus de sélection les plus rationnels, les biais inconscients sont susceptible d’altérer consciemment ou pas les processus de choix et d’analyse qui ne devrait mobiliser que la rationalité, le dernier éditorial de Nature est là pour nous le rappeler : http://www.nature.com/news/nature-journals-offer-double-blind-review-1.16931

    Les neurosciences actuelles ( système un et deux de Kahneman, les travaux de benjamin Libet ou le dernier livre de Gazzaniga Le libre arbitre et la science du cerveau par exemple) nous apprennent que l’espèce humaine a une très grande propension à l’affabulation et que les facteurs émotionnels inconscients et automatiques sont massivement utilisés pour effectuer nos choix de tous les jours, y compris dans le choix de nos croyances, la rationalité en mode explicite n’est qu’un fonctionnement très coûteux que nous utilisons très peu.

    La difficile réfutation des mythes n’est finalement qu’une conséquence assez normale du fonctionnement psychique normal de l’humain, mécanique interne qui se dévoile chaque jour un peu plus avec le progrès des neurosciences.
    Et il nous faudra sans doute parcourir encore un long chemin pour apprendre à le maîtriser ;

    Pour finir sur une note personnelle, le changement de mes croyances sur des domaines sensibles, les OGM et le nucléaire, victime d’un rejet massif en France au motif de leur toxicité supposée. Anti OGM et nucléaire il y a quelques années, j’ai progressivement changé d’avis, mais difficilement !
    Il m’a fallu des mois de fréquentation d’un groupe avec des opinions différentes et la lecture assidue d’articles scientifiques traitant de l’effet bénéfique suite à l’exposition aux faibles doses radioactives (hormèse) ou l’absence d’effet délétère mesuré chez les populations exposée à des fort taux de radioactivité naturelle pour me convaincre que l’effet linéaire sans seuil était le plus souvent faux (même s’il existe pour le radon et le cancer du poumon) et que toute radioactivité n’était pas néfaste pour un être vivant, voir qu’elle pouvait être bénéfique; La compréhension fine des mécanismes physico-chimique en jeu a été aussi importante.

    Même travail dans le cadre des OGM, c’est la compréhension fine des mécanismes en jeux, l’existence d’une transgenèse horizontale entre espèce, des études de toxicité et la fréquentation régulière d’un groupe pro-OGM qui m’ont convaincu de l’absence d’une toxicité liée aux OGM pour l’alimentation humaine liée au seul mécanisme de la transgenèse.
    Mais cela demande du temps, des efforts durables et l’abandon de croyances structurantes : cela ne se fait pas en 10 minutes…

    Aimé par 1 personne

    • Je sais aussi d’expérience qu’un changement d’opinion peut être difficile. Il y a quelques années, j’étais un « climato-sceptique » (le terme n’est pas du tout approprié), et ai dû apprendre à changer d’avis sur la question. Ça a pris du temps, et je soupçonne que, bien que je suis aujourd’hui totalement convaincu du changement climatique anthropique, quelque part la difficulté réside et se reflète dans le fait que le sujet du climat est quasi absent de mon blog.

      Et d’un autre côté, ça n’a l’air de rien, mais quand on sait, d’un point de vue théorique mais aussi par l’expérience, que laisser tomber une croyance peut être si difficile, je tire une certaine fierté d’avoir pu changer d’avis.

      Aimé par 1 personne

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s