La désinformation comme matière première

Premier épisode d’une série en quatre parties sur le système DCP : désinformation, conspirationnisme, propagande.

Le monoxyde de dihydrogène : une arme silencieuse

Prenons un instant pour examiner le DHMO (DiHydrogen MonOxyde, ou monoxyde de dihydrogène en français), une substance chimique dont les propriétés méritent attention.

Elle se présente sous les trois états de la matière (liquide, solide ou gazeux), et s’avère dangereuse, voire potentiellement mortelle, quelle qu’en soit la forme. À l’état gazeux, elle provoque des brûlures et des asphyxies. À l’état liquide, elle entraîne des dysfonctionnements rénaux, et au-delà d’un certain seuil d’exposition, la mort. À l’état solide, elle provoque de graves lésions cutanées. Les États-Unis comme la Russie en possèdent de larges gisements, exploités dans les technologies nucléaires, dans l’industrie de l’armement, dans l’industrie pharmaceutique, et jusque dans l’agroalimentaire. Ce puissant solvant, capable d’attaquer le métal comme la pierre, se trouve en fortes concentrations dans les pluies acides. Elle a été systématiquement détectée dans l’intégralité des biopsies réalisées sur des tumeurs cancéreuses au cours des trente dernières années. Et pour cause : on en retrouve aujourd’hui partout dans notre quotidien. Elle est présente dans nos produits d’entretien, dans les canalisations domestiques, dans l’air ambient, dans des jouets pour enfants. Des concentrations significatives de cette substance ont d’ailleurs été repérées dans les fruits et légumes, non seulement ceux issus des grandes industries, mais même ceux issus de l’agriculture biologique, ou des potagers domestiques.

Cette mise en garde ne date pas d’hier. Dès 1990, des chercheurs de l’Université de Californie à Santa Cruz (Eric Lechner, Lars Norpchen et Matthew Kaufman) documentent pour la première fois les propriétés préoccupantes du DHMO et tentent d’alerter l’opinion. En 1994, Craig Jackson prolonge ces travaux en les rendant accessibles au grand public via le site de la Coalition to Ban DHMO, réclamant des mesures réglementaires d’urgence. Il finira par tomber malade. C’est en 1997 que l’affaire prend une dimension nationale aux États-Unis : Nathan Zohner, un étudiant de l’Idaho, mène une étude rigoureuse auprès d’un échantillon de cinquante personnes et recueille quarante-trois signatures en faveur de l’interdiction. Son travail est récompensé d’un prix scientifique. Peu après, Zohner disparaît des radars. Aucun de ces lanceurs d’alerte n’a obtenu l’audience qu’il méritait.

Chacun de ces énoncés est rigoureusement exact. Chacun est vérifiable. Aucun n’est falsifié. Faut-il interdire l’emploi de cette substance ?

Le monoxyde de dihydrogène (DHMO, selon la nomenclature anglaise) est de formule H₂O. Oui, simplement… de l’eau. Mais présentée dans un cadrage qui en fait, sans altérer un seul fait, quelque chose d’inquiétant.

Ce que le DHMO révèle : les mécanismes cognitifs à l’œuvre

Pour comprendre pourquoi quarante-trois élèves sur cinquante signent une pétition contre l’eau, il ne suffit pas d’invoquer la crédulité. Il faut identifier la mécanique précise que le récit met en mouvement, à commencer par le cadrage lui-même, parce qu’il est d’un ordre différent des biais qu’il active.

L’effet de cadrage, tel que Kahneman et Tversky l’ont formalisé dans leurs travaux sur la théorie des perspectives, désigne le fait que des énoncés identiques produisent des évaluations radicalement différentes selon le contexte interprétatif dans lequel ils sont reçus[1]. Ce n’est pas le contenu qui détermine la réception, mais le cadre dans lequel ce contenu est présenté qui oriente, avant même l’évaluation, la façon dont il sera traité. Appliqué au DHMO, le mécanisme est d’une clarté didactique : la nomenclature chimique, le registre technique, la mise en liste des propriétés, le ton de l’alerte sanitaire : tout cela constitue un cadre interprétatif avant que le premier énoncé ne soit lu. Le lecteur ne reçoit pas des faits sur une substance et décide ensuite de s’inquiéter. Il reçoit d’emblée des faits sur une substance dangereuse, et ce cadre préalable gouverne la façon dont chaque information suivante est assimilée.

C’est ce cadre qui rend les autres biais opérants. Sans lui, ils n’auraient rien à activer.

Le premier est le cherry picking, ou sélection orientée. Parmi l’ensemble des propriétés descriptibles de l’eau (sa nécessité biologique absolue, son rôle dans la régulation thermique, sa centralité dans tous les processus du vivant) le cadrage DHMO retient exclusivement celles qui, repositionnées dans un registre technique alarmiste, produisent une impression de menace. Aucun énoncé n’est falsifié. L’ensemble est délibérément partiel. La sélection accomplit ce que la falsification n’a pas besoin de faire : elle oriente la réalité sans la déformer. C’est une conséquence directe du cadrage : une fois le cadre posé, la sélection ne fait que l’alimenter.

Le second est le biais de représentativité : face à un énoncé, le cerveau évalue non sa vérité mais sa ressemblance avec des catégories déjà connues. La nomenclature chimique, la liste de propriétés industrielles, la référence aux réacteurs nucléaires ; tout cela active le schème substance industrielle dangereuse, indépendamment du contenu réel de l’information. Le cadrage n’a pas besoin d’affirmer le danger. Il lui suffit d’y ressembler. Le biais de représentativité fait le reste, spontanément, sans que le lecteur en soit conscient.

Le troisième est l’effet de halo négatif : une fois qu’un attribut négatif est associé à un objet dans le cadre interprétatif initial, il contamine la réception de toutes les informations suivantes. Apprendre que le DHMO est présent dans les réacteurs nucléaires suffit à colorer différemment l’énoncé suivant, même s’il n’existe aucun lien logique entre les deux. Le cadre a déjà décidé que la substance est suspecte ; chaque nouvelle information est reçue à l’intérieur de cette décision, pas en dehors.

Un quatrième mécanisme opère à un niveau plus discret : l’énoncé à valeur absolue sans échelle de gravité. Affirmer que Craig Jackson “finira par tomber malade” est rigoureusement vrai, comme il est vrai de tout être humain. Aucune précision n’est donnée sur la nature, la gravité ou le lien éventuel avec le DHMO. Mais l’énoncé est formulé, il est là, et le lecteur s’en empare. En l’absence d’échelle, le cerveau comble par défaut avec le pire scénario disponible : la mention d’une maladie, dans un contexte d’alerte sanitaire, active le schème de la causalité sans que l’auteur ne l’ait jamais établie. C’est le lecteur qui construit l’imputation, et l’auteur n’a rien dit de faux[2].

Un cinquième mécanisme, enfin, est « l’effet légende ». La généalogie (les trois étudiants de Santa Cruz, Craig Jackson, Nathan Zohner) ne sert à rien dans une démonstration sur les dangers du DHMO. Mais elle y figure, avec des noms, des dates, un parcours. Cette dramaturgie narrative produit un effet de profondeur : le lecteur perçoit une histoire qui existe indépendamment de lui, avec ses acteurs, ses étapes, ses silences. Il interprète chaque élément mentionné comme porteur d’une signification : pourquoi le citer, sinon parce que c’est important ? Il comble lui-même les non-dits. Les ellipses deviennent des sous-entendus. Les sous-entendus deviennent des certitudes. L’auteur n’a rien affirmé de ces certitudes. Il a seulement fourni le décor dans lequel le lecteur les a construites[3].

Ce que cette mécanique révèle, c’est que ces biais ne sont pas des défaillances pathologiques du jugement. Ce sont des propriétés ordinaires du traitement cognitif humain, des raccourcis que le cerveau utilise pour fonctionner dans un environnement où évaluer systématiquement chaque énoncé serait cognitivement impossible. La malinformation ne les contourne pas. Elle les exploite précisément parce qu’ils sont normaux. Et c’est ce qui rend la démonstration DHMO si utile : elle montre que le problème n’est pas dans la qualité du jugement des signataires. Il est dans la structure de ce qui leur a été soumis.

Wardle et Derakhshan : une cartographie du désordre

Pour situer la malinformation dans un cadre analytique plus large, il faut revenir à la cartographie proposée en 2017 par Claire Wardle et Hossein Derakhshan pour le Conseil de l’Europe[4]. Leur modèle organise les phénomènes de désordre informationnel selon deux axes croisés : la vérité ou la fausseté du contenu, et l’intention de l’émetteur. Cette grille produit trois catégories distinctes, que l’usage courant du terme « désinformation » tend à confondre au détriment de l’analyse.

La mésinformation désigne un contenu faux diffusé sans intention de nuire. L’émetteur croit à ce qu’il partage. C’est, contrairement à l’intuition dominante, la forme quantitativement la plus répandue du désordre informationnel. Une étude du MIT publiée dans Science en 2018 a établi que les fausses informations se propagent six fois plus vite que les vraies, et atteignent des audiences significativement plus larges, portées non par des acteurs malveillants mais par des individus convaincus d’être utiles[5]. Sa dangerosité est systémique : elle tient au volume et à la vitesse de propagation, non à l’intention.

La disinformation, au sens strict, désigne un contenu faux diffusé avec l’intention délibérée de tromper : politiquement, financièrement, socialement. Elle suppose un acteur conscient de la fausseté de ce qu’il produit ou amplifie. C’est la catégorie la plus étudiée, la plus présente dans le débat public, et paradoxalement pas la plus répandue : elle nécessite une fabrication, là où la mésinformation se propage spontanément.

La malinformation, enfin, désigne un contenu vrai diffusé avec l’intention de nuire. C’est la catégorie analytiquement la plus décisive, et la plus sous-théorisée. Le DHMO en est la démonstration épurée. Les fuites d’e-mails du Parti démocrate américain en 2016 en offrent le cas politique documenté : les documents publiés étaient authentiques. Leur usage en faisait une arme. Aucune falsification. Un dommage réel, produit par la seule mise en circulation orientée d’un vrai[6].

Le déplacement décisif

Ce que la malinformation oblige à poser, c’est un déplacement du regard. La question n’est plus cet énoncé est-il vrai ou faux ? mais dans quelles conditions circule-t-il, et quelle fonction remplit-il dans un ensemble plus large ?

Un fait vrai, dans un milieu épistémique dégradé et entre les mains d’un acteur stratégique, peut produire des effets équivalents à ceux d’un mensonge délibéré, parfois même supérieurs, précisément parce qu’il résiste à la réfutation. On ne peut pas fact-checker l’eau. On ne peut pas corriger un énoncé rigoureusement exact.

Le mécanisme de défense le plus immédiatement opérant face à ce type de cadrage n’est pas la vérification des faits ; on vient de voir qu’ils sont tous exacts. Il est d’ordre métacognitif, et trouve sa formulation la plus précise chez Carl Sagan : extraordinary claims require extraordinary evidence. Formulé en 1979 dans le cadre d’une critique de la pseudoscience, ce principe désigne le fait qu’une assertion dont les implications sont exceptionnelles exige, pour être reçue comme valide, un niveau de preuve proportionnel à sa portée. Transposé au plan de la réception, non plus de la production de l’énoncé, mais de son traitement par le lecteur, il devient un instrument de vigilance cognitive : l’amplitude alléguée d’un phénomène est elle-même une information sur la structure du récit qui le porte. Un scandale d’une telle ampleur (une substance mortelle présente dans l’alimentation, les réacteurs nucléaires, les jouets d’enfants, détectée dans la totalité des tumeurs cancéreuses analysées) et qui serait pourtant si bien dissimulé qu’aucune autorité publique n’aurait encore agi, produit un écart structurel entre la gravité alléguée et l’absence de réponse institutionnelle visible. Cet écart n’est pas une preuve de complot. Il est un signal : non sur la substance décrite, mais sur la nature du dispositif qui la décrit. Plus un cadrage amplifie le danger tout en rendant compte du silence des pouvoirs, plus il sollicite une vigilance proportionnelle à ses propres prétentions.

Ce n’est pas la dernière fois que nous rencontrerons ce déplacement. Il est au cœur de ce que le conspirationnisme et la propagande, chacun à leur façon, vont confirmer.


[1] Kahneman, D. et Tversky, A. (1979). Prospect Theory: An Analysis of Decision under Risk.

[2] Wegner, D. M., Wenzlaff, R., Kerker, R. M. et Beattie, A. E. (1981). Incrimination through innuendo: Can media questions become public answers? Journal of Personality and Social Psychology, 40(5), 822–832. Sur l’implicature scalaire : Grice, H. P. (1975). Logic and conversation. In P. Cole & J. Morgan (Eds.), Syntax and Semantics, vol. 3 : Speech Acts (pp. 41–58). Academic Press. Sur l’affect heuristic : Slovic, P., Finucane, M., Peters, E. et MacGregor, D. G. (2002). The affect heuristic. In T. Gilovich, D. Griffin & D. Kahneman (Eds.), Heuristics and Biases: The Psychology of Intuitive Judgment (pp. 397–420). Cambridge University Press.

[3] Green, M. C. et Brock, T. C. (2000). The role of transportation in the persuasiveness of public narratives. Journal of Personality and Social Psychology, 79(5), 701–721. Sur la maxime de pertinence comme vecteur d’inférence implicite : Grice (1975), op. cit. Le concept d’“effet légende” est proposé ici comme désignation d’un mécanisme non encore formalisé comme tel dans la littérature : la production d’une dramaturgie narrative à fonction de légitimation, dont les ellipses sont comblées par le lecteur sans engagement explicite de l’auteur.

[4] Wardle, C. et Derakhshan, H. (2017). Information Disorder: Toward an Interdisciplinary Framework for Research and Policy Making. Conseil de l’Europe, DGI(2017)09.

[5] Vosoughi, S., Roy, D. et Aral, S. (2018). The Spread of True and False News Online. Science, vol. 359, n°6380, 9 mars 2018.

[6] Select Committee on Intelligence, United States Senate, Report on Russian Active Measures Campaigns and Interference in the 2016 U.S. Election, vol. 2, 2019. Voir aussi : Mueller III, R. S., Report on the Investigation into Russian Interference in the 2016 Presidential Election, DOJ, mars 2019.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Retour en haut