Ce que le système DCP fait au milieu

Trois épisodes. Trois mécanismes distincts, chacun avec sa logique propre, sa littérature, ses cas documentés. La désinformation comme matière première, exploitant des biais cognitifs ordinaires, capable de produire ses effets sans falsification. Le conspirationnisme comme stabilisateur, transformant des fragments en totalité intentionnelle, imperméable à la réfutation, produisant des spectateurs indignés plutôt que des acteurs. La propagande comme orienteur, sélectionnant, amplifiant, et dans son régime inductif, dégradant délibérément le substrat épistémique jusqu’au point où le récepteur produit lui-même la lecture souhaitée.

Mais quelque chose manque. Ces trois articles ont décrit les composants. Aucun n’a décrit la machine.

La question de ce quatrième épisode n’est pas qu’est-ce que D, C et P ? Elle est : que deviennent-ils quand ils opèrent ensemble ? Et sa réponse oblige à reconsidérer la nature même du problème. Non plus : comment corriger chaque pièce ? Mais : pourquoi un système qui n’a plus besoin de mentir est-il le plus difficile à contrer ?

Du flux à la boucle

Les épisodes précédents ont décrit le flux DCP comme une séquence : la désinformation fournit des fragments, le conspirationnisme les assemble en système, la propagande oriente ce système vers des effets politiques identifiables. Cette description est analytiquement correcte. Elle est fonctionnellement insuffisante.

Un flux est unidirectionnel. Ce que nous avons devant nous est circulaire.

La propagande ne reçoit pas passivement le produit du conspirationnisme pour l’amplifier : elle modifie rétroactivement les conditions dans lesquelles la désinformation opère. En dégradant le substrat épistémique, en rendant le doute universel, en installant l’équivalence morale entre toutes les sources : elle crée le milieu dans lequel chaque nouveau fragment informationnel sera reçu. La malinformation n’arrive pas dans un espace intact où elle doit encore construire son cadrage : elle arrive dans un espace déjà préparé à en absorber les effets sans défense disponible. Le cadrage DHMO fonctionne d’autant mieux que le lecteur a déjà été conduit à douter des institutions qui pourraient le corriger.

De même, le conspirationnisme ne traite pas seulement le matériau que la désinformation lui fournit : il installe une grammaire du soupçon qui devient le cadre de réception par défaut pour toute nouvelle information. Une fois cette grammaire normalisée, la propagande n’a plus besoin de produire l’interprétation. Elle arrive dans un espace cognitif où le récepteur effectue spontanément le travail. Les paréidolies émergent sans instruction. Personne n’a indiqué quoi lire dans le signal ambigu ; et pourtant chaque milieu y lit sa propre figure.

Ce retournement (du pipeline à la boucle, de la séquence à la réciprocité) est ce qui rend le système DCP qualitativement différent de ses composants pris séparément.

Quatre rétroactions

La boucle n’est pas une métaphore. Elle est constituée de mécanismes documentables, et leur description précise permet de comprendre pourquoi chaque intervention ciblant un seul composant est structurellement absorbée par les deux autres.

Première rétroaction : la propagande prépare le terrain de la désinformation.

Dans un milieu épistémique fonctionnel, la malinformation doit déployer un effort de cadrage considérable : construire le registre de l’alerte, simuler la profondeur narrative, exploiter les biais cognitifs face à un récepteur qui dispose encore de repères institutionnels. Dans un milieu dégradé par le sharp power où « CNN ment autant que RT », où toutes les démocraties sont des oligarchies qui s’ignorent, où la méfiance est devenue la posture par défaut : ce travail de cadrage est largement superflu. Le fragment informationnel arrive dans un espace où la source institutionnelle susceptible de le corriger est structurellement disqualifiée d’avance. La délégitimation anticipatoire n’a plus besoin d’être activée ponctuellement : elle est l’état ambiant du milieu.

Deuxième rétroaction : le conspirationnisme normalise la grammaire du soupçon comme réflexe interprétatif.

Chaque événement traumatisant traité par le conspirationnisme (Notre-Dame, les attentats, les pandémies) ne produit pas seulement un récit conspirationniste localisé. Il entraîne la grammaire du soupçon dans le sens commun, la rend disponible pour le prochain événement, abaisse le seuil d’activation pour l’imputation intentionnelle, et entraine une érosion lente de nos défenses cognitives, de la confiance en nos institutions, de la foi en nos valeurs. Une population exposée durablement au conspirationnisme n’est pas seulement une population qui croit à tel ou tel complot. C’est une population dont le premier réflexe interprétatif face à toute situation ambiguë est la recherche d’un auteur, d’un motif, d’un bénéficiaire. La propagande peut dès lors se simplifier jusqu’à l’essentiel : au lieu de construire un récit complet, il lui suffit d’activer la grammaire en place. À qui profite le crime ? est déjà posé. Elle n’a plus qu’à suggérer une réponse.

Troisième rétroaction : la désinformation enrichit le conspirationnisme de matériau authentique.

Une propriété décisive du conspirationnisme est qu’il peut fonctionner avec du vrai. Ce n’est pas une observation marginale : c’est la jonction précise entre malinformation et conspirationnisme. Chaque fait vrai sorti de son contexte, chaque anomalie réelle, chaque défaillance institutionnelle authentique alimente le système conspirationniste d’un matériau que la réfutation ne peut pas atteindre. On ne peut pas fact-checker l’eau. Dans un milieu conspirationniste actif, le fait vrai réinscrit dans un cadrage orienté est plus redoutable que l’assertion fausse, précisément parce qu’il résiste structurellement à la correction. L’accumulation de faits vrais dans un cadre conspirationniste est, analytiquement, l’arme la plus difficile à déminer.

À quoi s’ajoute un phénomène que Chesney et Citron ont nommé le liar’s dividend : l’existence généralisée de contenus manipulés ne sert pas seulement à fabriquer du faux. Elle permet de nier l’authentique. Dès lors qu’une société sait que les images, les voix, les documents peuvent être falsifiés, les preuves réelles perdent une partie de leur pouvoir probatoire. Le soupçon devient universel. Et c’est à nouveau le milieu, non le contenu, qui est la cible[1].

Quatrième rétroaction : l’épuisement épistémique comme état terminal auto-entretenu.

Les trois rétroactions précédentes produisent conjointement un état que la littérature sur la désinformation n’a pas encore pleinement théorisé comme cible : l’épuisement cognitif. Lorsque la correction est interminable, lorsque chaque institution est suspecte, lorsque chaque fait devient une arme potentielle, lorsque le démenti doit courir sans cesse après l’équivalence, la réponse rationnelle n’est pas l’erreur. C’est le retrait. Non pas l’ignorance, non pas la crédulité, mais un désengagement calculé d’un espace perçu comme non navigable.

Ce retrait n’est pas passif. Il alimente la boucle. Un public épuisé ne cherche plus à vérifier. Il délègue : à une figure d’autorité de substitution, à une communauté qui pense à sa place, à l’indignation sans action que le conspirationnisme fabrique si précisément. Et ce public ainsi conditionné offre à la propagande inductive le substrat idéal : sans coordination, sans instruction, sans intervention explicite, le moindre fragment est spontanément traité selon la grammaire de soupçon disponible. La boucle se referme.

L’asymétrie affective : l’avantage structurel du discours délié

Ce retrait n’est pas seulement une défaillance de l’attention. Il est la condition dans laquelle une asymétrie fondamentale, jusqu’ici contenue, devient décisive.

Dans un espace épistémique fonctionnel, deux récits en concurrence peuvent être départagés. Pas toujours facilement, pas toujours rapidement, mais les outils existent : vérification des sources, cohérence interne, confrontation aux faits disponibles, recours aux institutions d’arbitrage. Ce travail est coûteux cognitivement. Petty et Cacioppo ont formalisé cette réalité dans leur modèle de l’Elaboration Likelihood : le traitement analytique d’un message (ce qu’ils nomment la voie centrale) exige motivation et capacité disponibles[2]. Lorsque l’une ou l’autre fait défaut, c’est la voie périphérique qui prend le relais : le message est évalué non sur sa valeur de vérité, mais sur ses propriétés affectives, sa fluidité, sa familiarité, sa résonance émotionnelle. Or l’épuisement épistémique produit par la boucle DCP est exactement la condition qui court-circuite la voie centrale et rend la voie périphérique dominante. Ce n’est pas une conséquence secondaire. C’est, fonctionnellement, l’un des effets les plus précieux que le système produit sur son environnement.

Mais l’asymétrie ne tient pas seulement à l’état du récepteur. Elle tient à la nature des discours en présence. Un discours contraint par la vérité ne peut pas optimiser librement son registre émotionnel : il doit équilibrer précision et impact, fidélité aux faits et efficacité affective, nuance et lisibilité. Il ne peut pas amplifier au-delà de ce que la réalité autorise, ni choisir en liberté totale l’angle le plus percutant si cet angle tord ce qui s’est passé. Le discours qui s’affranchit de cette contrainte n’a aucune de ces limites. Il peut sélectionner exactement les éléments les plus saillants, les articuler dans la séquence la plus percutante, maximiser la résonance émotionnelle sans avoir à rendre compte de sa fidélité au réel. Frankfurt a nommé cette propriété avec une précision que la littérature sur la désinformation n’a pas toujours suffisamment intégrée : la différence entre le menteur et ce qu’il appelle le bullshitter n’est pas une différence de degré, mais de structure[3]. Le menteur connaît la vérité et cherche à la dissimuler : il entretient donc avec elle une relation, fût-elle antagoniste. Le bullshitter, lui, ne se pose pas la question. Son indifférence à la vérité n’est pas un manque : c’est une liberté structurelle, et cette liberté est précisément un avantage compétitif dans un espace où deux récits se disputent la même attention appauvrie.

Cette asymétrie affective (la capacité d’un discours délié des faits à maximiser son impact émotionnel sans contrainte) n’opère pas uniformément sur le système DCP. Elle se branche différemment sur chacun de ses composants, et en potentialise les effets de façon spécifique.

Sur la désinformation, elle éclaire ce que la démonstration DHMO avait déjà montré par un autre biais. Le cadrage ne sélectionne pas les propriétés les plus représentatives de l’eau : il sélectionne les plus inquiétantes. Ce choix n’est pas seulement cognitif : il est affectif. Slovic et ses collaborateurs ont documenté ce qu’ils nomment l’affect heuristic : face à un objet ou un énoncé, l’évaluation du risque est massivement influencée par la réaction émotionnelle initiale, qui précède et oriente le traitement analytique[4]. Le cadrage DHMO ne convainc pas d’abord : il alarme d’abord. Et c’est l’alarme qui gouverne la réception de chaque énoncé suivant. Le discours délié peut librement optimiser cette alarme initiale ; le discours contraint ne peut l’activer qu’à proportion de ce que les faits autorisent. À matériau comparable, l’avantage affectif revient structurellement à qui n’a pas à rendre des comptes sur la sélection.

Sur le conspirationnisme, l’asymétrie affective explique ce que la structure self-sealing seule ne suffit pas à rendre compte : pourquoi le conspirationnisme n’est pas simplement résistant à la réfutation, mais activement attractif. Haidt a déplacé le modèle dominant du jugement moral en montrant que l’intuition affective est première et que le raisonnement vient ensuite, non pour évaluer mais pour justifier ce qui a déjà été ressenti[5]. Appliqué au conspirationnisme, ce modèle éclaire la séquence réelle : ce n’est pas que le récit conspirationniste convainc rationnellement avant de susciter l’indignation. C’est l’indignation, émotion de forte intensité, socialement contagieuse, cognitivement occupante, qui est produite en premier, et le récit qui lui fournit ensuite sa justification. Brady et ses collaborateurs ont quantifié cet effet sur les réseaux sociaux : chaque terme à charge morale ou émotionnelle dans un message augmente significativement son taux de partage, indépendamment de sa valeur de vérité[6]. Or l’indignation sans action que Reichstadt a identifiée comme produit caractéristique du conspirationnisme n’est pas un résidu, c’est le carburant de la boucle : une émotion qui maintient l’engagement, empêche le désengagement, et laisse peu de ressources disponibles pour l’évaluation analytique parallèle. Le discours conspirationniste ne choisit pas l’indignation par rhétorique. Il la choisit parce qu’elle est l’émotion qui maximise précisément les effets que la boucle requiert.

Sur la propagande, et particulièrement dans son régime inductif, l’asymétrie affective est la raison pour laquelle le « reset du déficit de confiance » fonctionne sans avoir besoin de convaincre. Dans un milieu où deux récits semblent également vraisemblables (parce que la dégradation épistémique a neutralisé les boussoles institutionnelles), ce n’est pas l’argument qui tranche. C’est le registre. Un récit qui peut librement activer la peur, le ressentiment, le sentiment d’humiliation ou d’abandon, sans avoir à rester fidèle aux conditions dans lesquelles ces affects seraient légitimes, dispose d’un accès prioritaire au système de traitement périphérique d’un public épuisé. Westen et ses collaborateurs ont montré, dans des études d’imagerie cérébrale sur le traitement de l’information politique, que face à des données contredisant leurs positions, les individus activent non les aires du raisonnement analytique mais celles associées à la régulation émotionnelle et au soulagement affectif consécutif à la résolution de la dissonance[7]. Le discours qui réactive un affect familier (la trahison des élites, la résistance identitaire, la souveraineté bafouée) ne convainc pas : il soulage. Et dans un milieu dégradé, le soulagement est une monnaie plus forte que la démonstration.

Cette asymétrie affective est peut-être la propriété du système DCP la plus difficile à nommer sans paraître pessimiste, parce qu’elle implique que l’amélioration du contenu informationnel (vérification des faits, contre-récits mieux construits, communication institutionnelle plus transparente) ne résout pas le problème si elle ne traite pas le registre dans lequel ce contenu est reçu. Haidt lui-même, tirant les conséquences de son modèle, a soutenu que les efforts de persuasion politique et civique qui ignorent la dimension affective sont structurellement condamnés à l’inefficacité, non par manque de rigueur, mais par mauvaise théorie du mécanisme[8]. La question n’est donc pas : comment produire des contenus plus vrais ? Elle est, en partie : comment produire des contenus vrais qui ne renoncent pas à leur puissance affective ? Et cette question, qui dépasse le cadre de la seule réfutation, est précisément ce vers quoi les stratégies d’inoculation ont commencé à se déplacer.

La propriété émergente : le milieu corrosif

Ce que la boucle produit n’est pas, au fond, un ensemble de fausses croyances. Les fausses croyances sont corrigibles. Lentement, imparfaitement, mais corrigibles. Ce que la boucle produit est d’un ordre différent : un milieu dans lequel les conditions normales d’évaluation des énoncés ont été structurellement altérées. Non pas une opinion fausse à corriger, mais une épistémologie dégradée. Non pas un mensonge détectable, mais l’impossibilité progressive de distinguer le mensonge du vrai.

Cette distinction n’est pas rhétorique. Elle est opératoire.

Lewandowsky, Ecker et leurs collaborateurs ont documenté ce qu’ils nomment le continued influence effect : une correction, même acceptée, n’efface pas l’effet de l’information initiale, qui continue de peser sur les jugements ultérieurs[9]. La correction coexiste avec l’information erronée dans la mémoire sans l’annuler. Dans un milieu épistémique fonctionnel, cet effet est contenu par la redondance des sources et la robustesse institutionnelle. Dans un milieu dégradé, il est amplifié par chaque rétroaction décrite ci-dessus, et la structure self-sealing du conspirationnisme lui ajoute une couche supplémentaire : la correction peut y être réabsorbée comme confirmation du dispositif de dissimulation.

C. Thi Nguyen a proposé une distinction analytique précieuse entre la bulle épistémique, dans laquelle les voix contraires sont simplement absentes, et la chambre d’écho dans laquelle les voix contraires sont présentes mais structurellement discréditées[10]. La bulle peut être percée en introduisant de la diversité. La chambre d’écho, non : elle a immunisé ses occupants contre la diversité elle-même. Le DCP ne produit pas des bulles. Il produit des chambres d’écho à ciel ouvert, où les voix contraires circulent abondamment mais sont reçues par une grammaire de soupçon qui les neutralise avant l’évaluation.

Pourquoi corriger ne suffit pas : l’analyse structurelle

Chaque stratégie de réponse disponible cible un composant du système. Aucune ne cible la boucle.

Le fact-checking opère sur le contenu de la désinformation. Il présuppose un récepteur en situation d’évaluation neutre, une source correctrice dotée de crédit institutionnel suffisant, et un canal d’accès non préalablement disqualifié. Dans un milieu dégradé, ces trois conditions sont simultanément défaillantes : la délégitimation anticipatoire a neutralisé la source, la grammaire du soupçon a recadré le démenti comme confirmation supplémentaire, et l’épuisement épistémique a conduit une fraction croissante du public à ne plus consulter. Le fact-checking reste indispensable, il maintient une référence publique accessible, protège les publics qui ne sont pas encore dans la chambre d’écho, impose un coût réputationnel aux producteurs de faux. Mais il ne corrige pas le milieu. Il dessine une carte pour un territoire dont la nature a changé.

Le contre-récit opère sur le modèle substitutif de la propagande : une image en chasse une autre. Il présuppose un récepteur qui compare des propositions concurrentes et retient la plus crédible. C’est exactement le modèle que le « reset du déficit de confiance » a rendu inopérant. Un récepteur dont la méfiance est devenue indifférenciée n’évalue pas le contre-récit sur ses mérites : il l’intègre à l’équivalence générale, comme une proposition parmi d’autres, sans boussole pour la distinguer de ce à quoi elle s’oppose.

La modération des plateformes cible les vecteurs de diffusion. Elle peut ralentir certaines circulations, interrompre certaines boucles d’amplification. Elle ne supprime pas la grammaire du soupçon déjà installée, et produit un effet secondaire documenté : chaque acte de modération devient, pour une fraction du public en chambre d’écho, la confirmation supplémentaire du récit de censure. Xenia Fedorova en a fait une carrière. Le dispositif fonctionne même lorsqu’il est exposé, et c’est précisément le signe qu’il fonctionne.

Il existe aussi une asymétrie structurelle que les stratégies de correction sous-estiment systématiquement : le coût de production d’un fragment de malinformation est proche de zéro. Le coût de correction est considérable : recherche, publication, distribution, lutte contre le continued influence effect, maintien de la crédibilité de la source correctrice. Cette asymétrie ne disparaît pas avec l’amélioration des outils. Elle est inhérente à la nature du système.

Ce qui peut fonctionner : la logique de l’inoculation

Il existe pourtant une intervention dont la logique est structurellement différente, et dont l’efficacité documentée mérite d’être prise au sérieux : l’inoculation.

Proposée initialement par William McGuire en 1961 pour étudier la résistance à la persuasion, et formalisée pour l’environnement informationnel contemporain par Sander van der Linden et Stephan Lewandowsky, l’inoculation procède par exposition préventive à une forme affaiblie de manipulation[11]. Avant que le récit manipulatoire n’arrive, le récepteur est exposé à ses mécanismes : non à son contenu spécifique, mais à sa structure. Il apprend à reconnaître le cherry picking, la fausse équivalence, l’inversion accusatoire, l’appel à l’émotion comme substitut à l’argument. Il est ensuite plus résistant aux effets de ces techniques, non parce qu’il a mémorisé une liste de faux à corriger, mais parce qu’il dispose d’outils pour identifier le type de manipulation avant d’en être affecté.

Ce déplacement du contenu à la structure est exactement ce que la nature de la boucle DCP requiert. Il ne s’agit plus de corriger ce que le système a produit, mais d’intervenir sur les conditions dans lesquelles ses productions seront reçues. Ce n’est pas sans limites : l’inoculation suppose un accès précoce, avant que la chambre d’écho ne soit pleinement constituée. Elle s’adresse aux individus, pas au milieu.

Cette série d’articles participe d’une logique voisine. La démonstration DHMO ne visait pas à informer sur l’eau : elle visait à installer une vigilance sur le cadrage lui-même. La distinction substitutif/inductif ne visait pas à décrire RT : elle visait à rendre visible la bifurcation entre deux régimes d’influence, afin que le lecteur puisse identifier lequel il affronte. La grammaire du soupçon n’est pas présentée comme une pathologie à dénoncer : elle est décrite comme un mécanisme à reconnaître, pour ne plus le subir à son insu.

La confiance ne se réclame pas

Il reste une question que l’inoculation ne résout pas seule : celle du rétablissement de la confiance institutionnelle.

La boucle DCP opère parce qu’elle a transformé une méfiance légitime (envers des institutions qui ont parfois menti, parfois échoué, parfois trahi) en méfiance structurelle, indifférenciée, imperméable à la démonstration. Cette transformation ne peut pas être défaite par la seule assertion de la crédibilité : c’est exactement le modèle substitutif, qui ne fait qu’alimenter l’équivalence. Les institutions ne rétablissent pas leur crédit en affirmant leur honnêteté. Elles le rétablissent en la démontrant, dans la durée, dans la transparence des processus, dans l’acceptation publique de leurs erreurs, dans la distinction visible entre l’incertitude assumée et la certitude construite.

Ce n’est pas une recommandation de communication. C’est une condition structurelle. Et elle heurte frontalement la logique des cycles médiatiques, de la gestion de crise institutionnelle, et de la communication politique contemporaine, qui privilégient systématiquement l’affirmation sur la démonstration, la cohérence apparente sur la complexité réelle. En ce sens, une partie des conditions qui rendent la boucle DCP possible est produite par les acteurs qui auraient le plus intérêt à la défaire.

Ce paradoxe ne sera pas résolu ici. Il est, peut-être, la véritable frontière du problème.

Clore la boucle, ou apprendre à y naviguer

Xenia Fedorova continue de censurer bruyamment. Les paréidolies continuent d’émerger spontanément dans les signaux ambigus. La grammaire du soupçon continue d’être le cadre d’accueil par défaut dans des pans croissants de l’espace informationnel.

Le système DCP ne sera pas éliminé par la connaissance de ses mécanismes. Mais un mécanisme visible est un mécanisme partiellement neutralisé, au moins pour ceux qui peuvent encore entendre sa description.

C’est la limite précise de ce que l’analyse peut accomplir. Elle ne protège pas les publics déjà installés dans la chambre d’écho. Elle n’annule pas l’épuisement de ceux que la boucle a consumés. Elle ne rétablit pas la confiance institutionnelle que la dégradation a détruite. Elle peut, en revanche, installer une résistance là où la chambre d’écho n’est pas encore fermée, c’est-à-dire là où il est encore temps.

Et c’est précisément là l’enjeu : non pas attendre que le substrat soit entièrement dégradé pour chercher à le reconstituer, mais maintenir, contre la pression systématique du solvant, la masse critique de citoyens capables de naviguer dans un espace informationnel qui ne leur fera jamais de cadeau.


[1] Chesney, R. et Citron, D. (2019). « Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security ». California Law Review, 107(6), 1753–1820. La notion de liar’s dividend y désigne le bénéfice secondaire retiré de la prolifération de contenus synthétiques : non pas convaincre de faux, mais rendre douteux l’authentique.

[2] Petty, R. E. et Cacioppo, J. T. (1986). Communication and Persuasion: Central and Peripheral Routes to Attitude Change. Springer-Verlag. Le modèle ELM reste le cadre de référence pour comprendre les conditions sous lesquelles le traitement analytique cède à la voie périphérique.

[3] Frankfurt, H. G. (2005). On Bullshit. Princeton University Press. L’essai, initialement publié en 1986 dans Raritan Quarterly Review, formule la distinction menteur/bullshitter comme une distinction structurelle et non morale : l’indifférence à la vérité comme propriété constitutive d’un mode de discours, non comme trait de caractère de son auteur.

[4] Slovic, P., Finucane, M., Peters, E. et MacGregor, D. G. (2002). « The Affect Heuristic ». In Gilovich, T., Griffin, D. et Kahneman, D. (dir.), Heuristics and Biases: The Psychology of Intuitive Judgment. Cambridge University Press, pp. 397–420. Cette référence était déjà mobilisée en note dans l’article 1 ; elle trouve ici son développement analytique complet.

[5] Haidt, J. (2001). « The Emotional Dog and Its Rational Tail: A Social Intuitionist Approach to Moral Judgment ». Psychological Review, 108(4), 814–834. Développé dans : Haidt, J. (2012). The Righteous Mind: Why Good People Are Divided by Politics and Religion. Pantheon Books.

[6] Brady, W. J., Wills, J. A., Jost, J. T., Tucker, J. A. et Van Bavel, J. J. (2017). « Emotion Shapes the Diffusion of Moralized Content in Social Networks ». Proceedings of the National Academy of Sciences, 114(28), 7313–7318. L’étude porte sur 563 000 tweets politiques et documente un effet additif par terme moral-émotionnel sur le taux de partage, indépendant de la valeur de vérité du contenu.

[7] Westen, D., Blagov, P. S., Harenski, K., Kilts, C. et Hamann, S. (2006). « Neural Bases of Motivated Reasoning: An fMRI Study of Emotional Constraints on Partisan Political Judgment in the 2004 U.S. Presidential Election ». Journal of Cognitive Neuroscience, 18(11), 1947–1958.

[8] Haidt, J. (2012), op. cit., ch. 4 : « Vote for Me (Here’s Why) ». Haidt y formule l’implication pratique de son modèle : « if you want to change someone’s mind about a moral or political matter, you’ll need to see things from that person’s angle of vision » — ce qui suppose d’adresser d’abord l’affect, non de le contourner par l’argument.

[9] Lewandowsky, S., Ecker, U. K. H., Seifert, C. M., Schwarz, N. et Cook, J. (2012). « Misinformation and Its Correction: Continued Influence and Successful Debiasing ». Psychological Science in the Public Interest, 13(3), 106–131.

[10] Nguyen, C. T. (2020). « Echo Chambers and Epistemic Bubbles ». Episteme, 17(2), 141–161. La distinction bulle/chambre d’écho est l’un des apports analytiques les plus opératoires de l’épistémologie sociale récente pour comprendre pourquoi la simple exposition à des voix contraires ne suffit pas à corriger les dynamiques de fermeture cognitive.

[11] McGuire, W. J. (1961). « Resistance to Persuasion Conferred by Active and Passive Prior Refutation of the Same and Alternative Counterarguments ». Journal of Abnormal and Social Psychology, 63(2), 326–332. Pour les développements contemporains : Lewandowsky, S. et van der Linden, S. (2021). « Countering Misinformation and Fake News Through Inoculation and Prebunking ». European Review of Social Psychology, 32(2), 348–384. Sur les applications numériques : van der Linden, S., Roozenbeek, J. et Compton, J. (2020). « Inoculating Against Fake News About COVID-19 ». Frontiers in Psychology, 11.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Retour en haut