Comment la propagande perd son auteur

Il existe une idée reçue tenace sur la propagande : elle aurait toujours un visage. Un régime, une institution, un réseau identifiable qui tire les ficelles. Cette représentation est rassurante : elle suppose qu’il suffit de trouver la source pour démonter le discours. Mais elle décrit mal ce qui se passe réellement.

La propagande la plus efficace est celle que l’on ne peut pas attribuer. Celle qui circule sans signature, reprise par des relais qui y croient sincèrement, dans des espaces où personne n’a reçu d’instruction. Ce texte propose un modèle pour comprendre comment un discours fabriqué au sommet finit par s’installer comme opinion ordinaire à la base, et pourquoi ce voyage le rend quasiment inattaquable.

Ce que ce modèle refuse

Avant d’aller plus loin, une mise au point nécessaire : expliquer que la propagande se diffuse sans que chaque relais en soit conscient, ce n’est pas nier qu’il existe un stratège à l’origine. La question n’est pas son existence, mais la manière dont son intention se dissout dans la chaîne de diffusion.

Ce que le modèle refuse, c’est de supposer que l’intention du stratège habite chaque maillon de la chaîne. La plupart des personnes qui relaient un discours de désinformation n’ont aucune idée qu’elles le font. Certaines y croient dur comme fer. D’autres le reprennent parce qu’il sert leur propre intérêt, sans savoir à qui elles rendent service. Cette distinction n’est pas un détail : elle change complètement la façon dont on peut analyser le phénomène, et la façon dont on peut y répondre.

Un dispositif en quatre niveaux

Il faut comprendre la propagande comme un circuit de diffusion, organisé en strates successives, et dont les propriétés changent radicalement à chaque niveau.

Niveau 0 : le stratège. Il conçoit le circuit, fixe les objectifs, définit les narratifs à propager. C’est le seul acteur qui voit l’ensemble du dispositif. Les opérateurs du niveau suivant peuvent eux-mêmes ignorer l’architecture dans laquelle ils s’inscrivent.

Niveau 1 : les opérateurs. Ce sont des acteurs périphériques : commentateurs, relais médiatiques, personnalités publiques, dont le comportement est structurellement aligné sur le dispositif, sans qu’un lien direct et documentable avec le stratège soit nécessairement établi. Ils produisent et injectent le discours. Leur proximité à la source est maximale ; leur portée, précisément parce qu’ils sont identifiés et surveillés, reste limitée.

Niveau 2 : les amplificateurs. C’est à ce niveau que la rupture de traçabilité devient décisive. On y trouve des acteurs qui ne reçoivent aucune instruction. Sur un sujet précis, ils trouvent dans un narratif de désinformation quelque chose qui sert leur propre ligne : une conviction, un positionnement politique, une audience à fidéliser. Ils s’en emparent et l’amplifient avec leurs propres mots, leur propre légitimité, dans leurs propres réseaux. Ils ne sont ni commandités, ni dupes : ils sont opportunistes sur un point de convergence. Et c’est précisément leur autonomie qui les rend si utiles au dispositif : elle rompt toute traçabilité.

Niveau 2 bis : le noyau conspirationniste. Une variante spécifique du niveau précédent, mais avec une mécanique différente. Là où les amplificateurs convergent ponctuellement sur un thème, le noyau conspirationniste offre quelque chose de plus puissant : une infrastructure narrative déjà construite. Ces acteurs disposent d’un réseau, d’une audience fidèle et d’une grille de lecture installée : méfiance envers les institutions, les élites, les médias dominants. Les narratifs de désinformation ne s’y greffent pas un par un : ils s’y encastrent comme système dans un système, trouvant une réceptivité d’ensemble plutôt que thématique.

Niveau 3 : les récepteurs. Ce sont les relais ordinaires qui relaient de bonne foi un discours faux. La diffusion est maximale, la traçabilité nulle. Parmi eux, trois situations se distinguent : ceux qui n’ont tout simplement pas accès aux informations qui contrediraient ce qu’ils croient ; ceux qui y ont accès mais ne changent pas d’avis (backfire effect : la correction renforce parfois la croyance au lieu de la réduire) ; et ceux pour qui la croyance est devenue un marqueur identitaire. Dans ce dernier cas, démentir le narratif, c’est attaquer le groupe. Ce n’est plus une question d’information, c’est une question d’appartenance.

Le schéma de diffusion documenté par VIGINUM pour le mode opératoire informationnel Storm-1516 offre une illustration empirique de ce modèle à une échelle inédite[1]. S’appuyant sur 77 opérations conduites entre août 2023 et mars 2025, le rapport distingue plusieurs étapes dans la chaîne de diffusion : primo-diffusion, blanchiment des contenus, amplification, puis reprises opportunistes. La dernière est la plus révélatrice. VIGINUM y identifie deux types de reprise de nature différente : les relais institutionnels russes d’un côté, les « écosystèmes pro-russes occidentaux » de l’autre ; une distinction qui recoupe exactement celle entre opérateurs identifiés et amplificateurs autonomes. Et le rapport emploie, pour qualifier l’objectif de la phase d’amplification, une formule que le présent modèle vise précisément à théoriser : provoquer la reprise « inconsciente ou opportuniste » des narratifs par d’autres acteurs. La distinction est là, nommée dans un cadre opérationnel. Ce qui reste à construire, c’est le cadre analytique qui explique pourquoi cette autonomie, inconsciente ou opportuniste, est une propriété structurelle du dispositif, et non un effet secondaire.

Pourquoi le système est conçu pour nier son existence

Cette architecture est pensée autour d’un objectif simple : le déni plausible. C’est sa fonction principale.

La pensée stratégique russe emprunte ici la méthode du contrôle réflexif : la capacité d’induire des comportements chez d’autres acteurs sans les contrôler directement, de sorte qu’ils portent la responsabilité apparente de leurs actions. Quand un acteur du deuxième niveau reprend un narratif avec ses propres mots et ses propres motivations, sans instruction reçue, sans lien documentable avec la source, la dénégation du stratège est littéralement vraie. Et vérifiable. C’est le deuxième niveau lui-même qui rend le déni possible.

Un exemple permet de rendre ce mécanisme concret. Le narratif attribuant à l’OTAN une responsabilité dans le déclenchement de la guerre circule abondamment dans l’espace informationnel européen depuis 2022. Ce narratif ne naît pas en 2022 : il préexistait dans des espaces anti-atlantistes, souverainistes et conspirationnistes bien antérieurs à l’invasion. Dans les dispositifs russes identifiables, il est structuré, relancé et orienté par des opérateurs alignés. Ce qui assure sa diffusion massive, c’est le niveau 2, et les deux types d’amplificateurs y fonctionnent selon des logiques différentes qui convergent vers le même effet. Les cercles anti-atlantistes le relaient parce que tout discours incriminant l’OTAN renforce leur lecture préexistante : l’Alliance comme instrument exclusif de l’hégémonie américaine. Ils n’ont pas besoin de croire à la version russe du conflit : il leur suffit que le narratif soit cohérent avec leur cadre. Les milieux conspirationnistes l’absorbent différemment. L’OTAN y est déjà encodée comme puissance occulte, dont l’agenda serait nécessairement néfaste. Le narratif ne les persuade pas, il confirme. Ni les uns ni les autres n’ont reçu d’instruction. Ni les uns ni les autres ne savent nécessairement à qui ils rendent service. La dénégation du stratège est, là encore, littéralement vraie.

Ce qui rend les données de l’enquête EUI / YouGov d’avril 2022 particulièrement révélatrices, c’est leur date : le terrain a été sondé deux mois après l’invasion à grande échelle, avant que des effets cumulatifs de désinformation puissent être mesurés à cette échelle. À la question portant sur la plus grande menace pour la sécurité de leur pays, 46 % des Bulgares et 38 % des Slovaques désignaient alors la puissance et l’influence américaines, devant la Russie. En Grèce, 25 % ; en Hongrie, 20 % ; en Italie, 16 %. Ces dispositions ne peuvent pas être réduites aux effets de la séquence de désinformation postérieure à l’invasion de février 2022 : elles lui préexistent au moins comme terrain de réception. Le narratif sur la responsabilité de l’OTAN ne crée donc pas un espace vierge ; il exploite des croyances déjà disponibles. C’est précisément ce qui rend la phase d’intégration finale si robuste : le discours ne s’installe pas contre la résistance du récepteur. Il s’y encastre.[2]

Plus le discours se diffuse, moins il s’attribue

Le tableau suivant résume le paradoxe central :

NiveauProximité à la sourcePortéeTraçabilité
1MaximaleFaible à moyenneEncore possible
2 / 2bisRompueMoyenne à forteTrès difficile
3NulleMaximaleImpossible

Les acteurs les plus proches de la source ont la portée la plus faible. Les récepteurs, qui représentent la portée maximale, n’ont aucun lien documentable avec quiconque. Au stade final, le discours est devenu natif : il circule comme une opinion ordinaire, sans auteur visible, sans mémoire de son origine.

C’est ce qui rend le démenti tardif si peu efficace. Réfuter un narratif qui s’est installé au niveau 3, c’est se heurter non plus à une croyance, mais à une identité. La correction arrive trop tard, et souvent en renforçant la méfiance qu’elle voulait dissoudre. La seule réponse structurellement efficace est l’inoculation : exposer les gens au mécanisme avant qu’ils en soient victimes, et non après.

Le blanchiment narratif

Ce modèle s’inscrit dans un cadre analytique formalisé à partir de 2018 par plusieurs chercheurs travaillant indépendamment (notamment Korta, Meleshevich et Schafer), et documenté depuis par diverses équipes spécialisées dans les opérations d’influence[3]. Ces travaux utilisent la métaphore du blanchiment d’argent pour décrire le processus, et la correspondance est parlante.

Le blanchiment financier fonctionne en trois phases : placement (l’argent sale entre dans le circuit), empilement (il transite par suffisamment de couches pour que l’origine soit brouillée), intégration (il ressort propre, indiscernable des fonds légitimes). Le blanchiment narratif suit exactement la même logique.

PhaseNiveauCe qui se passe
PlacementNiveau 1Le narratif est produit et injecté
EmpilementNiveaux 2 / 2bisIl est repris, reformulé, amplifié : la traçabilité se rompt
IntégrationNiveau 3Il circule comme opinion ordinaire, sans origine visible

Mais la métaphore révèle aussi une différence fondamentale. Dans le blanchiment financier, l’intermédiaire de la phase d’empilement sait ce qu’il fait. Il est complice. Dans le blanchiment narratif, l’acteur de niveau 2 peut parfaitement croire à ce qu’il relaie. Et c’est précisément sa bonne foi, ou son opportunisme appuyé sur des biais de confirmation, qui rend la phase d’empilement plus robuste. Un intermédiaire convaincu est bien plus difficile à décrédibiliser qu’un agent identifié.

Ce que ce modèle ajoute n’est donc pas une nouvelle appellation pour le blanchiment narratif. C’est une précision sur sa mécanique humaine. Le discours ne perd pas seulement son origine parce qu’il passe par des infrastructures opaques ; il la perd parce qu’il rencontre des acteurs qui n’ont pas besoin d’être contrôlés pour devenir utiles.

La conséquence ultime n’est pas seulement la circulation d’un mensonge. C’est la transformation du milieu informationnel lui-même. Quand les récits fabriqués finissent par circuler comme des opinions ordinaires, le problème n’est plus seulement que des publics croient les fausses informations. C’est qu’ils ne savent plus d’où parlent les discours qu’ils reprennent.

La propagande atteint alors son point de maturité : elle n’a plus besoin d’auteur visible. Elle a produit un environnement où chacun peut devenir son relais sans jamais se penser comme tel.


[1]SGDSN / VIGINUM, Analyse du mode opératoire informationnel russe Storm-1516, rapport technique, 7 mai 2025, 40 p. Disponible sur sgdsn.gouv.fr.

[2]EUI / YouGov, SOU and Solidarity 2022, Q68 (« Which ONE of the following do you think is currently the biggest threat to security in your country? »), terrain : 1-25 avril 2022, n = 23 134 adultes représentatifs dans 17 pays européens.

[3]Voir notamment Kirill Meleshevich et Bret Schafer, “Online Information Laundering: The Role of Social Media”, Alliance for Securing Democracy / German Marshall Fund, 9 janvier 2018 ; ainsi que les travaux de Korta sur l’Information Laundering 2.0. Le modèle en trois phases (placement, layering, integration) est repris notamment par Darren Linvill et Patrick Warren dans “Infektion’s Evolution: Digital Technologies and Narrative Laundering”, Clemson Media Forensics Hub, 2023.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Retour en haut