Quelle forme prend la propagande des Etats sur les réseaux sociaux ?

Print Friendly, PDF & Email

De plus en plus, les Etats et les partis politiques commencent à investir les réseaux sociaux pour propager un discours de propagande. Quels sont actuellement les moyens de propagande qu’ils essaient de mettre en œuvre actuellement ? Tentative de portrait.

I. Introduction : la propagande 1.0

Mais avant cette tentative de portrait de la propagande 2.0, il est à mon sens utile de revenir sur les concepts de propagande et  de communication de masse.

Durant la seconde révolution industrielle, cette masse va donner lieu à de nouvelles organisations politiques modernes. On verra l’apparition de syndicats, partis de masses à base populaire et un moyen d’action nouveau : la grève. De plus, le peuple acquiert aussi le droit de vote et la gestion de cette masse devient donc un enjeu politique et économique. On commence alors à étudier la foule. (Tarde, Sighele, Gustave le Bon) Pour ce dernier, la foule adopte un comportement irrationnel quand :

  • Elle obtient un nombre conséquent
  • Quand il y a une contagion au sein de ce nombre conséquent
  • Quand il y a des leaders qui suggèrent les comportements à adopter.

Il fallait donc découvrir qui étaient les leaders d’opinion afin de s’en servir comme relais, contrôler la foule pour qu’elle se sente constamment isolée et seule tout en s’assurant que les phénomènes de contagion soient ceux mis en place par le pouvoir.

Se développent à cette époque deux théories pour contrôler les foules, toutes les deux associés au vocabulaire médical :

  • La suggestion hypnotique  : (Charcot) on hypnotiserait la foule pour lui faire croire ce que l’on veut.
  • La seringue hypodermique : (Lasswell) très associé avec la communication de masse où  les médias injecteraient leurs messages dans le corps social à l’image d’une seringue dans le corps humain.

C’est le deuxième modèle qui sera davantage exploité, car rapidement on s’est rendu compte que les suggestions hypnotiques n’avaient que peu d’effets.  La presse est donc un instrument extrêmement important et tout le monde veut dès lors posséder son propre journal.

Cependant, la place des conversations était loin d’être négligeable. Il fallait donc s’assurer que la seringue hypodermique agisse, mais aussi que personne ne vienne essayer de contredire ce qui était injecté. Les bars, lieux de rencontres et places publiques sont jugés importants dans la diffusion des idées.

Du côté de la Russie, Lénine fait le même constat : la propagande ne peut reposer uniquement que sur la presse. La propagande des bolcheviques se doit d’être centrale et en réseau. Lénine lui donne le nom d’agitation (propagation de la propagande par le bouche-à-oreille) et publie également un journal illégal. Il rend la communication plus souple avec des brochures et des tracts et forme des « agitateurs », spécialiste de la question.

Vient alors la Seconde Guerre mondiale, qualifiée de  totale dans la mesure où tout le monde est impliqué. Laswell disait déjà après la 1re guerre mondiale « le gouvernement de l’opinion est un corollaire direct de la guerre totale ».

La place des citoyens et de leur moral est alors primordiale. Tout est alors exploité : presse, affiches, pamphlets, tracts, cinéma. À cette époque aux USA, on se rend compte de l’importance des contenus diffusés dans la presse. Il faut alors créer un Comittee on Public Information, non pas pour « censurer », mais pour « aider à s’exprimer », sorte d’autocensure qui sera acceptée par presque l’ensemble des journalistes dans un intérêt national. Ce processus se fait de manière visible et ouverte. Les vecteurs sont alors :

  • Les journalistes
  • Les professeurs d’école
  • La publicité
  • Les films
  • Les relayeurs publics

Dans le même temps, les relations publics se développent au sein des industriels pour lutter contre le « muckracking », soit le fait de tenir des reportages, articles et enquêtes sur des sujets de société. Ils sont vus comme des « fouille-merdes ».

Figure de proue  des Relations Publics, Edward Bernays reprend un des constats de Le Bon pour l’adopter à la communication :  il faut d’abord influencer les leaders des groupes pour qu’ensuite ils influencent le groupe. Cette idée sera développée par Lazarsfeld avec son Two Step Flow of communication.

Plus encore, il faut adapter les messages à chacun des groupes. À cette époque, l’idée est d’étiqueter toute autre communication comme de la propagande dans l’idée de décrédibiliser l’adversaire : « vous faites de la propagande » L’idée négative de la propagande est erronée selon lui, car « pour propager quelque chose, il faut bien le faire d’une manière ou d’une autre ».

Après la guerre froide, la propagande faisait partie intégrante de la guerre. S’est développée alors la notion de « soft power », c’est-à-dire la pouvoir par la culture, le sport et autres. On s’affronte alors dans la danse, les échecs, le sport, la musique, le cinéma et la littérature.

Depuis, la propagande n’a pas réellement changé dans sa théorie de départ, uniquement dans ses formes. (journalistes embarquées, pool, guerre de l’image, frappe chirurgicale, etc.) Concrètement les techniques de propagande visent :

  1. À se servir des médias de masse pour atteindre une population conséquente (La seringue hypodermique) S’il n’est pas possible d’assurer la propagande dans les médias de masse, il faut créer des médias alternatifs.
  2. À s’introduire dans les conversations de bouche-à-oreille
  3. Avoir une logique de réseau pour s’assurer à la fois les médias de masse et les conversations.

II. La propagande 2.0

Comme pour tous les secteurs de la société, les états n’ont pas vu venir les réseaux sociaux et le Web 2.0. Certains attribuent le printemps arabe à la nouvelle propagation de l’information. Les initiatives affluent en ce moment, mais reprennent les mêmes bases que la propagande depuis les débuts. Voyons ensemble quelques exemples pour chacun des différents points plus hauts.

1. Se servir des médias de masse

La plupart des états ont des médias qui ont leur service dédié à la politique. Leurs paroles sont donc relayées, tout comme celle de l’opposition.

a) L’état islamique ; l’agit-prop 2.0

Toutefois, il en est un qui souhaite avoir une propagande externe dans les pays étrangers et qui ne dispose pas de média local :  l’État islamique. Il va tenter alors d’obtenir « de la vision presse » par tous les moyens. Alors qu’ils pourraient simplement communiquer via Telegram ou des outils internes, ils ont pour consignes d’investir Twitter dans l’espoir de communiquer vers l’extérieur.

Ils vont alors tenter de citer des journalistes dans l’espoir d’avoir une couverture :

Palmyra

Les décapitations sont aussi utilisées dans le but d’obtenir de la visibilité dans la presse. Rien ne vaut par ailleurs une personnalisation du message en faisant jouer des acteurs locaux :

À côté de ce processus, l’État islamique a décidé d’être mobile en diffusant des magazines dans la langue des pays étrangers :

Capture d’écran 2016-06-08 à 15.19.01

La propagande reprend les anciennes bonnes recettes : agir de façon mobile et reposer sur les petits réseaux. Des sites furent également créés, mais ceux-ci sont finalement très peu utiles. En effet, selon Rue 89, sur 244 sites pédopornographiques bloqués en France, il y avait 68 sites terroristes. Les deux cumulés ont fait l’objet de  35 000 pages vues. Parmi celles-ci :

  • 99 % cherchaient à se rendre sur des sites pédopornographiques ;
  • 1 % sur des sites terroristes.

Ce type de propagande fait donc un flop total, malgré les déclarations de nombre de politiciens. Rajoutons également les fausses informations comme la série des underhacks… sans ne rien hacker.

Signalons ensuite une tactique de seringue hypodermique assez maligne puisque lorsque le gouvernement français avait lancé sa campagne StopDjihadisme, des robots de l’État islamique ont investi le hashtag pour déverser leur propre propagande :

Capture d’ecran 2015-01-31 à 23.54.08

Pour ce faire, ils ont multiplié les sources puisque les vidéos possédaient des URL différentes venant soit de vid.me, soit de diverses URL YouTube.

b) La riposte de la France et des USA : la seringue hypodermique

Pour lutter contre ce discours, la France et les USA ont voulu proposer un « contre-discours » sous la forme de deux comptes : Think Again Turn away, et Stop Djihadisme. Ces deux comptes sont pourtant de vastes caricatures de la seringue hypodermique. Jamais la démarche n’est ciblée, les réseaux sociaux sont considérés comme un village global dans lequel les discours circulent au sein du corps social. Du coup, ils ne sont suivis que par les observateurs de la situation, et les comptes du gouvernement.

La seringue hypodermique est également utilisée par les bots niveaux 1. Je distingue 3 types de bots :

  1. Celui qui tweete bêtement avec son propre hashtag, sans hashtag ou sans trending topic.
  2. Celui qui tweete les trendings topics
  3. Celui qui tweete dans les trending topics, qui se fait retweeter par d’autres robots tout en plaçant son propre trending topic.

Typiquement, cette « contre-propagande » des anti-ivg s’inscrit dans le niveau 1 et considère également Twitter comme un village global où tous les messages sont vus par l’ensemble du corps social.

Propagande Bot

c) Iran : Les robots là où il y a du monde

L’Iran utilise des robots qui se suivent par années de création. Ils sont chargés d’inonder des hashtags avec la propagande.

Astroturfing Iran 2 Astroturfing Iran 3

On peut ainsi voir ce genre d’imagine circuler :

iran4

Autre technique utilisée : celle de camper les trendings topic des pays européens. Ainsi lors d’une analyse pour Libéralisme, j’avais pu isoler une communauté de robot ayant écrit à eux seuls presque 17 000 tweets à 17.

Iran 2

Les messages étaient les suivants :

Iran 3

d) La propagande Anti-Israël :  ad hominem

Plus subtil, et plus proche de l’approche de Two Stop Flow sans encore l’atteindre, le spamming en privé quand on tweete un article ou un mot particulier :

2. S’introduire dans le bouche-à-oreille

Le but de cela est de jouer sur le « bandwagon effect », soit un phénomène par lequel on a tendance à copier les idées croyances et tendances si ceux-ci sont communément adoptés.

a) L’usine à troll de Poutine

Autrefois technique maîtresse des bolchéviques, il est donc normal de trouver les Russes à la pointe dans ce style de technique pour de la propagande à la fois interne et externe. En effet, ils ont développé une usine à troll où une centaine de « soldats numériques » sont chargés de commenter les forums et sites d’informations russes et étrangers. Le but est de produire un maximum de textes valorisant la Russie de Poutine. La technique est la même que ceux de l’ultra-droite comme le confiait un ancien du Bloc Identitaire au Midi Libre :

Tout était assez codifié. Il fallait en priorité « squatter » les sites d’information générale à la recherche de toutes les informations « raciales » possibles. Monter en épingle les faits divers lorsqu’ils concernaient des étrangers, quitte à les faire « mousser » sur Facebook ou sur les forums. Les réseaux sociaux et les commentaires dans les articles de presse étaient l’idéal pour ça.

Nous avions clairement identifié l’idée qu’il fallait que nous ayons des pseudonymes « réguliers » de manière à recruter à nos idées, de manière à ce que les gens, à force de lire notre nom se disent : « Il a raison ce gars-là » et se rapprochent de nous. Il fallait aussi créer des profils « ponctuels » juste pour donner l’effet de masse, donner l’impression que c’était la « base » des gens qui pensaient comme nous. Ça, c’était facile, parce que globalement les gens partagent nos idées sur les délinquants.

Mais il fallait agir subtilement. Ne jamais parler des Arabes et des Blancs en tant que tels, mais reprendre des thèmes « humanistes » en parlant par exemple des « nantis antiracistes et mondialistes qui cherchent à écraser les pauvres qui supportent le racisme antiblanc ».

On apprend également que parmi d’autres propagandistes russes font plus dans la dentelle puisqu’ils créent différentes identités de blogueurs sur des plateformes afin de développer plusieurs fausses identités chargées de bloguer. Cette technique, dite de « Sockpuppets » avait déjà utilisé par les Chinois pour décrédibiliser leur adversaire italien dans le rachat du Club Med. Ils avaient créé de multiples faux profils d’experts, bien introduits dans les Pure Players français pour décrédibiliser Bonomy.

81

b) Les « Algorithmes » d’Israël

Pour Israël, qui englobe la lutte contre l’état d’Israël et contre l’antisémitisme, il faut aller au-delà de « simples messages contradictoires », il faut « parvenir à réguler les flux de ces écrits ». Ils ont alors écrit des algorithmes pour lutter « contre le nombre incroyable de messages négatifs ».

  • Ils créent des algorithmes pour augmenter la visibilité des messages pour qu’ils soient plus viraux « grâce à des codes » pour qu’ils circulent mieux sur la toile.
  • Pour les messages négatifs, ils tendent de « circonscrire les propos » tout en précisant qu' »ils n’empêchent pas les gens de tenir de tels propos ».

Israël dit se préoccuper de son image positive et se dit le premier pays au monde qui permet d’interagir avec les messages. Le mot « Combat digital » est d’ailleurs avancé.

Si les propos sont assez incroyables dans la bouche d’un officiel de pays qui dit agir sur n’importe quel message pour diminuer ou augmenter sa visibilité, il convient toutefois de tempérer les élans, car il me semble que nous soyons encore loin de pouvoir aller au-delà de cela.En effet, pour mettre en place un tel service, il faudrait un logiciel de veille ultra-développé qui permettrait de faire deux choses :

  1. Rechercher des messages sur base de mots-clefs sémantique ou des images (on peut penser au logo des BDS par exemple)
  2. Pouvoir agir sur les commentaires en négatif ou en positif.

1. La recherche de données

Cela est possible sur Twitter, nettement moins sur Facebook ou d’autres supports. En effet, l’API de Facebook ne permet pas de voir les messages de quidam, même si ceux-ci sont visibles par tous. Impossible donc récupérer les messages de haines sur ces plateformes.

Il reste cependant une solution qu’à mon sens aucun pays, entreprise ou autres n’a pensé :

  1. Des robots de recherche : avoir de multiples robots qui à l’instar des robots de Google vont aller tester toutes les possibilités de pages Facebook et compiler les pages ne renvoyant pas une erreur 404 dans une gigantesque base de données.
  2. Crawler les contenus des pages : une fois que les pages sont identifiées, il faut aller un deuxième type de robot qui fonctionnera via API et qui sera capable de récupérer le contenu de toutes ses pages publiques. On parle d’association, d’ONG, de médias, de clubs de football, etc.
  3. Tous ces messages sont alors stockés dans une base de données qui peut classer les messages soit par individus (pour faire un recueil de tous les messages d’une personne) soit par termes/thèmes. (Pour faire des recherches sur base de cette base de données.)

Une autre possibilité serait d’inverser le processus de recherche d’information et ne pas travailler sur des mots-clefs, mais sur des personnes. On ne recherche alors plus un mot contradictoire, mais on met sous le « scope » une série d’individus identifiés pour avoir un comportement que l’on recherche. Pour cela il suffirait de faire un triangulation soit sur base de mots-clefs soit sur base de comptes. Je m’explique :

  • Je cherche des personnes anti-israël. Je vais alors définir un certain nombre de comptes Twitter propagandistes Anti-Israel (prenons des comptes BDS ou autres). Je vais alors extraire les followers de chaque compte et regarder la redondance de profil. Je mets alors tout ce beau monde sous surveillance pour pouvoir agir en négatif sur les messages.

Identification des détracteurs pour Areva

  • Autre technique : je définis un nombre de mots-clefs anti-israël, comme BDS, ou autres mots-clefs. Je regarde ceux qui cumulent plusieurs termes connotés négativement, je surveille et j’agis par rapport à eux. Cette technique était déjà visible en 2014 puisqu’une carte via des hashtags pro/anti israélien avait pu permettre de réaliser une cartographie Social Network Analysis (orange = pro-israélien ; jaune = Propalestinien ; Rose = musulmans)

1-YI3QuyzhfVCzKQeGLcY4Mw

Toutefois, toutes ces techniques sont pour le moment inconnus de tous ceux à qui j’ai pu parler. Il est donc peu probable que l’on puisse assister à cela d’Israël.

Pour terminer, Israël via l’Organisation sioniste mondiale avait développé un algorithme censé pouvoir identifier le contenu anti-juif d’un site. L’application est appelée Sniper.

2. Agir en positif ou en négatif.

Là où tout cela se corse, c’est dans le fait « d’agir » sur le message pour lui conférer une visibilité « virale » ou une « invisibilité ». En effet, cela est peu possible.

En positif

Si l’on peut à la limite imaginer des robots qui vont liker des statuts pour que ceux-ci soient plus visibles, ils n’agiront que sur des posts d’organisations publiques, pas sur des quidams où transite la haine.  Sur Twitter, il n’y a pas d’algorithme de Feed, donc il n’est pas possible de jouer « artificiellement sur la viralité » puisque même des robots n’enverront la visibilité qu’à d’autres robots et personne ne verra le message. On peut toutefois voir passer sur le profil d’Elad Ratson cette initiative : donner de l’amour à Israël et l’ambassade vous retweetera.

Si c’est cela l’effet de viralité, les Israéliens vont être vite déçus parce qu’ils reproduisent une seringue hypodermique auprès d’un public qui a choisi de les suivre. Ils vont donc prêcher des convaincus et n’assurer absolument aucune viralité. Ils n’auront même pas de trending topic vu que chaque ambassade tweete dans un pays différent. Il reste une possibilité sur Twitter : l’achat de comptes développé pour avoir une armée de comptes à fort pouvoir et potentiel. En effet, certaines personnes développent des comptes humoristiques dans le but d’obtenir une audience et puis de les revendre. Le rachat de ceux-ci pourrait alors permettre de réaliser de la propagande, mais celle-ci devra être subtile..

En somme, c’est exactement ce que fait ce jeune troll sur le Web : manipuler les tendances via ses centaines de comptes récupérés dans des hacks/hameçonnages. Si un ado vivant à La Réunion arrive à le faire, j’imagine que cela doit être largement possible pour un état.

Le négatif

Pour le négatif, il n’y a absolument aucune explication possible sur une quelconque technique pour rendre moins visible et viral un contenu. Et c’est donc là où les supputations et hypothèses seront les plus proches de la théorie du complot. Soit c’est du pipeau et de la propagande sur des faits non tangibles soit il y a des accords avec Google/Facebook/Twitter.

 

Je reste donc assez dubitatif sur cette sortie médiatique, mais trouve assez intéressants les propos tenus sur ce qu’ils nous disent des stratégies et des désirs de certains états.

3. Avoir une logique de réseau pour s’installer dans les médias et les conversations

a) Les communautés propalestiniennes

Pour les communautés propalestiniennes, il y a des réseaux extrêmement bien organisés. Ceux-ci sont formés à ce qu’ils appellent la « tweetstorm ». Souvent des sites éphémères sont mis en place et expliquent l’action/le but, fournissent un tutoriel sur la tweetstorm ainsi que des tweets prêts à l’emploi où il ne suffit plus que de cliquer ! C’est ainsi que pour Tel-Aviv sur Seine, quelqu’un avait via cette plateforme et certainement un bot tweeté plus de 5683 fois.

76

Cela leur a permis d’être trending topic, attirant le regard des internautes et des médias.

b) Les communautés d’extrême droite

Leur but est de « réécrire une actualité » et que cette réécriture soit présente dans les médias. Pour ce faire, la mécanique de la fachosphère est toujours la même.

  • Une actualité qui sert leur intérêt survient
  • Une personne l’isole et la transmet au reste du réseau
  • Les nœuds de réseaux s’activent et le taux de partage est particulièrement conséquent
  • La presse pense qu’ils tiennent un soulèvement populaire et le répercute.

III. Conclusion

Il y a 80 % de chance que vous n’arriviez jamais à cette partie de l’article, mais le but de cet article est de montrer que de multiples techniques commencent à s’émerger et que la propagande commence doucement à s’installer dans les sphères numériques. Il est donc nécessaire de sensibiliser les différents acteurs (étatique, journalistes, professeurs, etc.) pour décrypter ce phénomène le plus vite possible avant qu’il ne soit plus détectable sans disposer des notions de départ. Toutefois, l’ensemble de ses techniques ne diffèrent pas des fondements de la propagande « 1.0 ». Les approches et théories sous-jacentes sont toujours les mêmes, seule la forme change. Parfois de façon assez naïve ou avec du bluff comme certains exemples présents dans cet article l’illustrent. Reste que le plus intéressant est l’intention de départ : la cyberwar sera au centre des occupations très prochainement.