Pas mal de journalistes se posent aujourd’hui des questions sur l’analyse des réseaux sociaux suite au phénomène des gilets jaunes, notamment depuis la sortie d’un article du Times mettant en scène une analyse d’une entreprise de Cybersécurité. Forcément, nous sommes à 10 M de tweets en un mois. Le volume a dépassé aujourd’hui ce qu’il est possible d’analyser à une simple échelle (API, Processeurs, etc.)
Ce volume, comme celui de l’affaire Benalla, dépasse tous les volumes jamais observés. Les attentats de Paris avaient 1 M de tweets. Londres, 2 M mondialement,Berlin 300 000, Nice 1,5 M mondialement, balance ton Porc en France 450 000 sur 5 mois.Cette augmentation de volume tout à fait soudaine depuis l’été pose question :
- S’agit-il d’une évolution démographique de Twitter ? (Plus d’utilisateurs actifs ?)
- D’une évolution des usages ?(Un militantisme plus exacerbé ?)
- Une tension politique (convergence des luttes contre Macron ?)
- Une autre explication ?
A. Les freins à l’analyse
En l’état, l’analyse du phénomène prend plus de temps que la circulation des choses et va se confronter à plusieurs freins :
- Les chercheurs sont payés et sont évalués sur leur propension à publier des articles scientifiques. L’analyse de l’actualité fait pas partie de leur mission malgré un intitulé stérile de “service à la société”
- La publication d’article est davantage orientée vers la recherche de la théorie, que la description du réel. Cela implique que le chercheur doit relier son analyse de l’actualité à des théories existantes (Économie de l’attention, travailleurs du clic, etc.)
- Les chercheurs doivent constituer eux-mêmes leurs équipes dans un temps relativement restreint en prenant le bon de la captation des données relativement vite. Face à un torrent de 10 M de tweets, pour isoler des enseignements, il faut aller au-delà du quantitatif afin d’éviter les poncifs. Seul, l’analyse est donc impossible. Cela prend du temps et des personnes.
- Enfin, le fait que les données ne soient disponibles que sur Twitter et pas sur les autres réseaux sociaux est également un biais inhérent à la recherche en la matière. On observe une migration des comportements d’influence de Twitter vers Facebook tout à fait logique, car Facebook est un western dont seul Facebook est le shérif. Dans un premier temps, il était plus facile pour les usines à trolls de s’installer sur un réseau social public ouvert que sur un réseau privé. Les groupes privés et le temps a fait que ce constat n’est plus de mise, et que Twitter n’est que la pointe émergée de l’iceberg.
B. Les indicateurs utilisés pour établir une ingérence et leurs biais
Vient ensuite le cas des possibles ingérences étrangères. Celles-ci sont extrêmement difficiles à prouver. Un pseudo restant un pseudo, les méthodes actuelles restent très éloignés des enseignements des sciences dures où l’on cherche à prouver sans doute le réel. Les chercheurs sont obligés de rechercher des indicateurs. Ces indicateurs ont toutes les faiblesses qu’ont les indicateurs traditionnels, car ils peuvent être manipulés, peuvent être expliqués par d’autres variables, etc. Il suffit de prendre l’exemple d’indicateurs d’autres sciences comme le PIB le taux de chômage, l’indice de bonheur, le salaire moyen (jugé comme nul et remplacé par le salaire médian), etc. pour voir qu’il est très compliqué de trouver un indicateur qui ne soit pas biaisé en soi. Un indicateur n’est qu’une indication et non pas une valeur en soi. Dans l’état de l’art des études sur les ingérences étrangères, les indicateurs sont :
- Le degré de production. Beaucoup de littérature scientifique pointe le fait d’assister à du sockpuppet, botting et consors lorsqu’un certain degré d’activité est observé, généralement entre 800 et 1200 tweets par jour. (on frôle le tweet par minute sans dormir) Le parti pris est de se dire que s’il y a une usine à troll, celle-ci doit fonctionner via des séries d’activité de 8 heures de travail, voire plus. Seulement (merci l’affaire Benalla) parmi ces auteurs ultractifs, il y a également une partie de personnes ultra actives au chômage et ultra motivées politiquement qui pratiquent énormément le retweet. Cet indicateur n’est donc qu’un indice de contamination et comporte de nombreux biais. Certains critiquent également le fait de prendre en compte le retweet. Cette critique n’est pas réellement étayée, car pour les usines à trolls, il est plus facile de retweeter que de créer des messages propres.
- La comparaison avec un écosystème pro-russe. Autre méthode, le comparatif entre les ultras actifs et un écosystème de référence pro-russes. Cette méthode part du principe que s’il y a troll farming, celui-ci sert également à pusher les médias ayant une lunette des événements pro-russes. (Sputnik, RT) Cette méthode a donné de bons indicateurs pour identifier des réseaux de désinformation, mais souffre d’un biais certain : corrélation n’est pas causalité. Il est logique que les désinformations soient axés contre le pouvoir et que le contre-pouvoir exercé par ces médias soit relié ensemble. Si cela peut donc être un bon indicateur de départ, voire une bonne méthode de veille au départ, il ne peut donc prouver une ingérence russe.
- La comparaison avec une base de données de désinformations antérieures. La constitution d’une base de données de désinformations ayant circulé auparavant pour identifier les nouvelles est une méthode qui a fonctionné, mais qui a le gros souci d’avoir sa base de données détruite très rapidement du fait des blocages de comptes par Twitter. Par ailleurs, dans certaines opérations de désinformation (Emmanuel Macron financé par l’Arabie Saoudite, ou l’utilisation des blogs de Mediapart / l’Express pour faire croire à “Macron Cahuzac”) les réseaux utilisés pour assurer la propagation avaient été créés pour l’occasion et ne pouvaient donc pas se retrouver dans les bases de données.
C. Les problématiques de la recherche en la question
Les indicateurs ont donc tous des faiblesses et des biais inhérents à leurs méthodes. De plus la recherche en la matière se retrouve bloqué par rapport au fait que :
- Tous ces indicateurs utilisent des bases de données d’individus. Les réactions au cas du Disinfolab cet été a bien prouvé à quel point cela est sensible, car cela implique un choix de société entre une société de la surveillance et une société de la liberté. L’arrivée du RGPD complique fortement l’analyse de ces cas, même si elle ne l’interdit pas, au contraire. Ceux qui font l’étude sont juste dans un flou total entre les CGU de Twitter déclarant toutes les données publiques et les législations sur les données sensibles.
- Ces recherches s’ancrent autour de débats extrêmement politiques pour lesquels il est presque impossible de participer au débat sans recevoir une volée de commentaires dans tous les sens de personnes qui ne lisent même pas le contenu, mais le considère d’emblée comme étant de la propagande, voire une opération déguisée du pouvoir.
- Si les preuves et indices d’ingérence sont nombreux, leur impact est incertain et la narration selon laquelle les fake news ont conduit à l’election de Trump et du Brexit n’est pas étayée. De manière générale, le débat des fake news est un axe diplomatique et d’influence énorme entre d’une part l’axe atlantique et l’axe russe / chinois, chacun s’accusant l’un l’autre. (Voir encore ici les gilets jaunes entre USA et russes) On vogue d’ailleurs entre espace public et milieu du renseignement, car si l’état peut être au courant de tentatives de manipulation externes, il ne peut utiliser ses services de renseignement pour en apporter la preuve dans l’espace public. Il est donc en quête de publications publiques pour assurer la visibilité de cela. Les études sont donc toutes récupérées politiquement, non sans faire d’énormes raccourcis au passage. Le cas du disinfolab où une comparaison avec un écosystème de référence qualifié de russophile était devenu “des bots russes” était assez criant.
- De plus, il restera toujours le débat de l’oeuf et la poule. Si de simples messages sur les réseaux sociaux arrivent à fonctionner, cela serait du fait qu’il y a des failles exploitées qui sont réelles.
Le constat est donc que la problématique peut difficilement être adressée en combattant par l’analyse et l’enquête les désinformations. La plupart des colloques et conférences sur le sujet en arrivent à la conclusion que l’analyse et l’étude, seules, ne suffisent pas. Deux solutions ont émergé : le fact-checking (poussé par un lobby médiatique qui y a vu une opportunité de récupérer toute une série de budgets) et l’éducation aux médias.
La première solution envisage les individus comme des personnes perdues et troublées par une désinformation à qui il faut injecter un remède. Seulement, la plupart des études sur les désinformations prouvent que les personnes propageants celles-ci sont complètement éloignées de l’écosystème médiatique et on se retrouve face à des personnes qui voient la désinformation, mais jamais l’infirmation tandis que les personnes voyant l’infirmation n’avaient pas vu la désinformation en premier lieu.
La deuxième solution, celle de l’éducation aux médias, est une solution qui prend tellement de temps qu’elle apparait lointaine par rapport à la problématique actuelle.
Par ailleurs, il n’existe presque aucun expert par rapport à ces questions ou sur des niches de contenu. Le profil de ceux qui peuvent avoir le bagage technique et théorique de faire ce genre d’étude est rapidement capté par les différents organismes et n’ont donc plus droit à la parole publique. Les experts rassemblés pour traiter de ces questions sont donc des personnes qui profitent de la visibilité du débat pour avancer ou sont invitées à partager leur expertise dans un champs relié aux fake news. ( Bulle de filtres, algorithmes, réseaux sociaux, etc.) Je resterai à jamais marqué par une audition auprès d’un ministre belge où un expert interrogé me dit en sortant “de tout façon, moi je m’en fiche, c’est surtout que ca consomme de l’énergie cette affaire.” Bref tout cela pour dire que nous sommes dans un flou totale puisqu’aucune question n’a de réponse.
Toujours est-il qu’en l’état des choses, il est impossible de prouver une ingérence russe sur base des indicateurs à notre disposition. Seuls les GAFA et les journalistes d’investigation ont les clés.