Documentation générale Internet : trolls, et fermes à trolls.
4 articles.
Note préliminaire :
Ces articles ne traitent que des cas de la Russie et de la Chine, mais peuvent sans le moindre problème concerner aussi l’Occident.
Publié le 13 avril 2022
http://aredam.net/repression-politique-par-les-trolls.html

Illustration, Bienvenue dans le Meilleur des Monde :
http://aredam.net/ferme-a-trolls.mp4
Ferme à clicks :
http://aredam.net/ferme-a-clicks.mp4
Utilisation d’individus comme trolls :
https://youtu.be/lfka3g6veAk

Sommaire :

1 - La neutralisation de l’info : enquête chez les trolls russes
https://theconversation.com/la-neutralisation-de-linfo-enquete-chez-les-trolls-russes-101489

2 - La ferme à trolls du Kremlin
https://informnapalm.org/fr/la-ferme-trolls-du-kremlin/

3 - Manipulation des réseaux sociaux : comment fonctionne une ferme à troll
https://www.secunews.be/fr/themes-fr/assistance-et-prevention/4503-comment-fonctionnent-les-fermes-a-trolls-et-a-qui-profitent-elles
https://www.neotrouve.com/?p=10112

4 - Armée de trolls, "loups guerriers", web vitrines : plongée dans la nouvelle cyberpropagande chinoise
https://www.franceculture.fr/numerique/armee-de-trolls-loups-guerriers-web-vitrines-plongee-dans-la-nouvelle-cyberpropagande-chinoise





1 - La neutralisation de l’info : enquête chez les trolls russes

https://theconversation.com/la-neutralisation-de-linfo-enquete-chez-les-trolls-russes-101489

Publié: 21 août 2018, 22:55 CEST •Mis à jour le: 22 août 2018, 08:33 CEST

Auteurs

  1. Xymena Kurowska

    Marie Skłodowska-Curie Fellow, Aberystwyth University

  2. Anatoly Reshetnikov

    PhD Researcher, Central European University

Déclaration d’intérêts

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

Partenaires

Aberystwyth University

Aberystwyth University apporte un financement en tant que membre adhérent de The Conversation UK.

Voir les partenaires de The Conversation France


Les trolls russes sont les maîtres de la « neutrollisation » de l'info. Soumil Kumar/pexels

Adresse électronique


Les « usines à troll » en Russie font régulièrement la Une des journaux. Et sont suspectées d'être derrière de nombreuses campagnes de désinformation, comme l'a souligné Facebook ce mardi.

Elles ont tout d’abord surnommé les « gardiennes digitales » du Kremlin dans la blogosphère russe puis perçues comme de véritables cyber-légions subversives capables de perturber les élections américaines.

Au-delà du sensationalisme et des discussions passionnées au sujet de ces trolls plus ou moins impersonnels, des enquêtes ont également été menées avec eux, voire grâce à eux. En effet plusieurs de ces (ex) trolls russes ont souhaité témoigner et expliquer leurs agissements.

Nous savons désormais que certains d’entre eux n’ont pas pris leurs tâches – assurer une certaine propagande politique – très au sérieux, et nous connaissons, grâce à eux, le fonctionnement et l’organisation interne de la « ferme à trolls » nommée l’Internet Research Agency, un lieu où ont aussi travaillé de nombreux individus devenus ensuite lanceurs d’alerte.

Des analyses de qualité et sans publicité, chaque jour sur notre app.


Rencontre avec un ex-troll.

En plus d’employer un large nombre de commentateurs et blogueurs dont le discours a été pré-construit et orienté, l’agence a également recruté des « reporters » et chercheurs qualifiés, souvent polyglottes afin de mener un véritable travail d’enquête.

Plusieurs analyses statistiques sur un échantillon de posts de trolls ont par ailleurs montré que le trolling politique et institutionel et l’utilisation de bots appartiennent désormais à une pratique très généralisée, affectant l’espace public virtuel.

Ce qui est resté obscur jusqu’à présent est l’institutionnalisation politique des trolls au quotidien.

Nous manquons de recul et de connaissances quant à leur impact sur la relation entre état et société en général ainsi que sur les processus de sécurité en particulier.

Neutraliser les trolls

Lors de nos dernières recherches, nous voulions comprendre ce que font les trolls pro-Kremlin et comment ils évoluent dans la blogosphère russe.

Nous avons analysé comment les journalistes d’investigation sur les trolls se font troller, et avons remonté la piste des trolls encore chaude juste après l’assassinat du leader officieux de l’opposition Boris Nemtsov. Nous avons également interviewé d’anciens employés de l’Internet Research Agency par chats.

Connectés mais pas ensembles. Map Design/Shutterstock

Durant cette recherche nous avons trouvé un phénomène particulier que nous avons appelé « neutrollisation ». Cette pratique autoritaire fonctionne sur la co-optation, en puisant dans les discours de trolls anti-establishment et les retournant au profit du régime.

La neutrollisation empêche la société civile d’exposer le régime comme étant une menace puisqu’elle parvient à montrer que toute mobilisation politique est absurde.

Et tout engagement politique ne pourra que « nourrir le troll », c’est-à-dire, être aspirer par la spirale de trolls qui contribuent ainsi à atténuer toute velléité politique dans la sphère publique.

Trolls en actions

Contrairement à des opérations plus classiques de propagande, la neutrollisation ne pousse pas un agenda politique plus qu’un autre.

Les trolls pro-Kremlin font tellement de « bruit » en ligne qu’ils semblent porter la voix de tous les citoyens.

Ils propagent différentes rumeurs conspirationnistes et créent un espace public quasi-politique, mais vide, rempli uniquement de diverses opinions préfabriquées qui brouillent la toile.

C’est exactement ce qui s’est passé lors du meurtre de Boris Nemtsov. En mars 2015, les journaux Moy Rayon et Novaya Gazeta ont publié la liste de plus de 500 comptes appartenant à des trolls, ainsi que les instructions qui avaient été données ces trolls afin de gérer l’événement.

Ces sites ont également publié la liste des mots-clefs que les trolls devaient utiliser afin de faciliter la présence de leurs discours via les moteurs de recherches.

Ces instructions avaient pour but de propager l’idée selon laquelle le meurtre de Nemtsov avait été une provocation en aucun cas bénéficiant aux autorités officielles. Les trolls devaient également mettre en avant le fait que la mort de Nemtsov était en réalité une opération de communication destinée à soutenir ses camarades de l’opposition et montrer par ailleurs que des Ukrainiens étaient impliqués dans l’assassinat.

De plus, il leur était demandé de critiquer les « interférences » occidentales dans les affaires internes russes et de suggérer que l’assassinat était un prétexte afin d’exercer plus de pression sur la Fédération russe.

L’objectif n’était ainsi pas de blâmer une opposition politique concrète ou de trouver le commanditaire mais de générer de telles contradictions dans les informations diffusées et leur logique que tout usager lambda serait dégoûté et ne pourrait plus rien prendre au sérieux.

En brouillant ainsi les facultés cognitives critiques du citoyens – l’attirant dans un flux d’informations et le confondre – la neutrollisation va bien plus loin que la censure. Le processus n’a pas pour but de cacher la vérité ou d’imposer ses propres idées. Mais bien d’exploiter les limites de la libre expression et de l’action militante en conduisant les citoyens à se retirer d’eux-mêmes de la vie politique.

Contrairement à des formes plus classiques de propagande – où les médias encouragent l’opinion à prendre position – la neutrollisation encourage le cynisme.

Pendant ce temps, les trolls préservent un semblant de sincérité et d’authenticité en suivant les instructions données. Ils ne peuvent par ailleurs pas être « convaincus » car leurs tâches sont de faire imploser toute conversation importante.

Cette position rend quasiment impossible le travail de lanceurs d’alerte sur les trolls. Et les exposer comme « professionnels » du nihilisme est tout aussi insuffisant. Leur force est la précarité de leur travail utilisée au sein d’une puissante stratégie politique.

La neutrollisation n’est d’ailleurs pas limitée à la Russie et s’internationalise.

Le déploiement de bots destinés à interrompre le dialogue politique montre l’ampleur du phénomène. Certes l’impact sera peut-être moins fort qu’une opération de trolling menée avec le soutien d’un gouvernement, mais cette stratégie créée tout autant panique et désillusion.

-------------------------------------------------------------------------------
-------------------------------------------------------------------------------


2 - La ferme à trolls du Kremlin

https://informnapalm.org/fr/la-ferme-trolls-du-kremlin/

on 2015-01-31 | | A la une | Actualités | Les Actualités Print This Post  Print This Post

Un récent rapport est sorti sur le site sobaka.ru concernant une ignoble « Ferme à trolls du Kremlin » située au 55 rue Savoushkine à Saint-Pétersbourg.

Le site sobaka.ru (ce qui veut dire « chien » en russe) est un site d’information et de divertissement pour 14 des plus grandes villes de Russie.

Une femme qui y a travaillé dans ce qu’elle appelle une « gigantesque machine de propagande », nous a raconté, sous couvert d’anonymat, pourquoi « on ne peut pas rester longtemps à faire un tel travail », explique sobaka.ru.

La ferme à troll est capable d’attirer des travailleurs en diffusant largement des annonces dans les agences de recrutement, en annonçant chercher des « pigistes » ou des « gestionnaires web ». Même si ils essayent de cacher la véritable nature du travail, il n’y parviennent pas vraiment : le salaire (579 à 726 dollars mensuels) et l’adresse, toujours la même (métro Staraya Derevnya/Chernaya Rechka), sont associés dans les médias de Saint-Pétersbourg à la « guerre d’information » du président Vladimir Poutine.

Lors de l’entretien, fort peu est dévoilé sur le travail, la norme étant que pour un tel salaire, les gens ne posent pas trop de questions.

Le salaire de base pour des blogueurs — ceux qui écrivent dans les journaux internet et les réseaux sociaux — et autres « gestionnaires web », dont les optimiseurs de moteurs de recherche et les designers d’infographies patriotiques appelées « illustrations », est de 45.000 roubles, soit 653 dollars. Ceux qui sont mieux placés gagnent 797 à 939 dollars.

Pour entrer dans l’immeuble de la rue Savoushkine, il vous faut montrer votre passeport, si vous n’êtes pas encore dotés d’un passe. Les manageurs récupèrent beaucoup d’informations vous concernant : vos précédents employeurs, et mêmes les endroits où travaillent vos parents. Puis, ils vous demandent de « réécrire » un article récent. L’ancienne employée témoigne :

« Tu as l’impression qu’ils recrutent quiconque peut montrer qu’il sait parler et écrire russe. Ce faisant, ils ne révèlent rien sur le lieu ou la mission ; ils disent « c’est une holding de médias, elle gère plusieurs sites, vous devez maximiser le trafic d’informations, le salaire est supérieur à la moyenne ».

Chaque « Troll » doit travailler de 9 heure à 17 heure 30 et écrire 20 brèves, dont 70 % doivent être des originaux.

« Il y a au total 12 sites dans la holding, si j’ai bien compris, qui traitent de diverses thématiques, mais tous ont un lien d’une manière ou d’une autre à la politique et à l’Ukraine », explique l’ex-employée.

La carte de visite mentionne « Agence de presse fédérale », mais l’essentiel des informations transitent par une agence appelée « Agence de presse de Kharkiv » (paradoxalement appelée nahnews.com.ua). « Bien que le site fasse semblant d’être ukrainien, toutes les publications sont issues du 55 rue Savoushkine », explique le témoin. Il y a d’autres sites « Ukrainiens » tels que le très connu « Anti-Maidan », qui a été lancé en Juillet 2014. Le site ne présente pas des fausses informations brutes, comme d’autres sites de propagandes russes, mais suit la ligne de Moscou, en désignant les insurgés appuyés par la Russie combattant en Ukraine comme étant « la milice » [équivalent ukrainien de la police].

La « ferme » rappelle « Big Brother », explique l’ex-troll :

« Les premiers jours, tu ne comprends tout simplement pas où tu es, pourquoi tu réécris ces infos et en alimentes les sites. Tu as l’impression que c’est une sorte d’expérience sociologique ou de télé-réalité, notamment parce que dans chaque open-space, travaillent 20 à 30 employés, sous l’œil des caméras.

Il n’y a jamais de réunions éditoriales, ni même de briefings idéologiques ; on s’attend à ce que les travailleurs sachent quoi faire, et les instructions ne viennent que des rédacteurs en chef. L’essentiel des employés semblent venir de villes provinciales russes, et ce sont souvent des jeunes hipsters — souvent avec des dreadlock et des piercings. Les travailleurs sont divisés en trois catégories, nous explique l’ancienne employée :

1. « Ils me payent et je me moque du reste, je ne sais même pas ce qui se passe' » – beaucoup de ces gens ont des familles, des emprunts, etc.
2. « Oui, je sais que c’est une usine à trolls du Kremlin, mais je vais pas culpabiliser — ils me paient et ça me suffit »
3. « Je suis en guerre d’information contre la junte fasciste ! » — cette dernière catégorie compte le moins de personnes.
« On ne nous demande pratiquement rien sur nos convictions politiques quand on est recruté », dit-elle.

L’agence n’occupe qu’un étage sur les quatre du 55 rue Savouchkine. Les autres étages sont occupés par d’autres activités de trolls, ceux qui écrivent des messages hostiles sur les forums, par exemple. Ceux qui travaillent sur les sites « Ukrainiens » considèrent ces derniers avec ironie, mais aussi avec une certaine appréhension.

Les patrons ne recherchent qu’une chose — la quantité, le nombre de vues et de visiteurs journaliers, un nombre qui est censé s’accroître de 3000 par jour. Le département des optimiseurs de moteurs de recherche font du spam agressif, et c’est pourquoi les sites sont souvent bloqués sur Google et VKontakte.

Les manageurs harcèlent leurs gestionnaires de sites, ces derniers se tournant vers leurs employés pour trouver des scoops et être les premiers à les reprendre. Il y a une attention particulière pour les assassinats, les viols et autres faits divers policiers, puis dans un second temps les ragots du monde du business, des infos sur les chanteurs pop tels que Pugacheva ou Madonna, afin d’obtenir un maximum de visiteurs. Les articles hostiles aux homosexuels sont très populaires, de même que ceux sur le féminisme et les activistes ukrainiennes de Femen, mais l’essentiel est associé à « Poutine, la Crimée et la Novorussiya, » explique l’ex-pigiste.

Le fait que les manageurs justifient la nécessité d’augmenter les visites d’internautes pour obtenir des revenus publicitaires, fait sourire, car tout le monde sait que cette entreprise est subventionnée par le gouvernement.

Puis, ce travail moralement exigeant fut trop pesant, dit l’ancienne troll :

« Ma décision de quitter la « réserve de troll » a mis du temps à mûrir. D’un côté, je me rendais compte qu’un travail non manuel avec un salaire décent pour Saint-Pétersbourg serait dur à trouver avec la crise ; pas un seul jour rue Savouchkine n’ai-je été confrontée à une difficulté technique insurmontable. Le problème était lié au fardeau psychologique de ce travail . En décembre, j’ai commencé à avoir un tic à l’œil du fait du stress et je rêvais la nuit que j’écrivais et réécrivais des nouvelles sur Poutine et l’Ukraine. De plus, j’adhère au point de vue libéral. Parmi mes connaissances, il y a pas mal de gens qui adhèrent aux thèses de l’opposition, et au bout d’un moment, je me suis rendu compte que j’avais tout simplement honte de dire où je travaillais. Tous cela a surpassé la recherche du confort, et j’ai démissionné avec soulagement ».

----------------------------------------------------------------------------
----------------------------------------------------------------------------



3 - Manipulation des réseaux sociaux : comment fonctionne une ferme à troll

https://www.secunews.be/fr/themes-fr/assistance-et-prevention/4503-comment-fonctionnent-les-fermes-a-trolls-et-a-qui-profitent-elles

https://www.neotrouve.com/?p=10112

par Néo Trouvetout · 9 mars 2021

Partagez cet article sur les réseaux sociaux !

La ferme à trolls est une technique de manipulation très efficace, de plus en plus répandue sur les réseaux sociaux. Elle consiste à utiliser des faux-comptes dans le but de diffuser massivement un message destiné à influencer l’opinion publique.

La plupart du temps, ces campagnes de désinformation sont financées par des groupes politiques, des activistes ou des entreprises peu scrupuleuses.  Même si elles sont difficiles à identifier, le meilleur moyen de s’en prémunir est de rester conscient de leur existence, d’en comprendre le mécanisme et d’acquérir quelques points de repères pour les détecter.


Un troll, un bot, un netbot : en quoi cela consiste-t-il ?


Le terme « troll » est principalement utilisé pour désigner une personne qui offense ouvertement et agressivement un utilisateur pour initier un conflit. Il cherche donc à jeter de l’huile sur le feu pour faire dérailler les conversations et provoquer des réponses émotionnelles qui bannissent toute réflexion constructive. Dans le cas des fermes organisées, les trolls s’immiscent dans les conversations et diffusent de faux messages avec de faux comptes.


Un bot est également un faux-compte, mais il n’est pas géré par une vraie personne. C’est donc un robot qui est programmé le plus souvent pour partager, liker ou retweeter des milliers de fois un message identique. Un netbot rassemble en réseau une grande quantité de bots servant le même objectif.


Lorsque les fermes à trolls sont secondées par un réseau de bots, elles deviennent des armes redoutables, capables d’influencer des élections nationales ou de déstabiliser tout un pays. Un système d’autant plus efficace qu’il n’est pas toujours très onéreux.


Qui fait usage des fermes à trolls et pourquoi ?


On ne compte plus le nombre d’articles du New York Times ou du Guardian détaillant des campagnes de trolling à grande envergure. Ces dernières peuvent avoir des projets très variés tels qu’influencer les résultats des élections américaines, propager une image pro-Poutine en Russie ou en Ukraine, provoquer des manifestations, décrédibiliser la démocratie ou encore affaiblir l’économie européenne.


En 2019, L’INA, la revue française des médias, accusait 48 Etats de pratiquer le trolling politique. En 2020, le Service européen de l’action extérieure dénombrait 80 campagnes issues de médias russes pro-Kremlin ciblant directement l’Union européenne.


Ces campagnes colportent des fake news pour inciter les gens à se rallier à ce qu’on veut leur faire croire. Elles créent aussi l’illusion qu’une importante communauté de personnes partagent un avis, qu’il y a un réel mouvement populaire sur une thématique, alors que ce n’est pas le cas.


Mais l’action politique n’est pas l’unique objectif de ces campagnes. Il peut également s’agir de truquer un sondage en utilisant un nombre calculé de faux-comptes pour manipuler les résultats. Certaines entreprises n’hésitent pas à s’approprier la technique en vue de décrédibiliser un concurrent, de diffuser une gigantesque campagne publicitaire ou d’amplifier les messages positifs sur leurs produits. Il est techniquement possible de louer un netbot ou une ferme à trolls pour une action courte et précise.

Comment se déroule une campagne de fausse information ?


En mai 2020, un Community manager d’une agence internationale s’est confié anonymement dans 
El Pais. Il y explique en détail la stratégie d’amplification artificielle de messages sur Twitter.


Pour chaque projet, des conversations sont analysées et une cartographie des acteurs du débat est dressée, avec une liste des comptes favorables et défavorables.


Les trolls savent ainsi avec qui ils doivent interagir. D’après son témoignage, il existe deux catégories de trolls : les « alpha » et les « bêta ». Les « alpha » s’arrangent pour devenir populaires et interagissent avec les experts reconnus et les internautes. Ils prennent parfois le relais des bots lorsque ceux-ci sont interpellés personnellement. Les « bêta » jouent leur rôle de troll en insultant certains profils réputés, ce qui a pour effet d’enflammer les commentaires et d’amener les experts à s’autocensurer.


En parallèle, une armée de bots est programmée pour liker ou retweeter des posts et pour diffuser des messages à des heures programmées. Cela permet de faire gagner rapidement une thématique ou une personne en popularité. 


Une campagne ainsi organisée exige entre 1500 et 2000 bots et trolls et peut coûter jusqu’à un million d’euros.


Il existe une série de tactiques à suivre pour empêcher Twitter de repérer les trolls :

  • Ils ne se suivent pas entre eux et ont peu d’interactions les uns avec les autres pour éviter qu’on ne puisse cartographier le réseau

  • Ils évitent les modèles répétitifs en utilisant des schémas d’écriture différents

  • Ils utilisent des API différents et modifient leurs adresses IP

  • Chaque compte est personnalisé avec une photo, un nom et une biographie.



Quelques astuces pour identifier les faux comptes Twitter


Le Digital Forensic Research Lab (DFRLab) a identifié 12 critères qui peuvent aider à repérer un bot sur Twitter :

  • L’activité : selon Oxford Internet Institute et @DFRLab, un compte devient suspect s’il diffuse plus de 50 ou 70 tweets par jour. Au-delà de 144 tweets, il est considéré comme hautement suspect. Surtout si ces périodes d’hyperactivité alternent avec des mois d’inactivité.

  • L’anonymat : le plus souvent, les faux comptes ont des avatars anonymes. Leur biographie ne dévoile aucune information personnelle et la localisation est indéfinie ou imprécise.

  • L’amplification : en recherchant sous l’onglet « Tweets et réponses », on se rend compte qu’un bot a un large pourcentage de retweets ou de citations intégrales de l’actualité. Il peut partager les nouvelles d’un site donné, mais sans commentaire.

  • Peu de messages/beaucoup de réactions : si le compte n’a diffusé que quelques messages likés des milliers de fois, il y a de grandes chances pour que cela cache un robot.

  • Contenu commun : si de nombreux comptes partagent un contenu identique, il est possible qu’il s’agisse d’un réseau de bots.

  • Lorsque les retweets d’un message sont effectués par des comptes majoritairement sans photo de profil, il y a des raisons de se méfier.

  • Les faux profils utilisent parfois des photos volées. Une recherche inversée sur l’image de profil avec Google image permettra de les identifier.

  • Certains noms doivent éveiller l’attention, comme des descripteurs alphanumériques ou des noms qui ne correspondent pas au profil (un nom masculin pour une photo de femme, par exemple).

  • Lorsqu’une personne écrit dans de nombreuses langues différentes, il est possible que ce soit un faux profil. Surtout si l’objet principal de ses publications est d’ordre publicitaire.

  • Les profils qui ne publient que des annonces publicitaires sont suspects. Il peut en effet s’agir de botnets commerciaux loués à une entreprise désireuse de booster sa publicité.

  • Lorsque les publications d’un profil passent toutes par une plateforme de diffusion automatique, comme TweetDeck ou IFTTT, il est intéressant de vérifier s’il s’agit d’une vraie personne.

  • Lorsque la liste des personnes qui retweetent est presque identique à la liste des personnes qui likent le tweet, il vaut mieux vérifier s’il s’agit bien d’une vraie personne.


-------------------------------------------------------------------------------
-------------------------------------------------------------------------------

4 - Armée de trolls, "loups guerriers", web vitrines : plongée dans la nouvelle cyberpropagande chinoise

https://www.franceculture.fr/numerique/armee-de-trolls-loups-guerriers-web-vitrines-plongee-dans-la-nouvelle-cyberpropagande-chinoise


20/09/2021 (mis à jour à 07:02)

Par Olivier Poujade

Un vaste rapport de l’Institut de Recherche Stratégique de l’École Militaire (IRSEM) révèle les nouvelles armes d'influence de la Chine dans le monde entier. Une offensive très développée grâce au cyber. La rédaction internationale de Radio France a pu consulter ces 650 pages en avant-première.

"Le parti peut compter sur  2 millions de commentateurs payés, directement employés par le bureau des affaires cyber" indiquent les enquêteurs. Ainsi que "20  millions de trolls à temps partiel".• Crédits : Fort Worth Star-Telegram / Tribune News Service - Getty

Une enquête d’une ampleur sans précédent, de plus de 640 pages et 3 000 notes, réalisée par l’Institut de Recherche Stratégique de l’École Militaire (IRSEM), organisme parapublic, met au jour la gigantesque stratégie d’influence de la Chine. Un changement de doctrine, plus agressive, destinée à convaincre voire contraindre et imposer le récit de Pékin à tous les étages des sociétés dans le monde. Ce rapport sera rendu public ce lundi, dans le contexte de la crise des sous-marins australiens, au moment où rejaillit la question du positionnement français vis-à-vis des États-Unis et de la Chine.

Les moyens mis en œuvre sont spectaculaires. C’est bien cet aspect-là du rapport qui donne le vertige. Des dizaines de milliards de yuans sont investis mais surtout plusieurs millions de personnes sont réquisitionnés pour servir les intérêts de Pékin.

À LIRE AUSSI

La stratégie d’influence chinoise : un réseau tentaculaire qui veut désormais s’imposer au reste du monde

Près de 22 millions de commentateurs internet rémunérés

Ces petites mains sont pilotées par l’unité 61070 chargée de la propagande réseaux au sein de la base 311, le cœur opérationnel de l’influence chinoise. Elles sont chargées des opérations informationnelles, tactique directement inspirée de la méthode russe, et se divisent en deux catégories.

Des trolls, en chair et en os, sont notamment sollicités pour pratiquer l’Astroturf dont l'objectif est d’inonder les réseaux ciblés d’un maximum de messages de désinformation en donnant l’illusion d’un soutien spontané ou d’une dénonciation populaire authentique pour contre attaquer les discours hostiles au régime.

Mais le chiffre annoncé par les auteurs de l’enquête concerne ceux que l’on appelle couramment “l’armée des 50 centimes”. Leur travail d’occupation s'applique moins à intervenir sur les sujets de discorde qu’à allumer des contre-feux en distrayant le public et en assurant la promotion de la Chine. "Le parti peut compter sur  2 millions de commentateurs payés, directement employés par le bureau des affaires cyber" indiquent les enquêteurs. Auxquels il faut aussi ajouter les “20  millions de trolls à temps partiel, à la demande,  externalisés dans des fermes, notamment en Malaisie. L’Armée Populaire de Libération (APL) tient à sa disposition une constellation de pigistes prêts à diffuser cette désinformation et à assurer la publicité de la Chine.

Pékin s’appuie également sur des “web vitrines”. Des plateformes intermédiaires proposant de l’argent en échange de la publication d'articles à disposition. La ferme de contenus  KanWatch incite ses adhérents à partager ses contenus  moyennant rémunération, de 12,60  euros  à 126 euros selon la longueur du message.

Un nombre considérable de sites ou fermes de contenu apparaît au fil des pages de ce rapport, Big Durian, Mission, beeper.live, citant un article de The Reporter, les auteurs indiquent que “431 fermes de contenus étaient liées à un certain Evan Lee, qui serait basé en Malaisie”.