Publié:
21 août 2018, 22:55 CEST •Mis à jour le: 22 août 2018, 08:33
CEST
Auteurs
Xymena
Kurowska
Marie
Skłodowska-Curie Fellow, Aberystwyth University
Anatoly
Reshetnikov
PhD
Researcher, Central European University
Déclaration
d’intérêts
Les
auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas
de parts, ne reçoivent pas de fonds d'une organisation qui
pourrait tirer profit de cet article, et n'ont déclaré aucune
autre affiliation que leur organisme de recherche.
Partenaires
Aberystwyth
University apporte un financement en tant que membre adhérent
de The Conversation UK.
Voir
les partenaires de The Conversation France
Les
trolls russes sont les maîtres de la « neutrollisation »
de l'info. Soumil
Kumar/pexels
Adresse
électronique
Les
« usines
à troll » en Russie font régulièrement la Une des
journaux. Et sont suspectées d'être derrière de nombreuses
campagnes de désinformation, comme l'a
souligné Facebook ce mardi.
Elles
ont tout d’abord surnommé les « gardiennes digitales »
du Kremlin
dans la blogosphère russe puis perçues comme de véritables
cyber-légions subversives capables de perturber les élections
américaines.
Au-delà
du sensationalisme et des discussions passionnées au sujet de
ces trolls plus ou moins impersonnels, des enquêtes ont
également été menées avec eux, voire grâce
à eux. En effet plusieurs de ces (ex) trolls russes ont
souhaité témoigner
et expliquer leurs
agissements.
Nous
savons désormais que certains d’entre eux n’ont pas pris
leurs tâches – assurer une certaine propagande politique –
très au sérieux, et nous connaissons, grâce à eux, le
fonctionnement et l’organisation interne de la « ferme
à trolls » nommée l’Internet
Research Agency, un lieu où ont aussi travaillé de nombreux
individus devenus ensuite lanceurs d’alerte.
Des
analyses de qualité et sans publicité, chaque jour sur notre
app.
Rencontre
avec un ex-troll.
En
plus d’employer un large nombre de commentateurs et blogueurs
dont le discours a été pré-construit et orienté, l’agence a
également recruté des « reporters » et chercheurs
qualifiés, souvent
polyglottes afin de mener un véritable
travail d’enquête.
Plusieurs
analyses statistiques sur un échantillon de posts de trolls ont
par ailleurs montré que le trolling
politique et institutionel et l’utilisation de bots
appartiennent désormais à une pratique très généralisée,
affectant l’espace public virtuel.
Ce
qui est resté obscur jusqu’à présent est
l’institutionnalisation politique des trolls au quotidien.
Nous
manquons de recul et de connaissances quant à leur impact sur la
relation entre état et société en général ainsi que sur les
processus de sécurité en particulier.
Neutraliser
les trolls
Lors
de nos dernières recherches,
nous voulions comprendre ce que font les trolls pro-Kremlin et
comment ils évoluent dans la blogosphère russe.
Nous
avons analysé comment les journalistes d’investigation sur les
trolls se
font troller, et avons remonté la piste des trolls encore
chaude juste après l’assassinat du leader officieux de
l’opposition Boris
Nemtsov. Nous avons également interviewé d’anciens
employés de l’Internet Research Agency par chats.
Connectés
mais pas ensembles. Map
Design/Shutterstock
Durant
cette recherche nous avons trouvé un phénomène particulier que
nous avons appelé « neutrollisation ». Cette
pratique autoritaire fonctionne sur la co-optation, en puisant
dans les discours de trolls anti-establishment et les retournant
au profit du régime.
La
neutrollisation empêche la société civile d’exposer le
régime comme étant une menace puisqu’elle parvient à montrer
que toute mobilisation politique est absurde.
Et
tout engagement politique ne pourra que « nourrir le
troll », c’est-à-dire, être aspirer par la spirale de
trolls qui contribuent ainsi à atténuer toute velléité
politique dans la sphère publique.
Trolls
en actions
Contrairement
à des opérations plus classiques de propagande, la
neutrollisation ne pousse pas un agenda politique plus qu’un
autre.
Les
trolls pro-Kremlin font tellement de « bruit » en
ligne qu’ils semblent porter la voix de tous les citoyens.
Ils
propagent différentes rumeurs conspirationnistes et créent un
espace public quasi-politique, mais vide, rempli uniquement de
diverses opinions préfabriquées qui brouillent la toile.
C’est
exactement ce qui s’est passé lors du meurtre de Boris
Nemtsov. En mars 2015, les journaux Moy Rayon et Novaya Gazeta
ont
publié la liste de plus de 500 comptes appartenant à
des trolls, ainsi que les instructions qui avaient été données
ces trolls afin de gérer l’événement.
Ces
sites ont également publié la liste des mots-clefs que les
trolls devaient utiliser afin de faciliter la présence de leurs
discours via les moteurs de recherches.
Ces
instructions avaient pour but de propager l’idée selon
laquelle le meurtre de Nemtsov avait été une provocation en
aucun cas bénéficiant aux autorités officielles. Les trolls
devaient également mettre en avant le fait que la mort de
Nemtsov était en réalité une opération de communication
destinée à soutenir ses camarades de l’opposition et montrer
par ailleurs que des Ukrainiens étaient impliqués dans
l’assassinat.
De
plus, il leur était demandé de critiquer les « interférences »
occidentales dans les affaires internes russes et de suggérer
que l’assassinat était un prétexte afin d’exercer plus de
pression sur la Fédération russe.
L’objectif
n’était ainsi pas de blâmer une opposition politique concrète
ou de trouver le commanditaire mais de générer de telles
contradictions dans les informations diffusées et leur logique
que tout usager lambda serait dégoûté et ne pourrait plus rien
prendre au sérieux.
En
brouillant ainsi les facultés cognitives critiques du citoyens –
l’attirant dans un flux d’informations et le confondre – la
neutrollisation va bien plus loin que la censure. Le processus
n’a pas pour but de cacher la vérité ou d’imposer ses
propres idées. Mais bien d’exploiter les limites de la libre
expression et de l’action militante en conduisant les citoyens
à se retirer d’eux-mêmes de la vie politique.
Contrairement
à des
formes plus classiques de propagande – où les médias
encouragent l’opinion à prendre position – la
neutrollisation encourage le cynisme.
Pendant
ce temps, les trolls préservent un semblant de sincérité et
d’authenticité en suivant les instructions données. Ils ne
peuvent par ailleurs pas être « convaincus » car
leurs tâches sont de faire imploser toute conversation
importante.
Cette
position rend quasiment impossible le travail de lanceurs
d’alerte sur les trolls. Et les exposer comme
« professionnels » du nihilisme est tout aussi
insuffisant. Leur force est la précarité de leur travail
utilisée au sein d’une puissante stratégie politique.
La
neutrollisation n’est d’ailleurs pas limitée à la Russie et
s’internationalise.
Le
déploiement de bots destinés à interrompre
le dialogue politique montre l’ampleur du phénomène.
Certes l’impact sera peut-être moins fort qu’une opération
de trolling menée avec le soutien d’un gouvernement, mais
cette stratégie créée tout autant panique et
désillusion.
-------------------------------------------------------------------------------
-------------------------------------------------------------------------------
2
- La ferme à trolls du
Kremlin
https://informnapalm.org/fr/la-ferme-trolls-du-kremlin/
on
2015-01-31 | | A
la une | Actualités
| Les
Actualités
Print
This Post
Un
récent rapport
est sorti sur le site sobaka.ru
concernant
une ignoble « Ferme à trolls du Kremlin » située au
55 rue Savoushkine à Saint-Pétersbourg.
Le
site sobaka.ru (ce qui veut dire « chien » en
russe) est un site d’information et de divertissement pour 14
des plus grandes villes de Russie.
Une
femme qui y a travaillé dans ce qu’elle appelle une
« gigantesque machine de propagande », nous a
raconté, sous couvert d’anonymat, pourquoi « on ne peut
pas rester longtemps à faire un tel travail », explique
sobaka.ru.
La
ferme à troll est capable d’attirer des travailleurs en
diffusant largement des annonces dans les agences de recrutement,
en annonçant chercher des « pigistes » ou des
« gestionnaires web ». Même si ils essayent de
cacher la véritable nature du travail, il n’y parviennent pas
vraiment : le salaire (579 à 726 dollars mensuels) et l’adresse,
toujours la même (métro Staraya Derevnya/Chernaya Rechka), sont
associés dans les médias de Saint-Pétersbourg à la « guerre
d’information » du président Vladimir Poutine.
Lors
de l’entretien, fort peu est dévoilé sur le travail, la norme
étant que pour un tel salaire, les gens ne posent pas trop de
questions.
Le
salaire de base pour des blogueurs — ceux qui écrivent dans
les journaux internet et les réseaux sociaux — et autres
« gestionnaires web », dont les optimiseurs de
moteurs de recherche et les designers d’infographies
patriotiques appelées « illustrations », est de
45.000 roubles, soit 653 dollars. Ceux qui sont mieux placés
gagnent 797 à 939 dollars.
Pour
entrer dans l’immeuble de la rue Savoushkine, il vous faut
montrer votre passeport, si vous n’êtes pas encore dotés d’un
passe. Les manageurs récupèrent beaucoup d’informations vous
concernant : vos précédents employeurs, et mêmes les endroits
où travaillent vos parents. Puis, ils vous demandent de
« réécrire » un article récent. L’ancienne
employée témoigne :
« Tu
as l’impression qu’ils recrutent quiconque peut montrer qu’il
sait parler et écrire russe. Ce faisant, ils ne révèlent rien
sur le lieu ou la mission ; ils disent « c’est une
holding de médias, elle gère plusieurs sites, vous devez
maximiser le trafic d’informations, le salaire est supérieur à
la moyenne ».
Chaque
« Troll » doit travailler de 9 heure à 17 heure 30
et écrire 20 brèves, dont 70 % doivent être des originaux.
« Il
y a au total 12 sites dans la holding, si j’ai bien compris,
qui traitent de diverses thématiques, mais tous ont un lien
d’une manière ou d’une autre à la politique et à
l’Ukraine », explique l’ex-employée.
La
carte de visite mentionne « Agence de presse fédérale »,
mais l’essentiel des informations transitent par une agence
appelée « Agence de presse de Kharkiv »
(paradoxalement appelée nahnews.com.ua). « Bien que le
site fasse semblant d’être ukrainien, toutes les publications
sont issues du 55 rue Savoushkine », explique le témoin.
Il y a d’autres sites « Ukrainiens » tels que le
très connu « Anti-Maidan », qui a été lancé en
Juillet 2014. Le site ne présente pas des fausses informations
brutes, comme d’autres sites de propagandes russes, mais suit
la ligne de Moscou, en désignant les insurgés appuyés par la
Russie combattant en Ukraine comme étant « la milice »
[équivalent ukrainien de la police].
La
« ferme » rappelle « Big Brother »,
explique l’ex-troll :
« Les
premiers jours, tu ne comprends tout simplement pas où tu es,
pourquoi tu réécris ces infos et en alimentes les sites. Tu as
l’impression que c’est une sorte d’expérience sociologique
ou de télé-réalité, notamment parce que dans chaque
open-space, travaillent 20 à 30 employés, sous l’œil des
caméras.
Il
n’y a jamais de réunions éditoriales, ni même de briefings
idéologiques ; on s’attend à ce que les travailleurs sachent
quoi faire, et les instructions ne viennent que des rédacteurs
en chef. L’essentiel des employés semblent venir de villes
provinciales russes, et ce sont souvent des jeunes hipsters —
souvent avec des dreadlock et des piercings. Les travailleurs
sont divisés en trois catégories, nous explique l’ancienne
employée :
1.
« Ils me payent et je me moque du reste, je ne sais même
pas ce qui se passe' » – beaucoup de ces gens ont des
familles, des emprunts, etc.
2.
« Oui, je sais que c’est une usine à trolls du Kremlin,
mais je vais pas culpabiliser — ils me paient et ça me
suffit »
3.
« Je suis en guerre d’information contre la junte
fasciste ! » — cette dernière catégorie compte le moins
de personnes.
« On
ne nous demande pratiquement rien sur nos convictions politiques
quand on est recruté », dit-elle.
L’agence
n’occupe qu’un étage sur les quatre du 55 rue Savouchkine.
Les autres étages sont occupés par d’autres activités de
trolls, ceux qui écrivent des messages hostiles sur les forums,
par exemple. Ceux qui travaillent sur les sites « Ukrainiens »
considèrent
ces derniers avec ironie, mais aussi avec une certaine
appréhension.
Les
patrons ne recherchent qu’une chose — la quantité, le nombre
de vues et de visiteurs journaliers, un nombre qui est censé
s’accroître de 3000 par jour. Le département des optimiseurs
de moteurs de recherche font du spam agressif, et c’est
pourquoi les sites sont souvent bloqués sur Google et VKontakte.
Les
manageurs harcèlent leurs gestionnaires de sites, ces derniers
se tournant vers leurs employés pour trouver des scoops et être
les premiers à les reprendre. Il y a une attention particulière
pour les assassinats, les viols et autres faits divers policiers,
puis dans un second temps les ragots du monde du business, des
infos sur les chanteurs pop tels que Pugacheva ou Madonna, afin
d’obtenir un maximum de visiteurs. Les articles hostiles aux
homosexuels sont très populaires, de même que ceux sur le
féminisme et les activistes ukrainiennes de Femen, mais
l’essentiel est associé à « Poutine, la Crimée et la
Novorussiya, » explique l’ex-pigiste.
Le
fait que les manageurs justifient la nécessité d’augmenter
les visites d’internautes pour obtenir des revenus
publicitaires, fait sourire, car tout le monde sait que cette
entreprise est subventionnée par le gouvernement.
Puis,
ce travail moralement exigeant fut trop pesant, dit l’ancienne
troll :
« Ma
décision de quitter la « réserve de troll » a mis
du temps à mûrir. D’un côté, je me rendais compte qu’un
travail non manuel avec un salaire décent pour Saint-Pétersbourg
serait dur à trouver avec la crise ; pas un seul jour rue
Savouchkine n’ai-je été confrontée à une difficulté
technique insurmontable. Le problème était lié au fardeau
psychologique de ce travail . En décembre, j’ai commencé à
avoir un tic à l’œil du fait du stress et je rêvais la nuit
que j’écrivais et réécrivais des nouvelles sur Poutine et
l’Ukraine. De plus, j’adhère au point de vue libéral. Parmi
mes connaissances, il y a pas mal de gens qui adhèrent aux
thèses de l’opposition, et au bout d’un moment, je me suis
rendu compte que j’avais tout simplement honte de dire où je
travaillais. Tous cela a surpassé la recherche du confort, et
j’ai démissionné avec soulagement ».
----------------------------------------------------------------------------
----------------------------------------------------------------------------
3
- Manipulation des réseaux sociaux : comment fonctionne une
ferme à
troll
https://www.secunews.be/fr/themes-fr/assistance-et-prevention/4503-comment-fonctionnent-les-fermes-a-trolls-et-a-qui-profitent-elles
https://www.neotrouve.com/?p=10112
par
Néo Trouvetout
· 9 mars 2021
Partagez
cet article sur les réseaux sociaux !
La
ferme à trolls est une technique de manipulation très efficace,
de plus en plus répandue sur les réseaux sociaux. Elle consiste
à utiliser des faux-comptes dans le but de diffuser massivement
un message destiné à influencer l’opinion publique.
La
plupart du temps, ces campagnes de désinformation sont financées
par des groupes politiques, des activistes ou des entreprises peu
scrupuleuses. Même si elles sont difficiles à identifier,
le meilleur moyen de s’en prémunir est de rester conscient de
leur existence, d’en comprendre le mécanisme et d’acquérir
quelques points de repères pour les détecter.
Un
troll, un bot, un netbot : en quoi cela consiste-t-il ?
Le
terme « troll » est principalement utilisé pour
désigner une personne qui offense ouvertement et agressivement
un utilisateur pour initier un conflit. Il cherche donc à jeter
de l’huile sur le feu pour faire dérailler les conversations
et provoquer des réponses émotionnelles qui bannissent toute
réflexion constructive. Dans le cas des fermes organisées, les
trolls s’immiscent dans les conversations et diffusent de faux
messages avec de faux comptes.
Un
bot est également un faux-compte, mais il n’est pas géré par
une vraie personne. C’est donc un robot qui est programmé le
plus souvent pour partager, liker ou retweeter des milliers de
fois un message identique. Un netbot rassemble en réseau une
grande quantité de bots servant le même objectif.
Lorsque
les fermes à trolls sont secondées par un réseau de bots,
elles deviennent des armes redoutables, capables d’influencer
des élections nationales ou de déstabiliser tout un pays. Un
système d’autant plus efficace qu’il n’est pas toujours
très onéreux.
Qui
fait usage des fermes à trolls et pourquoi ?
On
ne compte plus le nombre d’articles du New York Times ou du
Guardian détaillant des campagnes de trolling à grande
envergure. Ces dernières peuvent avoir des projets très variés
tels qu’influencer les résultats des élections américaines,
propager une image pro-Poutine en Russie ou en Ukraine, provoquer
des manifestations, décrédibiliser la démocratie ou encore
affaiblir l’économie européenne.
En
2019, L’INA, la revue française des médias, accusait 48 Etats
de pratiquer le
trolling politique. En 2020, le
Service européen de l’action extérieure dénombrait
80 campagnes issues de médias russes pro-Kremlin ciblant
directement l’Union européenne.
Ces
campagnes colportent des fake news pour inciter les gens à se
rallier à ce qu’on veut leur faire croire. Elles créent aussi
l’illusion qu’une importante communauté de personnes
partagent un avis, qu’il y a un réel mouvement populaire sur
une thématique, alors que ce n’est pas le cas.
Mais
l’action politique n’est pas l’unique objectif de ces
campagnes. Il peut également s’agir de truquer un sondage en
utilisant un nombre calculé de faux-comptes pour manipuler les
résultats. Certaines entreprises n’hésitent pas à
s’approprier la technique en vue de décrédibiliser un
concurrent, de diffuser une gigantesque campagne publicitaire ou
d’amplifier les messages positifs sur leurs produits. Il est
techniquement possible de louer un netbot ou une ferme à trolls
pour une action courte et précise.
Comment
se déroule une campagne de fausse information ?
En
mai 2020, un Community manager d’une agence internationale
s’est confié anonymement dans El
Pais.
Il y explique en détail la stratégie d’amplification
artificielle de messages sur Twitter.
Pour
chaque projet, des conversations sont analysées et une
cartographie des acteurs du débat est dressée, avec une liste
des comptes favorables et défavorables.
Les
trolls savent ainsi avec qui ils doivent interagir. D’après
son témoignage, il existe deux catégories de trolls : les
« alpha » et les « bêta ». Les « alpha »
s’arrangent pour devenir populaires et interagissent avec les
experts reconnus et les internautes. Ils prennent parfois le
relais des bots lorsque ceux-ci sont interpellés
personnellement. Les « bêta » jouent leur rôle de
troll en insultant certains profils réputés, ce qui a pour
effet d’enflammer les commentaires et d’amener les experts à
s’autocensurer.
En
parallèle, une armée de bots est programmée pour liker ou
retweeter des posts et pour diffuser des messages à des heures
programmées. Cela permet de faire gagner rapidement une
thématique ou une personne en popularité.
Une
campagne ainsi organisée exige entre 1500 et 2000 bots et trolls
et peut coûter jusqu’à un million d’euros.
Il
existe une série de tactiques à suivre pour empêcher Twitter
de repérer les trolls :
Ils
ne se suivent pas entre eux et ont peu d’interactions les uns
avec les autres pour éviter qu’on ne puisse cartographier le
réseau
Ils
évitent les modèles répétitifs en utilisant des schémas
d’écriture différents
Ils
utilisent des API différents et modifient leurs adresses IP
Chaque
compte est personnalisé avec une photo, un nom et une
biographie.
Quelques
astuces pour identifier les faux comptes Twitter
Le
Digital Forensic Research Lab (DFRLab)
a identifié 12 critères qui peuvent aider à repérer un bot
sur Twitter :
L’activité :
selon Oxford Internet Institute et @DFRLab, un compte devient
suspect s’il diffuse plus de 50 ou 70 tweets par jour. Au-delà
de 144 tweets, il est considéré comme hautement suspect.
Surtout si ces périodes d’hyperactivité alternent avec des
mois d’inactivité.
L’anonymat :
le plus souvent, les faux comptes ont des avatars anonymes. Leur
biographie ne dévoile aucune information personnelle et la
localisation est indéfinie ou imprécise.
L’amplification :
en recherchant sous l’onglet « Tweets et réponses »,
on se rend compte qu’un bot a un large pourcentage de retweets
ou de citations intégrales de l’actualité. Il peut partager
les nouvelles d’un site donné, mais sans commentaire.
Peu
de messages/beaucoup de réactions :
si le compte n’a diffusé que quelques messages likés des
milliers de fois, il y a de grandes chances pour que cela cache
un robot.
Contenu
commun :
si de nombreux comptes partagent un contenu identique, il est
possible qu’il s’agisse d’un réseau de bots.
Lorsque
les retweets d’un message sont effectués par des comptes
majoritairement sans photo de profil, il y a des raisons de se
méfier.
Les
faux profils utilisent parfois des photos volées. Une recherche
inversée sur l’image de profil avec Google image permettra de
les identifier.
Certains
noms doivent éveiller l’attention, comme des descripteurs
alphanumériques ou des noms qui ne correspondent pas au profil
(un nom masculin pour une photo de femme, par exemple).
Lorsqu’une
personne écrit dans de nombreuses langues différentes, il est
possible que ce soit un faux profil. Surtout si l’objet
principal de ses publications est d’ordre publicitaire.
Les
profils qui ne publient que des annonces publicitaires sont
suspects. Il peut en effet s’agir de botnets commerciaux loués
à une entreprise désireuse de booster sa publicité.
Lorsque
les publications d’un profil passent toutes par une plateforme
de diffusion automatique, comme TweetDeck ou IFTTT, il est
intéressant de vérifier s’il s’agit d’une vraie
personne.
Lorsque
la liste des personnes qui retweetent est presque identique à
la liste des personnes qui likent le tweet, il vaut mieux
vérifier s’il s’agit bien d’une vraie personne.
-------------------------------------------------------------------------------
-------------------------------------------------------------------------------
4
- Armée de trolls, "loups guerriers", web vitrines :
plongée dans la nouvelle cyberpropagande
chinoise
https://www.franceculture.fr/numerique/armee-de-trolls-loups-guerriers-web-vitrines-plongee-dans-la-nouvelle-cyberpropagande-chinoise
20/09/2021
(mis à jour à 07:02)
Par
Olivier
Poujade
Un
vaste rapport de l’Institut de Recherche Stratégique de
l’École Militaire (IRSEM) révèle les nouvelles armes
d'influence de la Chine dans le monde entier. Une offensive très
développée grâce au cyber. La rédaction internationale de
Radio France a pu consulter ces 650 pages en avant-première.
"Le
parti peut compter sur 2 millions de commentateurs payés,
directement employés par le bureau des affaires cyber"
indiquent les enquêteurs. Ainsi que "20 millions de
trolls à temps partiel".• Crédits : Fort
Worth Star-Telegram / Tribune News Service
-
Getty
Une
enquête
d’une ampleur sans précédent,
de plus de 640 pages et 3 000 notes, réalisée par
l’Institut de
Recherche Stratégique de l’École Militaire (IRSEM),
organisme parapublic, met au jour la gigantesque stratégie
d’influence de la Chine. Un changement de doctrine, plus
agressive, destinée à convaincre voire contraindre et imposer
le récit de Pékin à tous les étages des sociétés dans le
monde. Ce rapport sera rendu public ce lundi, dans le contexte de
la crise des sous-marins australiens, au moment où rejaillit la
question du positionnement français vis-à-vis des États-Unis
et de la Chine.
Les
moyens mis en œuvre sont spectaculaires. C’est bien cet
aspect-là du rapport qui donne le vertige. Des dizaines de
milliards de yuans sont investis mais surtout plusieurs millions
de personnes sont réquisitionnés pour servir les intérêts de
Pékin.
À
LIRE AUSSI
La
stratégie d’influence chinoise : un réseau tentaculaire qui
veut désormais s’imposer au reste du monde
Près
de 22 millions de commentateurs internet rémunérés
Ces
petites mains sont pilotées par l’unité 61070 chargée de la
propagande réseaux au sein de la base 311, le cœur opérationnel
de l’influence chinoise. Elles sont chargées des opérations
informationnelles, tactique directement inspirée de la méthode
russe, et se divisent en deux catégories.
Des
trolls, en chair et en os, sont notamment sollicités pour
pratiquer l’Astroturf dont l'objectif est d’inonder les
réseaux ciblés d’un maximum de messages de désinformation en
donnant l’illusion d’un soutien spontané ou d’une dénonciation
populaire authentique pour contre attaquer les discours
hostiles au régime.
Mais
le chiffre annoncé par les auteurs de l’enquête concerne ceux
que l’on appelle couramment “l’armée des 50 centimes”.
Leur travail d’occupation s'applique moins à intervenir sur
les sujets de discorde qu’à allumer des contre-feux en
distrayant le public et en assurant la promotion de la Chine.
"Le parti peut compter sur 2 millions de
commentateurs payés, directement employés par le bureau des
affaires cyber"
indiquent les enquêteurs. Auxquels il faut aussi ajouter les
“20
millions de trolls à temps partiel”,
à la demande, externalisés dans des fermes, notamment en
Malaisie. L’Armée Populaire de Libération (APL) tient à sa
disposition une constellation de pigistes prêts à diffuser
cette désinformation et à assurer la publicité de la Chine.
Pékin
s’appuie également sur des “web vitrines”. Des plateformes
intermédiaires proposant de l’argent en échange de la
publication d'articles à disposition. La ferme de contenus
KanWatch incite ses adhérents à partager ses contenus
moyennant rémunération, de 12,60 euros à 126
euros selon la longueur du message.
Un
nombre considérable de sites ou fermes de contenu apparaît au
fil des pages de ce rapport, Big Durian, Mission, beeper.live,
citant un article de The Reporter, les auteurs indiquent que “431
fermes de contenus étaient liées à un certain Evan Lee, qui
serait basé en Malaisie”.
|