huyghe.fr - Le site de François-Bernard Huyghe
OK
 Sur Twitter : @huyghefb
 Comprendre les conflits : une nouvelle polémologie
 Terrorisme
 Affrontements, stratégies et images
 Information, pouvoir et usage : l'infostratégie
 Intelligence économique : du savoir à l'influence
 Pouvoirs et information
 Transmission et communication : la médiologie
 Médiologie au présent
 Médiologie de l'histoire
 Divers
 Textes à télécharger
 Huyghe Infostratégie Sarl
Transmission et communication : la médiologie > Pouvoirs et information
Déstabilisation


Pour reprendre des catégories généralement acceptées, les cyberattaques relèvent de trois types de stratégies suivant qu’elles sont destinées à :

- prélever des données de façon illicite, prendre connaissance de ce qui devrait être secret (espionner)
- empêcher un système informatique de commander et réguler les opérations qu’il est sensé effectuer « légitimement », en prendre le contrôle, (saboter)
agir sur l’opinion par le message pour renverser ou fragiliser un certain ordre, notamment politique (subvertir ou déstabiliser).

Il ne s’agit pas de trois domaines séparés : on peut, par exemple, commencer par espionner pour préparer une attaque qui paralysera un système. Ou provoquer la paralysie d’un dispositif pour envoyer un message de défi, de provocation, de menace, etc à une opinion.
Espionner sert généralement à se renforcer, à gagner en puissance (dérobant les secrets de l’autre, on accroît ses futures capacités de production, de performance économique, de planification, sa capacité de nuisance, etc.). Saboter à affaiblir l’adversaire, soit le temps de mener une autre attaque (par exemple mettre en panne ses systèmes de détection le temps de l’attaquer par d’autres moyens), soit pour lui faire réaliser quel mal on pourrait lui infliger, donc pour le menacer ou le faire chanter (ransomware). Mais la déstabilisation ? Il ne s’agit plus de données ou de programmes, mais de réception et de sens.


Déstabiliser par les signes

Nombre de ces opérations en ce domaine mobilisent des moyens technologiques propres à infliger un dommage d’ordre symbolique à leurs victimes : les ridiculiser, les dénoncer, les stigmatiser, leur faire perdre des partisans, diviser leur camp, etc. Au sens le plus large, la déstabilisation se confond avec une désinformation ou une subversion qui utiliserait des moyens numériques. Ainsi, on peut utiliser des deepfakes (fausses images produites par IA d’un politicien prononçant un discours ou d’une actrice dans un porno p.e.), l’astroturfing (création d’une fausse association ou communauté en ligne), des bots (robots, faux comptes qui peuvent provoquer ou amplifier un mouvement d’opinion) sans compter tous les outils de l’activisme 2.0 : « défacement » de site, attaque par déni d’accès pour bloquer un site adverse. Éventuellement faux drapeaux et processus destinés à créer une fausse attribution. Sans oublier les inévitables fake news. Et leurs effets systémiques.

En ce sens on peut théoriquement contribuer à la déstabilisation d’une organisation, voire d’un État :
En intervenant pour insulter, provoquer ou moquer la cible A, y compris sur son propre site
En créant artificiellement un mouvement d’opinion anti-A qui semble avoir des milliers de membres (dont la plupart sont des algorithmes, des bots, ou des petites mains payées au clic)
En répandant de source apparemment neutre des contenus informatifs anti A
En décrédibilisant les pro A
En agissant à un niveau supérieur « meta » : en atteignant l’autorité du système de preuve et de débat qui fait quel les citoyens choisissent entre les opinions pro ou anti A

La logique de ces méthodes est par sa nature même plus complexe que celle de l’espionnage et du sabotage : les secrets (les données) sont « quelque part » dans un ordinateur où il faut les prendre. On sait ou on ne sait pas. Le sabotage empêche un dispositif précis de bien fonctionner : par exemple les centrifugeuses d’une usine d’enrichissement d’uranium ne fonctionnent plus sous l’effet d’un maliciel spécialisé. Le système fonctionne ou pas. La déstabilisation, elle, s’exerce dans les têtes des gens derrière les écrans, à travers leurs réactions psychologiques escomptées. Pour remplir sa fonction, une opération de ce type doit affaiblir quelque chose de bien plus impalpable : la confiance, celle des citoyens, des consommateurs ou d’un groupe plus ciblé. Elle doit changer une relation de croyance. En tout état de cause, elle passe par une interprétation : vous croyez (ou pas) cette fake news, la population ou les autorités réagissent de telle ou telle manière... La déstabilisation peut s’en prendre à une image (par exemple la e-réputation d’une entreprise, un parti, un candidat), mais elle s’en prend aussi plus plus généralement au système. Et ceci dans le double sens de système informatique et de sytème mental collectif, de confiance ou de croyance. Un des effets le plus souvent reproché à ces actions est de susciter une dissension généralisée (qui, d’ailleurs, se manifestera ouvertement comme hostilité au Système avec une majuscule, l’ordre politique et social dominant). Voire une perte de confiance en la vérité ou en la possibilité d’établir la vérité que certains ont baptisée post-truth.

Ces attaques - vraies ou imaginaires- « changent » aussi le système en un autre sens : elles suscitent des réactions de défense et modifient des rapports de pouvoir. Ainsi la prolifération des lois anti-fakes ou anti-désinformation, l’éclosion d’associations ou de médias se vouant aufact-checking, la mobilisation des grands du Net. Les GAFA et autres développent des dispositifs (signalisation, fermeture de comptes, retrait de contenus, enfouissement dans les moteurs de recherche des messages litigieux, etc.) qui leur confère un contrôle jusque là inconnu. Et qui n’a rien de démocratique puisque nous mêmes citoyens ne l’avons nullement décidé, même si tout cela est fait au nom d’idéaux démocratiques. Non seulement ils nous disent à quoi nous devrions penser, ce que nous devrions acheter, qui nous ressemble, avec qui nous devrions nous assembler, en un invraisemblable pouvoir de suggestion. Mais en outre, ils ont la capacité de décider qui ils laisseront ou pas s’exprimer avec leurs outils techniques. Ils établissent des normes quasi pénales pour sanctionner les contenus qui « inciteraient » à la haine, à la violence, etc., qui offenseraient telle ou telle catégorie (pornographie ou attaque contre une minorité), ils contrôlent les nouvelles fausses, les comptes faux ou douteux, les sources fiables... Ils mènent même des opérations contre des puissances politiques qui tenteraient de mener des opérations d’influence internationale.

Un exemple récent : fin août, Facebook, Google (via Youtube) et quelques autres ont supprimé des comptes suspectés de participer à une opération d’influence iranienne (plus une opération russe). Ici le critère est l’intention suspecte de ces comptes ou des ces médias en ligne qui se présenteraient comme indépendants, mais, en réalité, serviraient des opérations d’influence étatiques. Quelques jours plus tard, des révélations venues de l’intérieur de Facebook indiquent que la société californienne pratiquerait une censure idéologique des contenus qu’elle propose (en dehors de toute suspension de compte ou de contenu pour contravention à ses règles). Tandis que Google fait face à une protestation de ses salaries, parce que la firme envisagerait un compromis avec la Chine à propos d’un moteur de recherche censuré. Au même moment Arte accuse Youtube de « censure » à propos d’un document portant justement sur les censeurs des GAFA... Et ainsi de suite.

Bref, tous les jours une actualité vient nous rappeler
qu’il y a bien des attaques de déstabilisation « idéologiques » (parmi bien d’autres qui ne le sont pas)
les Gafa qui exercent continument une action de rectification
que la lutte planétaire autour de ce qui atteindra ou pas votre cerveau (ou pour le dire autrement : pour faire que certaines informations soient plus ou moins difficiles à trouver par le non initié) se développe avec de nouveaux instruments des deux côtés
que tout le monde est obsédé par les attaques « dans la couche sémantique » et y voit un problème politique majeur, point de devenir pour certains un moyen de tout expliquer (le peuple vote mal à cause des fake news, les affrontements dans le monde s’expliquent par la subversion en ligne, tout est la faute des coupables 2.0)
que la lutte pour l’établissement du dicible et du pensable (le Vrai et le Bien) ainsi engagée par les grands du Net (ici infiniment plus efficaces que les États ou les lois) mobilise des instruments techniques donc suscite des ripostes techniques et idéologiques. En une escalade sans fin.

Un exemple du dernier point : dans le New York Times du 5 septembre, une haute responsable de Facebook , Sheryl Sandberg déclare devant un comité du Sénat que Facebook a supprimé 1,3 milliards de faux comptes d’octobre 2017 à Mars 2018. Une seconde : Facebook n’a « que » deux milliards d’utilisateurs, comment est-ce possible ? Explication : les comptes supprimés se récréent aussitôt. Si bien qu’au final les faux comptes ne représentent que 3 ou 4 % des utilisateurs actifs à un moment X. Ce qui relativise à la fois le pouvoir de Facebook et celui des déstabilisateurs supposés (dont une minorité seulement forcément politisés ou étatiques).



A SUIVRE

 Imprimer cette page