huyghe.fr - Le site de François-Bernard Huyghe
OK
 Sur Twitter : @huyghefb
 Comprendre les conflits : une nouvelle polémologie
 Terrorisme
 Affrontements, stratégies et images
 Information, pouvoir et usage : l'infostratégie
 Intelligence économique : du savoir à l'influence
 Pouvoirs et information
 Transmission et communication : la médiologie
 Médiologie au présent
 Médiologie de l'histoire
 Divers
 Textes à télécharger
 Huyghe Infostratégie Sarl
Information, pouvoir et usage : l'infostratégie > Pouvoirs et information
Déstabilisation 1


Pour reprendre des catégories bien établies, les cyberattaques relèvent de trois types de stratégies suivant qu’elles sont destinées à :

- prélever des données de façon illicite, donc à apprendre ce qui devrait être secret (espionner)
- empêcher un système informatique de commander et réguler les opérations qu’il est sensé effectuer « légitimement », en prendre le contrôle (saboter)
agir sur l’opinion par le message pour renverser ou fragiliser un certain ordre, notamment politique (subvertir ou déstabiliser).

Il ne s’agit pas de trois domaines étanches : on peut, par exemple, commencer par espionner pour préparer une attaque qui paralysera un système. Ou provoquer la paralysie d’un dispositif pour envoyer un message de défi, de provocation, de menace, etc à une opinion.
Espionner sert généralement à se renforcer, à gagner en puissance (dérobant les secrets de l’autre, on accroît ses futures capacités de production, de performance économique, de planification, sa capacité de nuisance, etc.). Saboter à affaiblir l’adversaire, soit le temps de mener une autre attaque (par exemple mettre en panne ses systèmes de détection le temps de l’attaquer par d’autres moyens), soit pour lui faire réaliser quel mal on pourrait lui infliger, donc pour le menacer ou le faire chanter (ransomware). Mais la déstabilisation ? Il ne s’agit plus de données ou de programmes, mais de réception et de sens.


Déstabiliser par les signes

Nombre de ces opérations en ce domaine mobilisent des moyens technologiques propres à infliger un dommage d’ordre symbolique à leurs victimes : les ridiculiser, les dénoncer, les stigmatiser, leur faire perdre des partisans, diviser leur camp, etc. Au sens le plus large, la déstabilisation se confond avec une désinformation ou une subversion qui utiliserait des moyens numériques. Ainsi, on peut utiliser des deepfakes (fausses images produites par IA d’un politicien prononçant un discours ou d’une actrice dans un porno p.e.), l’astroturfing (création d’une fausse association ou communauté en ligne), des bots (robots, faux comptes qui peuvent provoquer ou amplifier un mouvement d’opinion) sans compter tous les outils de l’activisme 2.0 : « défacement » de site, attaque par déni d’accès pour bloquer un site adverse. Éventuellement faux drapeaux et processus destinés à créer une fausse attribution. Sans oublier les inévitables fake news

La logique de ces méthodes est par sa nature même plus riche que celle de l’espionnage et du sabotage : les secrets (les données) sont « quelque part » dans un ordinateur où il faut les prendre. On sait ou on ne sait pas. Le sabotage empêche un dispositif précis de bien fonctionner : par exemple les centrifugeuses d’une usine d’enrichissement d’uranium ne fonctionnent plus sous l’effet d’un maliciel spécialisé. Le système fonctionne ou pas. La déstabilisation, elle, s’exerce dans les têtes des gens derrière les écrans, à travers leurs réactions psychologiques escomptées. Pour remplir sa fonction, une opération de ce type doit affaiblir quelque chose de bien plus impalpable : la confiance, celle des citoyens, des consommateurs ou d’un groupe plus ciblé. Elle doit changer une relation de croyance. En tout état de cause, elle passe par une interprétation : vous croyez (ou pas) cette fake news, la population ou les autorités réagissent de telle ou telle manière... La déstabilisation peut s’en prendre à une image (par exemple la e-réputation d’une entreprise, un parti, un candidat), mais elle s’en prend aussi plus généralement à un système. Et ceci dans le double sens de système informatique et de sytème mental collectif, de confiance ou de croyance. Un des effets le plus souvent reproché à ces actions est de susciter une défiance généralisée (qui, d’ailleurs, se manifestera ouvertement comme hostilité au Système avec une majuscule, l’ordre politique et social dominant). Voire une perte de confiance en la vérité ou en la possibilité d’établir la vérité que certains ont baptisée post-truth.

Ces attaques - vraies ou imaginaires- « changent » aussi le système en ce sens qu’elles suscitent des réactions de défense et modifient des rapports de pouvoir en son sein. Ainsi la prolifération des lois anti-fakes ou anti-désinformation, l’éclosion d’associations ou de médias se vouant aufact-checking, la mobilisation des grands du Net. Les GAFA et autres développent des dispositifs (signalisation, fermeture de comptes, retrait de contenus, enfouissement dans les moteurs de recherche des messages litigieux, etc.) qui leur confère un pouvoir jusque là inconnu. Non seulement ils nous disent à quoi nous devrions penser, ce que nous devrions acheter, qui nous ressemble, avec qui nous devrions nous assembler, en un invraisemblable pouvoir de suggestion. Mais en outre, ils ont la capacité de décider qui ils laisseront ou pas s’exprimer avec leurs outils techniques. Ils établissent des normes quasi pénales pour sanctionner les contenus qui « inciteraient » à la haine, à la violence, etc., qui offenseraient telle ou telle catégorie (pornographie ou attaque contre une minorité), ils contrôlent les nouvelles fausses, les comptes faux ou douteux, les sources fiables... Ils mènent même des opérations contre des puissances politiques qui tenteraient de mener des opérations d’influence internationale.

Un exemple récent : fin août, Facebook, Google (via Youtube) et quelques autres ont supprimé des comptes suspectés de participer à une opération d’influence iranienne (plus une opération russe). Ici le critère est l’intention suspecte de ces comptes ou des ces médias en ligne qui se présenteraient comme indépendants, mais, en réalité, serviraient des opérations d’influence étatiques. Quelques jours plus tard, des révélations venues de l’intérieur de Facebook indiquent que la société californienne pratiquerait une censure idéologique des contenus qu’elle propose (en dehors de toute suspension de compte ou de contenu pour contravention à ses règles). Tandis que Google fait face à une protestation de ses salaries, parce que la firme envisagerait un compromis avec la Chine à propos d’un moteur de recherche censuré. Au même moment Arte accuse Youtube de « censure » à propos d’un document portant justement sur les censeurs et modérateurs, les petites mains des GAFA...

Bref, tous les jours une actualité vient nous rappeler a) qu’il y a bien des attaques de déstabilisation « idéologiques », b) que c’est un sujet qui préoccupe les Gafa qui exercent continument une action de contrôle c) que la lutte planétaire pour décider de ce qui atteindra ou pas votre cerveau (ou pour le dire autrement : la lutte pour faire que certaines informations soient plus ou moins difficiles à trouver par le non initié) est un enjeu fondamental d) que tout le monde est obsédé par les attaques « dans la couche sémantique ».

Par leur nature même, les attaques sémantiques sont difficiles à mesurer dans leurs effets et à décrire dans leur mécanisme. Du fait que l’individu A ou le réseau social B ait été exposé à tel message destiné à produire tel effet, que puis-je déduire que la chute de telle société, tel sondage ou le résultat de tel scrutin soit l’effet mécanique de cette action délibérée ? On a vu récemment les médias attribuer à des manipulations de ce type le referendum catalan, le Brexit et surtout l’élection de Trump. Or, il est paradoxal, par exemple, que le pays qui a inventé le soft power et quasiment le cyber puisse être si vulnérable à des opérations de puissances idéologiquement moins attractives et technologiquement moins avancées (ou à celles de minorités populistes en ligne).

Pourquoi, par exemple, telle affirmation douteuse ou telle rumeur (souvent vite repérée par les fact-chekers) aurait-elle un effet supérieur à des milliers de déclarations, d’heures de télévision ou de pages de journaux allant en sens inverse ? Et supposer un tel efficace, très supérieur à celui des mass médias, à quelques trolls ou quelques algorithmes, n’est-ce pas se dispenser de la recherche d’explications plus complexes ? À l’évidence, entre le moment de l’attaque sémantique et le résultat final, il s’est déroulé tout un jeu d’interprétation, d’amplification, de riposte ou de renforcement : les réactions et contre-réactions. L’effet de ces attaques est à évaluer aussi par rapport à une certaine réceptivité de l’opinion, comme dans ses relations avec le lien, souvent idéologique, qui se crée au sein des communautés en ligne (on parle de « bulles de filtre » et de « chambres d’écho ») et comme symptôme d’un bouleversement des dispositifs d’autorité sur l’information (Qui croire ?).


A SUIVRE : voir 2 et 3

 Imprimer cette page