12 septembre 2018 - Déstabilisation 2

La suite de 1

Personne ne doute que les , l’astroturfing les deepfakes, la weaponization (arsenalisation) de l’information (pour tous ces anglicismes que nous avons déjà évoqués voir leglossaire du globish) ne multiplient la puissance de techniques anciennes - subversion, rumeurs, désinformation, propagande noire - . Mais l’efficacité technique (perfection de l’illusion, amplitude de l’attaque, multiplication des pièges à attention) ne vaut rien faute d’une certaine réceptivité. Si « les gens » croient aux thèses complotistes, aux révélations sensationnelles ou aux périls caché, c’est aussi parce qu’ils refusent de croire les gouvernants, les experts, les médias, les médecins, les intellectuels, les élites, les mass médias, etc. Ou pour le dire autrement, s’il y a milieu réceptif, il y a crise de l’autorité et des dispositifs d’accréditation et cette crise ouvre un champ inédit aux pouvoirs manipulateurs du numérique.

Ce qui implique que ces « gens » ont adopté certains codes culturels et idéologiques, ressentent certaines solidarités ou hostilités, bref, qu’il y a des facteurs sociologiques, identitaires, derrière la crise des anciennes « machines à faire croire ». Cela demande une explication plus riche que la « crédulité » des classes à faible capital culturel ou exclues de la mondialisation. Expliquer par la méchanceté (des instigateurs) ou par la bêtise (des récepteurs) est un peu facile. Même si la chose est souvent formulée de façon plus sophistiquée en parlant de guerre hybride, celle que nous subirions ou d’ère de la post-vérité, celle que nous vivrions. Toute déstabilisation repose sur la sophistication de méthodes de persuasion ou de confusion, certes, et sur des moyens techniques et matériels. Mais aussi sur des tensions sociales et identitaires qui se traduisent par un refus de croire ou d’obéir la « parole d’en haut ».
La déstabilisation / subversion ne peut être réduite aux effets mécanique d’une stratégie perverse sur un public désarmé.
Sous ces réserves, une stratégie de déstabilisation, médiatisée par le cyberespace pose le problème de son efficacité technique, mais aussi de ses effets sur le système dans son ensemble


La possibilité technologique et l’intention stratégique


Pour la première question, le numérique a introduit une rupture par rapport au temps des mass médias. Pour faire de la propagande ou désinformer avec des médias classiques (un vers tous) il faut théoriquement faire parvenir massivement des messages persuasifs, accrédités par une source fiable, à un public étendu, dispersé et passif. C’est du moins le schéma classique de la propagande (les manufactures du consentement) ou de la désinformation de type guerre froide. Cette dernière se différencie de la première par le fait qu’elle est une stratégie indirecte, consistant à faire parvenir de fausses informations déstabilisatrices comme de source neutre (en quelque sorte polluer et exploiter les réseaux de communication de l’autre). Le minimum est de dissimuler l’intention.

Avec le numérique, non seulement la « qualité » du message (deepfakes p.e.) augmente, mais aussi le nombre d’émetteurs potentiels (tout le monde peut s’exprimer, produire des contenus sophistiqués et, potentiellement, entrer en connexion avec tous les récepteurs virtuels). nous voyons se développer des techniques numériques soit pour accroître la visibilité d’un contenu et la probabilité qu’il soit repris par les réseaux sociaux, soit pour l’adapter encore mieux aux attentes de la cible. Il s’agit alors de lui dire ce qu’il est disposé à croire. Ici une connaissance intime des tendances, grilles d’interprétation, références, traits de caractère, préconceptions, etc. du sujet est obtenue par le croisement de données. Toutes ces techniques fonctionnent d’autant mieux qu’elles sont dissimulées. Les technologies de déstabilisation, longtemps bornées à des actions de déni de service ou de défiguration, destinées à faire savoir à l’opinion qu’un groupe puissant défait telle société ou tel gouvernement, deviennent de plus en plus raffinées ; et ce à mesure qu’elles sont davantage capables de produire des illusions plus convaincantes (portant sur le contenu, sur la source, sur l’impact, etc.) et des effets en chaîne plus importants.


Ce qui renvoie à la seconde question, celle des facteurs qui font qu’une action de communication devient assimilable à une violence. Sans rentrer dans un débat juridique, il nous semble que, stratégiquement, une cyberattaque de subversion - outre le fait de passer par des ordinateurs - doit combiner dessein offensif à long terme et dissimulation. Ce type d’opération n’a de sens que s’il s’inscrit dans une planification : répandre une fausse nouvelle ou réaliser une action spectaculaire n’a de sens que par rapport à un plan global contre un certain ordre. Il s’agit moins de faire passer une conviction dans la tête des gens (A a effectivement fait cela, et c’est mal) que de modifier un rapport d’estime, d’identification, de soumission à l’autorité, avec un leader, un parti, un système politique, une institution ou une marque. Ou si l’on préfère d’encourager le scepticisme, la méfiance, la révolte, la contestation... À noter aussi que la subversion peut passer par une conviction -ainsi, convaincre les populations que le système leur ment et qu’il se commet à leur insu toutes sortes de crimes et de scandales- mais aussi agir pour déstabiliser la cible elle-même, qu’il s’agisse de défacer un site ou de harceler en ligne une personne.

Un processus qui généralement prend du temps, demande des milieux favorables et, dans tous les cas repose sur un effet de contamination de l’opinion. Il lui faut des relais : a minima que les réseaux sociaux et les journaux en parlent.
D’autre part, une cyberattaque dite de subversion suppose une dissimulation visant à une dissémination. Outre que son contenu peut être délibérément falsifié (fake news), le message peut provenir d’une fausse source (qui n’est pas ce qu’elle prétend être, voire d’une source non humaine (bots), être relayée ou remontée artificiellement, etc. Qu’il s’agisse de simuler un mouvement d’opinion chez les citoyens de tel pays, un document compromettant ou un texte de référence sur un site officiel, la technique intervient ici dans des démarches occultes.

A SUIVRE : voir 3

http://www.huyghe.fr/actu_1565.htm