huyghe.fr - Le site de François-Bernard Huyghe
OK
 Sur Twitter : @huyghefb
 Comprendre les conflits : une nouvelle polémologie
 Terrorisme
 Affrontements, stratégies et images
 Information, pouvoir et usage : l'infostratégie
 Intelligence économique : du savoir à l'influence
 Pouvoirs et information
 Transmission et communication : la médiologie
 Médiologie au présent
 Médiologie de l'histoire
 Divers
 Textes à télécharger
 Huyghe Infostratégie Sarl
Transmission et communication : la médiologie > Médiologie au présent
L’IA et le cerveau humain : imiter et leurrre
La propagande L’intelligence artificielle (IA), telle qu’elle est définie depuis les années 50, est vouée à copier ou surpasser le cerveau humain. Et, comment mieux le faire qu’en rivalisant avec sa plus belle performance : le mensonge, l’invention de ce qui n’est pas mais qui est crédible et confère du pouvoir ? Il existe déjà des robots « conversationnels » avec qui vous pouvez dialoguer sans vous apercevoir que vous ne parlez pas avec un conseiller humain, des algorithmes qui produisent des œuvres d’art, peinture ou musique, « originales » ou imitant Bach ou Rembrandt, des fabriques de scénarios ou articles tout à fait convaincants… Voire des deep fakes, des faux « profonds », montages d’images où une personne célèbre peut, avec sa « vraie » voix et de « vrais » mouvements de lèvres, prononcer un discours imaginaire (à moins que vous n’incrustiez la tête de celle qui vous fait fantasmer sur le corps de quelque actrice de porno).
Le faux de ce type est hyper-persuasif, parce qu’il synthétise un nombre énorme d’éléments familiers à notre cerveau – images, mots - pour les recombiner en leur donnant le sens souhaité. L’intelligence artificielle pourrait-elle maîtriser l’art de faire-croire, base de tout pouvoir politique ?

Depuis 2016 (élection de Trump, Brexit, etc.) il est à la mode d’attribuer aux fake news, informations fabriquées, éventuellement relayées par des robots en ligne et au service de théories trompeuses, le pouvoir de faire basculer les élections. Les choses ne sont pas si simples parce que l’adhésion supposée de électeurs à ces trucages traduit surtout leur étonnante méfiance à l’égard de l’information venue d’en haut, des élites ou des médias, donc l’échec des vieilles fabriques du consensus.

Pourtant, l’intelligence artificielle a de quoi inquiéter. D’une part en démocratisant la production de faux vraisemblables (images, déclarations, nouvelles), et en facilitant leur diffusion (contenu du message et réseau d’amis factices, pour l’illusion maximale). D’autre part, en adaptant davantage sa rhétorique à ses destinataires supposés : chacun recevrait, via les réseaux sociaux, ce qu’il serait le plus susceptible de croire à propos de tel homme politique, tel danger de tel produit, telle anticipation économique... Donc ce qui comblerait le mieux ses attentes ou préjugés, décelées grâce aux Big Data. On passerait de chacun suivant ses médias à chacun suivant ses fantasmes.
Des chercheurs d’OpenAI (le centre d’Elton Musk pour la recherche en Intelligence Artificielle qui entend « changer le destin de l’espèce ») déclarent que, presque par inadvertance, ils viennent d’inventer un système qui engendrerait à la chaîne des informations imaginaires mais parfaitement crédibles. Au point de saturer toute tentative de vérification ? De permettre la propagande absolue ?

Là où les législations (telle notre loi nationale « infox »), les innombrables équipes de fact checking des médias classiques ou les ONG spécialisées ne parviennent plus en endiguer le flot du doute et de la falsification, que faire ? Appeler l’armée. C’est ce qui se passe, outre-Atlantique, du moins pour son centre de recherche, le Darpa. Cette agence fédérale annonce qu’elle va étudier une technologie destinée à détecter, attribuer (chercher un coupable) et caractériser (attaque politique, escroquerie…) les fausses nouvelles. Toujours grâce à l’IA qui, non contente d’égaler nos performances intellectuelles, établirait la ligne de démarcation entre le vrai et le faux, avec les implications politiques que l’on imagine.
Résumons : demain lutte de l’épée (armes du faux) et de la cuirasse (accréditation), rentre des machines à produire des illusions et des machines à établir l’irréfutable ? Opérations de déstabilisation versus des mesures d’établissement de la vérité (il y aurait donc littéralement des ministères pour ça !).

Ce sont, bien sûr, des scénarios de science-fiction : les GAFA engendrant des illusions à volonté, les États s’accaparant monopole de la réalité... Mais nous apprenons au moins une chose : celui qui ne maîtrisera pas la technologie, ne maîtrisera peut-être demain ni sa souveraineté, ni la simple faculté de parler de la même réalité.

 Imprimer cette page