Fausse explosion au Pentagone: les dérives du détournement de l’IA
Publié le :
L'Union européenne et les États-Unis ont annoncé ce mercredi 31 mai un projet de code de conduite commun sur l’intelligence artificielle. L'objectif, c’est de limiter les dérives et d’éviter notamment que l’IA devienne une machine à produire des infox. Dernier exemple en date, une image d'explosion au Pentagone générée par l’IA a semé le trouble aux États-Unis, allant jusqu’à faire trembler la bourse.

Tout commence dans la matinée du 22 mai lorsqu'une image apparaît sur Twitter. Elle montre un important panache de fumée à proximité d’un bâtiment rectangulaire de type administratif. La légende prétend qu’il s’agirait d’une « explosion proche du Pentagone à Washington ».
Rapidement les réseaux sociaux s'enflamment et l’image est partagée par des milliers d’internautes. Elle se retrouve même diffusée sur la chaîne de télévision indienne Republic.
Une production de l’IA
En réalité, il n’y a pas eu d’explosion à proximité du Pentagone. Cette image a été générée par l’intelligence artificielle. Il ne s’agit donc pas d’une photo prise par un passant, comme le suggèrent certains internautes, mais d’une image entièrement fabriquée par un algorithme.
Face à l’ampleur de cette infox, les autorités locales ont rapidement démenti, à commencer par le service d'incendie d’Arlington qui a déclaré qu' il n'y « avait pas eu d'explosion ou d'incident près du Pentagone ». Une information confirmée par des témoins présents sur place, par des journalistes locaux et par le porte-parole du ministère de la Défense.
Impact sur la bourse
Le parcours de cette image trompeuse semble débuter sur un compte Twitter adepte de la désinformation et de la mouvance complotiste américaine Qanon. Une fois en ligne, l’infox est amplifiée par des comptes douteux, des comptes officiels comme celui du média russe RT ou du site conspirationniste Zero Hedge, mais aussi par des comptes pirates se faisant passer pour des médias reconnus. C’est le cas d’un profil certifié (supprimé depuis) qui usurpait l'identité du média américain Bloomberg. La nouvelle politique de Twitter, qui permet aujourd’hui à n’importe qui d’obtenir un badge bleu de certification contre quelques euros par mois, a donc facilité la circulation de cette fausse information.

Si cette infox a été démentie quelques heures seulement après son apparition, cela ne l’a pas empêchée de dépasser les frontières du numérique pour bouleverser directement le réel, avec un fait marquant : la chute, brève mais notoire, du S&P 500. L’indice boursier basé sur les 500 plus grandes sociétés cotées aux États-Unis a perdu 0,29 % à cause d’un début de panique.
Le détournement de l’IA au cœur des préoccupations politiques
Cet événement, qui apparaît comme un cas d’école de manipulation, alerte sur les conséquences d'un détournement de ces nouveaux outils numériques. Ce qui inquiète, c’est que ce genre de fausse image est relativement facile à produire, accessible à tous, et qu’il est aujourd’hui de plus en plus difficile de démasquer la manipulation. L’intelligence artificielle laisse peu de traces sur l’image qu’elle génère, ce qui rend très difficile le travail de vérification. Dans le cas de cette fausse explosion du Pentagone, l’image comporte quelques incohérences comme le rapportent des experts, mais le résultat reste trompeur.
C’est une des raisons pour laquelle plusieurs pays planchent actuellement sur un code de conduite pour mieux réguler les technologies de l’IA. L’objectif étant d’encadrer leur utilisation pour limiter au mieux la fabrication de fausses informations, sans pour autant nuire à leur développement.
NewsletterRecevez toute l'actualité internationale directement dans votre boite mail
Je m'abonne