Invité international

Intelligence artificielle et infox: «Les réseaux sociaux ne jouent pas réellement le jeu de l’information»

Publié le :

Les cyberattaques et les opérations de désinformation se multiplient contre les institutions publiques des pays membres de l’Union européenne. En pleine guerre en Ukraine, ce phénomène des attaques externes, notamment russes, coïncide avec l’arrivée de l’IA qui donne un pouvoir colossal à la malveillance et à la volonté de déstabiliser les élections européennes, en juin prochain. Les explications de Gérald Holubowicz, journaliste, enseignant à Sciences Po et spécialiste des médias synthétiques, il est le créateur de la newsletter Synthmedia.fr.

Quelques heures après l'attentat, un deepfake du secrétaire du conseil national de sécurité de l’Ukraine, Oleksiy Danilov, est devenu viral sur les réseaux. Son but, accréditer le narratif de l'implication ukrainienne.
Quelques heures après l'attentat, un deepfake du secrétaire du conseil national de sécurité de l’Ukraine, Oleksiy Danilov, est devenu viral sur les réseaux. Son but, accréditer le narratif de l'implication ukrainienne. © Captures d'écran/ Montage RFI
Publicité

RFI : Pouvez-vous nous donner un exemple récent d'une tentative de manipulation des électeurs européens sur les réseaux sociaux ?

Évidemment, on pense directement à l'élection en Slovaquie à l'automne 2023, où le candidat de gauche a été victime d'un deep fake audio qui a été publié pendant la période moratoire, juste avant le scrutin du week-end. Et d'après les sondages à cette époque-là, les partis de gauche et de droite étaient épaule contre épaule. On était dans une marge d'erreur à 21% contre 19%. Suite à la diffusion de ce deep fake - où l’on entendait le candidat slovaque du parti de gauche négocier, on va dire, l'achat de votes avec une journaliste et puis insulter copieusement son rival de droite -, le candidat a perdu environ 3 points et a donc fini par perdre ces élections. Il s'est avéré par la suite que ce document audio était un faux, un deep fake audio qui avait été fabriqué pour déboulonner la campagne de ce candidat-là.

Sait-on d’où est parti ce deep fake ? On parle dans de nombreux cas de la Russie.

Alors évidemment, c'est en réalité très compliqué de retracer ce type de document, puisque rien ne le lie à aucun de ses créateurs. Donc, il suffit en réalité de fabriquer le document ou le fichier, puis de le diffuser de façon habile sur les réseaux, à travers un canal Telegram ou WhatsApp, et le tour est joué. D'autant qu’il n'y a pas de traçabilité, on ne sait pas comment remonter jusqu'à la source.

Mais on arrive parfois à voir à qui profite le crime.

Exactement, c'est plus par une déduction qu'on va imaginer qui est à l'origine de la propagation de ce document, que réellement avoir une preuve tangible de la source.

La Commission européenne, le 27 mars 2024, a demandé aux principaux réseaux sociaux X (anciennement Twitter), Facebook ou TikTok - les plus populaires - de faire un peu le ménage, d'identifier ces deep fake, ces images et ces sons générés par l'intelligence artificielle. Est-ce que ces réseaux sociaux jouent le jeu ?

Non. Il se trouve que les réseaux sociaux, depuis très longtemps maintenant, ne jouent pas réellement le jeu de l'information. Ils ont commencé par laisser les fake news proliférer, puis ils ont démonétisé d'une certaine manière la valeur des contenus réalisés par de véritables rédactions et de véritables journalistes. Jusqu'à finalement, pour X, carrément enlever la représentation des titres, etc.

C’est X, le réseau social d'Elon Musk, le plus mauvais élève aujourd'hui ?

Oui, probablement. Globalement, ils se tiennent tous dans un mouchoir de poche. La latitude de Mark Zuckerberg, le patron Facebook, vis-à-vis des médias est aussi assez rétive. Donc, on voit bien qu’à la fois, sur cette question-là, il se protège derrière un paravent juridique, spécifique aux États-Unis. Ils ne font pas exactement les efforts qui sont annoncés. Beaucoup d'entre eux ont d'ailleurs licencié leurs équipes soit d'éthiciens ou alors leurs équipes de modération, qui sont en charge de faire attention à ce que les contenus diffusés sur ces plateformes-là soient propres.

Et au-delà de cette mauvaise volonté des réseaux sociaux, est-ce facile d'identifier des manipulations ?

Alors non, ce n'est pas facile, parce que les détecteurs n'existent pas vraiment et que ceux qui existent ne sont pas d'une fiabilité à 100%. Et c'est là tout l'enjeu, c'est d'avoir une fiabilité à 100%. Même un détecteur qui aurait une fiabilité de 95% ou de 98% ne serait pas finalement fiable parce qu'il suffirait que 2% d'erreur soit introduit dans la machine pour que ça conduise à une catastrophe. Il faut voir aussi que l'Union européenne a une forme de double jeu dans cette histoire, puisque finalement - et c'est Reporters sans frontières (RSF) qui en a fait une lettre ouverte, où ils indiquent qu'effectivement le AI Act, la régulation supranationale qui a été votée il n'y a pas très longtemps, et qui est censée, justement, réguler l'usage de l'IA au niveau européen - néglige d'intégrer la protection du droit à l'information dans son texte. Par conséquent, on se retrouve dans une situation où l'Europe demande si les plateformes veulent bien faire quelque chose, mais n'intègre pas dans le texte fondateur qui est censé réguler l'IA les dispositions nécessaires pour pouvoir justement exercer un contrôle effectif sur cette question-là.

NewsletterRecevez toute l'actualité internationale directement dans votre boite mail

Suivez toute l'actualité internationale en téléchargeant l'application RFI

Voir les autres épisodes