Sora 2: le générateur de vidéos par IA qui a tout pour devenir une usine à infox
Publié le :
Les vidéos de Sora 2, le nouveau générateur de vidéos artificielles développé par Open AI, la start-up derrière Chat GPT, sont partout sur les réseaux sociaux. Tout comme Veo 3 de Google, cet outil permet de transformer un simple texte en un clip ultra-réaliste. Lancée en septembre, l’application est à ce jour uniquement disponible aux États-Unis et au Canada, sur invitation. La cellule Info Vérif de RFI a tout de même pu l’essayer, et le constat est assez inquiétant.

La conclusion de notre essai est sans appel, il n’a jamais été aussi simple de produire des deepfakes, des hypertrucages ultra-réalistes. En seulement quelques clics, nous avons pu générer des dizaines de vidéos artificielles sur des sujets humoristiques, un crocodile faisant ses courses par exemple, mais aussi sur des sujets d’actualité beaucoup plus sensibles. Le résultat est bluffant à l’image, mais aussi au niveau du son.
Vidéo artificielle générée par Sora 2
Contrairement à la première version, Sora 2 propose un rendu fidèle des gestes, des visages, des mouvements. Pour Marc Faddoul, chercheur en intelligence artificielle, directeur d’AI Forensics, « c'est une des premières fois qu'on arrive à avoir vraiment des vidéos qui font illusion pour la majorité des utilisateurs, donc il est vrai qu'on assiste encore à une nouvelle étape ».

Un potentiel énorme de désinformation
Ce tournant inquiète les experts de la lutte contre la désinformation. À juste titre puisque ce type d’outil peut rapidement devenir une arme de désinformation massive. Des chercheurs de la société NewsGuard ont ainsi mis Sora à l’épreuve en lui demandant explicitement de générer des infox. Résultat, l’outil accepte dans 80 % des cas de produire du faux sans le moindre message d’avertissement.

L’un des seuls garde-fous mis en place par Open AI, c’est la présence d’un petit logo Sora, apposé sur les images qu’il génère. C’est ce que l’on appelle un watermark, une sorte de marque de fabrique.

Mais dans les faits, certains parviennent à le supprimer ou à le dissimuler. Cette semaine, une fausse vidéo d’un coup d’État en Espagne a fait des millions de vues sur les réseaux sociaux. Le logo de Sora avait été dissimulé derrière un smiley.

Distinguer le vrai du faux
Avec le perfectionnement de ce type d’outil, il est de plus en plus difficile, voire parfois impossible, de distinguer visuellement une vraie vidéo d’une vidéo artificielle. Les IA génératives ne commettent presque plus d’erreurs grossières, comme des mains à six doigts ou des yeux perdus dans le vide.
Le meilleur conseil, c’est d’abord de faire attention à la durée de la vidéo. Aujourd’hui, Sora permet de générer des vidéos de dix secondes maximum. La qualité visuelle est également limitée, les images sont donc souvent légèrement floues. En cas de doute, analysez bien le contexte, demandez-vous qui partage cette vidéo et cherchez à croiser l’information avec des sources fiables.
La guerre des modèles
Un autre processus de vérification consiste à utiliser des outils de détection d’IA. Le problème majeur, c’est que les résultats ne sont jamais fiables à 100 %.
Marc Faddoul, rappelle que les modèles de vérification progressent toujours moins vite que les modèles de génération : « À partir du moment où vous avez un modèle qui est capable de détecter votre modèle, il suffit d'entraîner votre modèle existant face à ce modèle de détection pour lui apprendre à ne plus se faire détecter. Il y a vraiment un jeu de chat et de la souris qui est inéluctable. C'est donc difficile de penser qu'à terme, on aura une solution de vérification qui sera systématiquement fonctionnelle ».
NewsletterRecevez toute l'actualité internationale directement dans votre boite mail
Je m'abonne