Les dessous de l'infox, la chronique

Comment vérifier une information en direct grâce à l'intelligence artificielle ?

Publié le :

« Nous allons nous débarrasser des fact-checkers ». Cette déclaration du patron de Meta, Mark Zuckerberg, ce mardi 7 janvier, a suscité beaucoup d’inquiétude chez les spécialistes de la lutte contre la désinformation. Pendant que certains veulent faire disparaître le fact-checking sur les réseaux, d’autres essayent au contraire de faciliter l’accès à des informations vérifiées. C’est le cas de l'ONG La Réponse Tech qui a récemment lancé, Vera, un bot conversationnel de vérification.

Vera est un bot conversationnel permettant de vérifier gratuitement une information en temps réel.
Vera est un bot conversationnel permettant de vérifier gratuitement une information en temps réel. © Askvera.org
Publicité

Utiliser l’intelligence artificielle pour permettre à tout un chacun de vérifier une information en temps réel. C’est la mission que s’est lancée le collectif citoyen La Réponse Tech en développant Vera, un agent conversationnel numérique, accessible 24 heures sur 24, 7 jours sur 7. Concrètement, il suffit d’appeler le numéro de téléphone de Vera, +33 9 74 99 12 95 ou bien de lui envoyer un message sur WhatsApp, en lui demandant si telle information est vraie ou fausse.

00:29

Test de Vera

Pour cet exemple, nous avons volontairement posé une question sur une infox vérifiée par la cellule Info Vérif de RFI. Mais cette intelligence artificielle se base sur le travail de plusieurs centaines de sources fiables, sélectionnées par un comité d’experts et librement consultables.

Il est possible de contacter Vera par WhatsApp, partout dans le monde, simplement en lui envoyant un message.
Il est possible de contacter Vera par WhatsApp, partout dans le monde, simplement en lui envoyant un message. © Capture d'écran/ Vera/ WhatsApp

« À partir de la question posée par l’utilisateur, Vera va d’abord chercher si des rédactions de fact-checking ont traité le sujet. Si ce n’est pas le cas, elle va chercher la réponse auprès de 300 sites de médias reconnus comme fiables, avant d’en faire une synthèse et de la proposer en temps réel », explique son fondateur, Florian Gauthier. Techniquement parlant, Vera se base sur le modèle de langage GPT-4, développé par la société américaine Open AI.

01:43

Florian Gauthier- Le fonctionnement de Vera

Aujourd’hui, Vera est utilisée par environ 700 utilisateurs uniques chaque semaine.

Une IA modelée pour éviter les erreurs

Comme tout outil basé sur l’intelligence artificielle, Vera n’est pas infaillible. Le risque d’erreur ou de réponse incomplète existe. Mais contrairement à des chatbots comme ChatGPT, Perplexity ou Claude, Vera n’a pas été pensée pour répondre coûte que coûte à la question posée. « Vera a l’interdiction totale, d’imaginer quoi que ce soit. Dès qu’elle va formuler une réponse, c’est que cette réponse a été donnée par une source fiable qui est toujours citée. Si Vera ne trouve pas la réponse dans sa base de données, ce qui arrive par moment, elle ne va pas chercher à inventer. Elle se contentera alors de préciser qu’elle n’a pas trouvé la réponse à cette question », détaille Florian Gauthier.

00:27

Florian Gauthier - Eviter les hallucinations

Autre limite, la base de données ne peut pas être exhaustive. Il est donc possible que Vera vous réponde qu’elle ne sait pas même si le sujet a déjà été vérifié. Mais d’après nos essais, Vera est aujourd’hui le bot conversationnel le plus efficace pour vérifier une information en temps réel. À l’avenir, ses créateurs envisagent de rendre Vera multilingue, et de proposer gratuitement le service sur d’autres plateformes et réseaux sociaux.

Lutter contre les discours complotistes

Au-delà de permettre ce processus de vérification en temps réel, ce genre d’agent conversationnel pourrait également permettre de limiter, chez certains utilisateurs, l'adhésion aux théories complotistes. C’est ce que montre une étude récente publiée dans la revue scientifique Nature. « De nombreuses personnes qui croient fermement à des théories du complot apparemment infondées peuvent changer d’avis lorsqu’on leur présente des preuves convaincantes. (...) Les dialogues avec l’IA réduisent durablement les croyances complotistes, même parmi les plus fervents croyants », concluent les chercheurs.

Pour Florian Gauthier, « l’intelligence artificielle est un super outil pour propager des fausses informations. Mais l’IA peut aussi être, au contraire, une véritable piste de réponse pour combattre la désinformation ».

NewsletterRecevez toute l'actualité internationale directement dans votre boite mail

Suivez toute l'actualité internationale en téléchargeant l'application RFI

Voir les autres épisodes