Vera est une assistante IA pensée contre la multiplication des fausses informations en ligne. Il ne s’agit pas d’une assistante IA généraliste comme ChatGPT, Copilot ou Gemini. Mais plutôt d’une assistante spécialisée dans la vérification des faits. Elle est capable d’analyser des affirmations, de s’appuyer sur des sources fiables et d’aider les internautes à mieux comprendre l’information.
Vera est une initiative de l’ONG française LaRéponse.tech. Pour l’utiliser, il suffit d’enregistrer son numéro, le (+33) 09.74.99.12.95 et de lui envoyer un message sur WhatsApp. Vous pouvez également l’appeler par téléphone pour lui demander de vous vérifier si telle ou telle rumeur est vraie. « Bonjour, je m’appelle Véra, quelle information souhaites-tu vérifier aujourd’hui ? », vous répondra-t-elle.
Voici comment fonctionne cette IA de factchecking
D’abord, l’utilisateur lui soumet une affirmation, une information ou un sujet controversé. Elle va dans un premier temps analyser cette demande avec des modèles d’IA de langage (LLM). Ensuite, l’assistante s’appuie sur un ensemble de sources jugées fiables. Il s’agit notamment de médias reconnus et d’organismes de fact-checking. Ils passent ensuite par des comités d’experts chargés de valider leur crédibilité. Enfin, Vera fournit une réponse structurée, claire et contextualisée.
L’objectif n’est pas de trancher de manière autoritaire, mais d’expliquer, de nuancer et de donner des éléments vérifiables pour mieux comprendre l’information. L’un des atouts de cet assistant concerne la transparence des sources, puisqu’il fournit l’origine des informations utilisées et des références publiques lorsque cela est possible. Autre atout : Vera est disponible en plusieurs langues. Un choix stratégique face à une désinformation devenue sans frontières.
Vera, une réponse technologique pour soutenir les factcheckeurs humains
Vera s’inscrit dans un contexte bien précis. Deepfakes, rumeurs virales, contenus manipulés : les outils numériques ont accéléré la propagation de fausses nouvelles. Et pour tenir face à cette vitesse, l’utilisation d’outils plus rapides s‘impose. Les solutions de fact-checking basées sur l’IA apparaissent ainsi comme un premier niveau de filtre, complémentaire au travail des journalistes et des vérificateurs humains.
Comme toute IA, Vera reste faillible. Puisqu’elle est dépendante de la qualité de ses sources, de ses bases de données et de ses modèles d’analyse. L’IA peut aider à vérifier, contextualiser et expliquer. Mais elle ne remplace ni l’esprit critique des lecteurs, ni le travail éditorial humain. Vera se présente avant tout comme un outil d’aide à la compréhension, et non comme une autorité absolue.














































