Les aperçus de l’IA des recherches avec Google Lens donnent aux utilisateurs des informations fausses et trompeuses sur certaines images largement partagées sur les réseaux sociaux, a révélé une enquête de Full Fact. Cela se produit pour des vidéos soi-disant liées aux guerres en Ukraine et à Gaza, au conflit indo-pakistanais, au crash de l’avion d’Air India en juin 2025 et aux arrivées de petits bateaux au Royaume-Uni.
Nous avons effectué un certain nombre de recherches de captures d’écran de moments clés de vidéos trompeuses que nous avons vérifiées au cours des derniers mois à l’aide de Google Lens, et nous avons constaté que les aperçus de l’IA pour au moins dix de ces clips ne parvenaient pas à reconnaître le contenu inauthentique ou partageaient de fausses déclarations sur ce que les images montraient.
Dans quatre exemples, les aperçus de l’IA reprenaient les fausses affirmations partagées avec ces clips sur les réseaux sociaux, affirmations que Full Fact a démenties. Nous avons également constaté que les aperçus de l’IA changeaient à chaque recherche, même pour un même sujet, ce qui nous empêchait souvent de générer des réponses identiques ou cohérentes.
Interrogés par Google sur ces erreurs, un porte-parole a déclaré qu’ils avaient pu en reproduire certaines et qu’elles étaient dues à des problèmes liés aux résultats de recherche visuels, plutôt qu’aux aperçus IA eux-mêmes. Google a expliqué que les résultats de recherche font apparaître des sources web et des publications sur les réseaux sociaux qui combinent la correspondance visuelle avec de fausses informations, ce qui alimente ensuite l’aperçu IA.
Un porte-parole de Google nous a déclaré : « Notre objectif est de proposer des informations pertinentes et de qualité dans toutes nos fonctionnalités de recherche, et nous continuons à améliorer la qualité grâce à des mises à jour et des améliorations continues. Lorsque des problèmes surviennent, par exemple si nos fonctionnalités interprètent mal le contenu web ou manquent de contexte, nous utilisons ces exemples pour nous améliorer et prendre les mesures appropriées conformément à nos règles. »
Ils ont ajouté que les aperçus de l’IA s’appuient sur les résultats de recherche et ont affirmé qu’ils « hallucinent ». Dans ce contexte, l’hallucination se produit lorsqu’un modèle génère des informations fausses ou contradictoires, souvent présentées avec assurance , bien qu’il existe un désaccord sur la définition exacte.
Même si les aperçus de l’IA ne sont pas la source du problème, comme le soutient Google, ils continuent de diffuser des informations fausses et trompeuses sur des sujets importants et sensibles.
Images mal sous-titrées
Nous avons trouvé plusieurs exemples d’aperçus d’IA répétant des affirmations démenties par Full Fact concernant de vraies images mal sous-titrées sur les réseaux sociaux.
Une vidéo virale prétendait montrer des demandeurs d’asile arrivant à Douvres, au Royaume-Uni. Or, c’est faux : elle semble en réalité montrer une foule sur une plage de Goa, en Inde. Malgré cela, l’aperçu généré par l’IA lors de la recherche d’une image de cette séquence a répété cette fausse affirmation : « L’image montre un groupe de personnes rassemblées sur la plage de Douvres, une plage de galets sur la côte anglaise. »
Un autre clip a circulé sur les réseaux sociaux, prétendant montrer l’avion d’Air India qui s’est écrasé à Ahmedabad, en Inde, le 12 juin . L’aperçu de l’IA pour une image clé indiquait également : « L’image montre un Boeing 787 Dreamliner d’Air India qui s’est écrasé peu après son décollage d’Ahmedabad, en Inde, le 12 juin 2025, alors qu’il était en route pour Londres Gatwick. » Or, c’est faux : la séquence montre un avion décollant d’Heathrow en mai 2024.
Les aperçus générés par l’IA pour deux autres vidéos dont nous avons parlé reprenaient les fausses allégations circulant sur les réseaux sociaux. Il s’agissait notamment de vidéos montrant une mosquée en feu à Barcelone, filmées en Indonésie , et de foules agitant des drapeaux palestiniens lors des funérailles du pape François en avril 2025, filmées en décembre 2023 , avant sa mort. Dans les deux cas, les aperçus de l’IA de Google ont fait les mêmes fausses déclarations sur les clips que celles faites sur les réseaux sociaux, qui les ont placés au mauvais endroit ou à la mauvaise date.
Des images presque certainement générées par l’IA
En juin, nous avons évoqué une vidéo diffusée sur les réseaux sociaux, affirmant qu’elle montrait des « avions de combat russes détruits » suite aux attaques de drones ukrainiens contre des appareils russes. Mais cette vidéo est fausse et a très probablement été générée par intelligence artificielle.
Lors de la recherche de plusieurs images clés à partir des images avec Google Lens, nous avons reçu plusieurs aperçus d’IA différents, aucun d’entre eux ne mentionnant que les images n’étaient pas réelles et étaient probablement générées par l’IA.
L’aperçu d’une capture d’écran indiquait : « L’image montre deux avions de combat endommagés, probablement russes, sur une surface pavée. Des rapports récents indiquent que plusieurs avions de combat ont explosé, dont un avion russe qui a attaqué une base militaire en Sibérie. »
Cet aperçu soutient la fausse affirmation circulant sur les réseaux sociaux selon laquelle la vidéo montre des avions de guerre russes endommagés, et s’il est vrai que des avions de la base militaire russe de Belaya en Sibérie ont été endommagés lors de cette attaque ukrainienne, il n’est pas logique de suggérer que des avions russes ont attaqué une base militaire en Sibérie, qui est principalement une province russe.
Les aperçus d’IA fournis pour d’autres captures d’écran du clip affirmaient à tort que « l’image montre les restes de plusieurs avions North American F-82 Twin Mustang ». Les F-82 étaient utilisés par l’US Air Force, mais ont été retirés du service en 1953. Ils avaient également une conception distincte, avec deux cockpits parallèles et une seule queue, qui ne correspond à aucun des avions représentés dans la vidéo probablement générée par l’IA.
Images d’un jeu vidéo
Des séquences de gameplay du jeu de simulation militaire Arma 3 circulent souvent sur les réseaux sociaux, affirmant qu’elles montrent de véritables scènes de conflit.
Nous avons trouvé plusieurs cas où les aperçus IA de Google Lens n’ont pas réussi à distinguer les images clés de ces clips des séquences réelles, et ont plutôt semblé halluciner des scénarios spécifiques vaguement liés à des événements mondiaux.
Un clip d’Arma 3 a été partagé en ligne, avec de fausses allégations montrant des hélicoptères israéliens abattus au-dessus de Gaza. Lorsque nous avons recherché une image clé avec Google Lens, au milieu des frappes aériennes israélo-iraniennes suivant l’attaque israélienne contre les infrastructures nucléaires iraniennes le 13 juin , l’aperçu d’IA indiquait qu’il s’agissait d’un avion de chasse de l’armée de l’air israélienne (IAF) déployant des leurres, probablement lors des récentes frappes contre l’Iran. Cependant, l’aperçu n’indiquait pas que la vidéo était fausse.
Un autre clip d’Arma 3 a été partagé au milieu du conflit entre l’Inde et le Pakistan en mai avec de fausses allégations montrant le Pakistan abattant un avion de chasse Rafale de l’armée de l’air indienne près de Bahawalpur au Pakistan.
L’aperçu de l’IA indique que l’image montre « un avion de chasse Shenyang J-35A, récemment acquis par l’armée de l’air pakistanaise auprès de la Chine ». Bien que des rapports récents indiquent que l’armée de l’air pakistanaise aurait acquis certains de ces avions de chasse chinois, ce n’est pas ce que montrent les images, et l’aperçu de l’IA n’indique pas qu’il s’agit d’un jeu vidéo.
Nous avons également récemment vérifié les faits d’un extrait du jeu , partagé avec de fausses allégations montrant un avion chinois pris pour cible par les forces terrestres américaines. Nous avons constaté que deux images clés de cet extrait, prises à quelques instants d’intervalle, généraient des aperçus d’IA complètement différents.
L’aperçu d’une capture d’écran indiquait que l’image montrait un « système anti-roquettes, d’artillerie et de mortier (C-RAM) en action, interceptant des projectiles », tandis que le résumé de l’IA d’une autre capture d’écran indiquait qu’elle montrait « une fusée SpaceX Falcon Heavy en cours de lancement ». Là encore, aucun aperçu ne précisait que l’extrait n’était pas réel et provenait d’Arma 3.
Aperçus de Google Lens et de l’IA
Google Lens est un outil de recherche visuelle qui analyse les images, y compris les images fixes des vidéos, et peut faire apparaître des images similaires trouvées en ligne, ainsi que du texte ou des objets liés à l’image.
Vous pouvez utiliser Google Lens pour analyser une image sur les navigateurs de bureau et mobiles en sélectionnant l’icône de l’appareil photo qui apparaît sur le côté droit de la barre de recherche Google, ou en cliquant avec le bouton droit sur une image si vous utilisez Google Chrome.
Cela fonctionne également pour les vidéos : un clic droit ouvre un menu déroulant proposant l’option « Rechercher avec Google Lens ». Cette option met la vidéo en pause et vous permet de sélectionner la partie de l’image fixe à rechercher.
Les aperçus IA apparaissent parfois en haut des résultats de recherche Google Lens. Selon Google , ils « rassemblent les informations les plus pertinentes du Web » concernant l’image, y compris des liens vers des pages connexes.
Les aperçus IA des recherches effectuées avec Google Lens comportent une note en bas de page indiquant : « Les réponses IA peuvent contenir des erreurs. » Cette note renvoie vers une page indiquant : « Bien que prometteuse, cette technologie évolue et s’améliore rapidement et peut fournir des informations inexactes ou offensantes. Les aperçus IA peuvent commettre des erreurs. »
À utiliser avec précaution
Google Lens est un outil important et souvent le premier outil utilisé par les vérificateurs de faits pour vérifier des images. Nous encourageons le public à l’utiliser également . L’inexactitude des aperçus IA de Google Lens est donc préoccupante, d’autant plus que ces informations apparaissent en haut des résultats de recherche, ce qui signifie que des affirmations fausses ou trompeuses pourraient être la première chose que les utilisateurs voient.

Bien que ces aperçus de l’IA puissent constituer un point de départ utile, ils ne peuvent remplacer le rôle des vérificateurs de faits ni le jugement humain en général. Nous recommandons à toute personne souhaitant vérifier des informations (images, vidéos ou statistiques) d’aller au-delà de ces résumés de l’IA pour trouver des sources d’information primaires et crédibles, pouvant être triangulées afin d’obtenir une image plus large et plus précise.
Ce n’est pas la première fois que nous voyons des résultats de recherche Google mettant en évidence des informations incorrectes, notamment le partage de statistiques sur l’immigration et la criminalité en Allemagne en réponse à une recherche sur le Royaume-Uni et de fausses informations sur les bienfaits pour la santé de la consommation de verre .
En toute transparence : Full Fact a reçu des financements de Google et de Google.org , la fondation caritative de Google. Vous trouverez plus de détails sur les financements reçus par Full Fact ici . Nous sommes indépendants sur le plan éditorial et nos bailleurs de fonds n’ont aucun contrôle éditorial sur notre contenu.
Hormis les images, ceci est une reprise de l’article original en anglais de Fullfact.org
















































