Sur X (ex-Twitter), une nouvelle menace numérique baptisée Grokking inquiète les experts en cybersécurité. Elle exploite Grok, l’assistant d’intelligence artificielle intégré à la plateforme pour diffuser des campagnes publicitaires trompeuses. Ces publicités dénommées « malvertising », dissimulent escroqueries, malwares et tentatives de phishing.
Selon Cybersecurity360, « la découverte a été rapportée par le chercheur en sécurité Nati Tal, qui a documenté une méthode innovante pour contourner les protections de X.» Le stratagème repose sur une manipulation technique et psychologique.
Concrètement, des pirates insèrent des liens malveillants dans les métadonnées de fichiers multimédias publiés sur X. Les zones de métadonnées qui sont normalement utilisées pour indiquer la source du contenu, échappent aux contrôles automatiques de la plateforme.
Après cette dissimulation, les escrocs demandent à Grok : « Quelle est la source de cette vidéo ? ». Sans filtre de sécurité et en se basant sur les métadonnées, l’assistant révèle publiquement l’URL cachée. Présenté comme une réponse officielle de l’IA, le lien paraît crédible aux yeux des utilisateurs et circule largement. Cette dissémination assitée par l’IA augmente ainsi la portée de l’arnaque.
Au-delà de l’arnaque, le Grokking entâche le crédibilité
Le danger du Grokking ne se limite pas au piratage technique. Il repose surtout sur la confiance des utilisateurs envers un assistant IA perçu comme fiable. Les liens malveillants diffusés via cette méthode peuvent conduire à des téléchargements frauduleux, des escroqueries financières liées aux cryptomonnaies ou au vol de données personnelles sensibles.
WhatsApp : une arnaque combine appel vidéo et partage d’écran
Pour les internautes, la vigilance est donc essentielle. Les conseils sont quasiment les mêmes en ce qui concerne les plateformes en ligne. Ne jamais cliquer sur un lien simplement parce qu’il provient d’un assistant IA. Vérifier systématiquement les sources et signaler tout contenu suspect.
Côté plateformes, cette attaque souligne l’urgence de renforcer les contrôles. Ces contrôles concernent tant les métadonnées, que d’intégrer des filtres de sécurité aux réponses générées par les assistants IA. Sans cela, les systèmes conçus pour informer et protéger risquent de devenir des outils involontaires au service des cybercriminels.
















































