Les deepfakes, grâce à l’intelligence artificielle, sont propulsés vers de nouveaux sommets de sophistication, transformant les arnaques en ligne en véritables tours de force cybercriminels. Selon les experts de Kaspersky, les modèles d’IA générative sont désormais les outils de prédilection des cybercriminels. Ils les exploitent pour orchestrer des attaques de phishing redoutables, usurper des identités avec une facilité déconcertante. Ils s’en servent également pour lancer des attaques cognitives insidieuses et exploiter les failles de sécurité des LLM (Large Language Models)
Dans le premier volet de ce dossier en trois parties, nous avons exploré les différents types d’arnaques alimentées par IA. Pour ce deuxième chapitre, plongeons au cœur de cas concrets qui illustrent la puissance destructrice de ces attaques.
Usurpation d’identité par Deepfakes, les cas sont légion !
Les deepfakes permettent d’imiter la voix et l’apparence de personnalités publiques ou de proches. Par ces techniques, les criminels manipulent leurs victimes. Ils peuvent, par exemple, se faire passer pour un dirigeant d’entreprise afin d’obtenir des transferts d’argent ou des informations sensibles.
L’affaire de l’employé de la société Arup à Hong Kong, qui a perdu 25 millions de dollars en 2024, est un exemple marquant de cette réalité. Les cybercriminels cachés derrière de faux dirigeants générés par IA l’ont dupé et convaincu de transférer des fonds.
Un autre cas s’est déroulé en Italie dans l’affaire de « l’Arnaque Crosetto ». Des escrocs ont utilisé des technologies sophistiquées d’IA pour une technologie d’IA sophistiquée pour imiter la voix du ministre de la Défense, Guido Crosetto. Par ce subterfuge, ils ont soutiré de l’argent à des hommes d’affaires en leur faisant croire qu’ils finançaient la libération de journalistes kidnappés au Moyen-Orient.
Les escroqueries sentimentales ont également trouvé un nouveau souffle grâce aux deepfakes. Les escrocs utilisent l’IA pour créer de fausses identités et interagir avec leurs victimes via des appels vidéo. Après avoir gagné leur confiance, ils leur demandent de l’argent pour des urgences, des voyages ou des prêts. Récemment, un groupe de plus de vingt personnes impliquées dans ce type d’escroquerie a été arrêté après avoir volé 46 millions de dollars à des victimes à Taiwan, à Singapour et en Inde.
Phishing , ingénierie sociale et LLM : le trio infernal des cybercriminels
L’IA générative permet aux cybercriminels de créer des e-mails de phishing plus crédibles. Ils peuvent ainsi supprimer les erreurs grammaticales et adapter les messages à leurs cibles. Ils automatisent également la création de faux sites Web et de chatbots frauduleux. Ce qui leur facilite les escroqueries à grande échelle.
Les escrocs utilisent également l’IA pour diffuser des informations trompeuses et influencer l’opinion publique. Ils créent ainsi des contenus hyperréalistes pour propager de fausses nouvelles. Contrairement aux cyberattaques traditionnelles, ces attaques visent à manipuler les perceptions et les croyances des individus à leur insu.
L’utilisation croissante de chatbots et d’IA générative dans les entreprises expose ces dernières à de nouveaux risques liés aux LLM. Les attaques par injection, les manipulations de données externes et les commandes cachées dans des fichiers multimédias sont autant de failles de sécurité que les cybercriminels peuvent exploiter. En outre, les biais intégrés aux modèles IA peuvent générer des réponses erronées ou discriminatoires. Ils posent ainsi des défis majeurs en matière de cybersécurité.
Face à ces menaces, les experts recommandent de renforcer la vigilance et les mesures de protection. Ils recommandent entre autres, la vérification systématique des sources d’information, la sensibilisation aux nouvelles techniques de fraude et la surveillance des activités suspectes en ligne.
Techs.tg vous donne rendez-vous dans le 3e et dernier volet de ce dossier. Il sera consacré aux moyens de se protéger contre ces menaces générées par l’IA.