L’ingénierie sociale, autrefois limitée aux tentatives grossières d’hameçonnage, a aujourd’hui changé de visage. Boostée par l’intelligence artificielle, elle devient plus ciblée, plus fine… et surtout plus dangereuse.
Bienvenue dans l’ère de l’ingénierie sociale 2.0. Désormais, nul besoin pour un cybercriminel de vous connaître personnellement : son IA s’en charge. Grâce aux réseaux sociaux, aux données publiques et aux outils génératifs, elle peut collecter des informations, créer de faux profils convaincants, imiter des voix ou des visages, et rédiger des messages émotionnellement percutants. Tout cela en quelques minutes.
Les anciens signes d’alerte comme les fautes d’orthographe ou une mauvaise grammaire ne suffisent plus.
Anna Collard ( KnowBe4 Afrique)
L’ingénierie sociale fonctionne parce qu’elle ne cherche pas à casser des systèmes techniques, mais à tromper les gens. Par ailleurs, elle contourne les antivirus et les pare-feux pour attaquer la faille la plus vulnérable : la confiance humaine. « Les anciens signes d’alerte comme les fautes d’orthographe ou une mauvaise grammaire ne suffisent plus. L’IA peut reproduire un style d’écriture, créer une voix ou même un visage », explique Anna Collard, responsable stratégie de contenu chez KnowBe4 Afrique.
Aujourd’hui, les attaques ne sont plus standardisées. L’IA permet de personnaliser chaque tentative en fonction de la victime. Ainsi, un simple employé, un stagiaire ou une assistante peut devenir une cible de choix. Ce n’est plus le poste qui compte, mais les accès que l’on détient. « L’IA donne à chaque escroc l’équivalent d’une agence de renseignement numérique », résume Anna Collard.
Les techniques classiques : se renseigner, établir un prétexte, créer une relation de confiance, sont désormais automatisées. Et contrairement à un humain, l’IA ne se fatigue pas. Au contraire, elle apprend de ses erreurs, s’adapte et s’améliore à chaque interaction.
Alors, comment se défendre ? Les outils techniques évoluent : détection d’anomalies, analyse comportementale, filtres intelligents… Mais cela ne suffit pas. « La technologie ne remplacera jamais la pensée critique. », avertit Collard. « Il faut aller au-delà du simple “ne cliquez pas sur le lien”. Les organisations doivent combiner vigilance humaine et précision des machines. »