L’intelligence artificielle (IA) devient un puissant levier pour les cybercriminels. C’est le constat posé par OpenAI dans un rapport publié en juin 2025. L’organisation alerte sur une réalité : l’IA ne crée pas de nouvelles menaces, mais amplifie celles déjà existantes.
L’intelligence artificielle, au service des cyberattaques
Les cybercriminels exploitent l’IA pour franchir plus facilement des barrières techniques. Même sans compétences avancées, ils peuvent aujourd’hui lancer des attaques complexes. Grâce à des outils comme ChatGPT, ils rédigent des messages d’escroquerie crédibles, traduits automatiquement en plusieurs langues. Résultat : une portée mondiale, sans frontières linguistiques. OpenAI distingue plusieurs formes d’abus :
- Ingénierie sociale : usurpation d’identité, création de CV falsifiés, réponses automatisées aux victimes.
- Cyberopérations : développement de malwares, tests d’intrusion basés sur l’IA.
- Propagande : campagnes de désinformation automatisées, faux profils sur les réseaux sociaux.
- Autres abus : exploitation d’enfants, diffusion de spams, usage autoritaire à des fins de contrôle.
Des contre-mesures en évolution constante
Face à cette menace, OpenAI mobilise l’IA pour renforcer ses capacités de défense. Ses modèles aident les équipes à détecter et stopper les activités suspectes à grande échelle. En quelques mois, plusieurs opérations illicites ont été interrompues. OpenAI a mis en place une approche en quatre volets :
- Enquête augmentée : l’IA renforce le travail des analystes pour repérer les signaux faibles.
- Blocages proactifs : les comptes suspects sont supprimés, souvent en coordination avec d’autres acteurs.
- Partenariats renforcés : l’entreprise partage ses données avec les autorités, régulateurs et entreprises du secteur.
- Apprentissage continu : chaque attaque déjouée permet de perfectionner les modèles de défense.
Attaque-Défense : la boucle vertueuse de l’IA
Fait surprenant : en utilisant l’IA, les cybercriminels offrent involontairement à OpenAI une meilleure visibilité sur leurs méthodes. L’organisation observe comment les cybercriminels détournent les modèles. Ce qui lui permet d’en apprendre davantage sur leurs outils. Cette connaissance devient un atout stratégique pour anticiper les attaques suivantes.
L’IA devient un champ de bataille numérique. Si elle sert les intérêts des cybercriminels, elle équipe aussi les défenseurs. Pour OpenAI, l’enjeu est clair : rester en alerte, s’adapter en permanence, et faire de chaque menace une opportunité d’apprendre.