Accueil Actualité Les agents conversationnels IA ne sont pas vos confidents ! 

Les agents conversationnels IA ne sont pas vos confidents ! 

Les agents conversationnels IA ne sont pas vos confidents ! 
Illustration

Les agents conversationnels d’intelligence artificielle s’invitent désormais dans nos quotidiens, au travail comme à la maison. Ainsi, de plus en plus de personnes confient à ChatGPT, MetaAI ou Grok leurs recherches, leurs projets… et parfois leurs secrets. Mais jusqu’où peut-on faire confiance à ces assistants virtuels ? Parce que derrière leur ton rassurant, ces agents IA  cachent un risque de fuite d’informations sensibles.

Des experts en cybersécurité alertent : ces outils ne sont pas conçus pour protéger vos confidences. Dans cette entrevue publiée par La Presse, deux spécialistes. Sébastien Gambs, professeur en informatique à l’UQAM et Ali Dehghantanha, professeur à l’École de sciences informatiques de l’Université de Guelph, expliquent les risques concrets liés au partage d’informations personnelles et professionnelles avec les agents conversationnels.

Y a-t-il des risques à larguer des informations personnelles dans les agents conversationnels ?

« Le premier risque vient du fait que vos données se retrouvent dans les serveurs d’entreprises privées », note Sébastien Gambs. Ces géants du web se réservent le droit de se servir de nos données pour entraîner leurs algorithmes. « Les gens peuvent penser que ce n’est pas grave. Mais il y a toujours un risque que votre profil soit enregistré », poursuit-il. Et soudainement, votre prime d’assurance augmente ! Parce que vous avez posé des questions qui semblaient indiquer que vous achetiez une voiture sport.

Vos informations peuvent aussi être indexées par Google et s’afficher dans ses résultats de recherche. Ou, elles peuvent même se retrouver dans les mains de pirates informatiques. « Les pirates pourraient vous personnifier pour soutirer de l’information à un agent conversationnel avec qui vous interagissez. », ajoute Ali Dehghantanha.

Qu’en est-il de l’utilisation professionnelle ?

C’est là que ça se corse. Faire analyser des tendances par ChatGPT en y versant des fichiers confidentiels contenant des données de clients ? Mauvaise idée. Même si de plus en plus de politiques d’usage internes sont mises en place, certains employés utilisent des agents conversationnels sans trop y réfléchir, Sébastien Gambs croit que les employés devraient être davantage sensibilisés et ne pas utiliser leurs comptes personnels pour faire des tâches professionnelles.

Quels sont les autres problèmes de sécurité ?

Les programmeurs utilisent de plus en plus les agents d’intelligence artificielle pour coder. « Ça va plus vite, mais on observe une augmentation du nombre de vulnérabilités du code produit par la machine, qui répète sans savoir si c’est bon ou mauvais », remarque M. Gambs.

Y a-t-il déjà eu des fuites de données depuis des agents conversationnels ?

Oui. En août 2025, les échanges d’utilisateurs de MetaAI, Grok et ChatGPT sont apparus dans les résultats de recherche de Google ou rendus publics. Un mois avant, c’est le dialogueur de McDonald’s qui avait dévoilé des données confidentielles des personnes qui y ont déposé leur candidature lorsque des chercheurs en sécurité ont voulu vérifier la vulnérabilité de la plateforme.

Le professeur Ali Dehghantanha a lui-même réussi à forcer un agent conversationnel interne d’une grande entreprise à lui donner des informations sensibles lors d’un audit de sécurité. « Nous avons trouvé que les utilisateurs pouvaient voir pas mal plus de choses qu’ils ne le devaient », raconte-t-il. Un stagiaire aurait ainsi pu accéder aux informations que le PDG avait échangées avec l’IA.

En septembre, c’était au tour du serveur d’une entreprise derrière les générateurs d’images ImagineArt, Chatly et ChatbotX qui laissait couler des données qui auraient pu permettre l’accès à l’historique des conversations, ou la prise de contrôle d’un compte.

Est-ce que les versions payantes sont plus sûres ?

« Pas vraiment, croit M. Gambs. La meilleure chose, c’est d’installer localement [l’outil d’IA] » – ce qui n’est pas à la portée de tous, entreprises comme individus. » On s’en tient donc à des agents conversationnels bien connus (nous ne sommes pas à l’abri de faux dialogueurs). Et surtout, on n’y met aucune information privée.

Avec LaPresse

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici