Accueil Actualité Voici vos données personnelles à ne pas communiquer à une IA

Voici vos données personnelles à ne pas communiquer à une IA

Voici vos données personnelles à ne pas communiquer à une IA
Illustration

Les données personnelles sont une denrée précieuse à l’ère du numérique. Et avec leur omniprésence actuelle dans le quotidien des utilisateurs, les IA comme ChatGPT en brassent des millions chaque jour. Elles séduisent par leur disponibilité et leur capacité à répondre à des questions dans tous les domaines. Et pourtant, elles exposent à un risque omniprésent à cette ère du numérique : la fuite des données sensibles. Les experts pointent du doigt les risques que l’IA perde le contrôle sur les informations que les utilisateurs lui confient. Pour éviter de s’exposer tout en bénéficiant de ses performances, voici quelques exemples de données qu’il est fortement déconseillé de partager.

Les données bancaires, une porte ouverte aux fraudes

ChatGPT lui-même reconnaît qu’il ne faut jamais transmettre d’informations bancaires, telles que le numéro de carte, les identifiants ou un RIB. L’outil n’est pas conforme aux normes de sécurité bancaire. Ce qui le rend vulnérable aux tentatives de fraude. Même si vous cherchez un conseil sur une opération financière, abstenez-vous de fournir la moindre information identifiable. Il en va de votre sécurité.

Les données personnelles : un risque pour votre identité

Adresse, numéro de téléphone, date de naissance ou encore numéro de sécurité sociale… sont toutes des données personnelles. En ce sens qu’elles permettent de vous identifier de manière formelle. Or, ChatGPT précise lui-même que ses conversations, bien que privées, « ne sont pas conçues pour stocker ou sécuriser ce type d’information sensible ». 

Antoine Boutet de l’Insa de Lyon et Alexis Léautier de la CNIL, deux spécialistes cités par TF1,  rappellent qu’une simple requête bien formulée a déjà permis à des chercheurs de faire surgir des informations personnelles saisies par d’autres utilisateurs. Prudence donc : ce que vous entrez dans la machine pourrait réapparaître ailleurs, malgré vous.

Les données médicales : des conséquences potentiellement graves

Tout le monde peut poser une question de santé à une IA. Mais, il faut rester dans les limites du raisonnable. En effet, l’outil peut aider à comprendre un terme médical ou interpréter des résultats généraux, mais il n’est pas médecin. 

Partager des documents médicaux contenant votre nom complet ou votre numéro de sécurité sociale est une violation des règles de protection des données sensibles, préviennent les experts cités par TF1. Et surtout, cela expose à une fuite d’informations critiques sur votre santé.

Les informations professionnelles, souci de confidentialité

Au travail, la vigilance est également de mise. Les documents professionnels confidentiels comme les contrats, les feuilles de route ou encore les stratégies internes ne doivent jamais transiter par un chatbot. Ces informations, protégées parfois par le secret professionnel, pourraient être exploitées de manière inappropriée, voire ressurgir dans une autre requête. Évitez donc de les partager afin de ne pas mettre en péril la sécurité de votre entreprise.

La vie privée et les émotions

Enfin, bien que ChatGPT puisse offrir une écoute bienveillante et des conseils généralistes, il ne remplace en rien un professionnel de la santé mentale. Partager ses états d’âme, traumatismes ou récits personnels peut donner un sentiment de soulagement. Mais cela n’est pas sans danger. 

Citée par TF1, la psychothérapeute Sabine Allouchery explique que « l’IA va répondre avec les informations qu’on lui a données, alors qu’un psychothérapeute va aller chercher celles qui lui manquent ». Même mise en garde de la part de Joséphine Arrighi de Casanova, vice-présidente de MentalTech. Pour elle, « se confier à une IA peut renforcer l’isolement, un facteur aggravant pour la santé mentale ».

Utiliser une IA comme ChatGPT peut être très utile, mais cela suppose de garder le contrôle sur ce que l’on partage. Ainsi, chacun contribue à protéger sa vie privée et à limiter les risques de détournement ou de fuite d’informations.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici