Vous lui parlez chaque jour… mais savez-vous vraiment qui lit tout ce que vous confiez à ChatGPT ?

Saviez-vous qu’environ 2,5 milliards de requêtes sont analysées chaque jour par des équipes d’OpenAI ?

Publié le
Lecture : 2 min
Vous lui parlez chaque jour… mais savez-vous vraiment qui lit tout ce que vous confiez à ChatGPT ?
Vous lui parlez chaque jour… mais savez-vous vraiment qui lit tout ce que vous confiez à ChatGPT ? © L'EnerGeek

Dans un monde où l’intelligence artificielle prend de la place dans notre quotidien, la question de la confidentialité des données se pose de plus en plus. D’après Slate, un incident survenu au début du mois d’octobre aux États-Unis, dans un collège de Floride, a remis le sujet sur le devant de la scène en montrant les comportements imprévisibles des IA, l’agent conversationnel développé par OpenAI.

Interaction avec l’IA — quels risques ?

Le problème de la confidentialité avec ChatGPT s’est illustré de façon frappante quand un collégien de 13 ans a demandé « Comment tuer mon ami en plein cours ? ». Un « système automatisé de surveillance des contenus numériques » a transmis cette requête à la police, ce qui a entraîné l’arrestation du jeune utilisateur.

Des milliers de requêtes — environ 2,5 milliards par jour — sont examinées par des équipes internes et externes pour améliorer et réguler le système. Outre les forces de l’ordre, des dizaines de personnes chez OpenAI, allant de la cellule « sécurité » aux chercheurs, et même des prestataires dans des pays aux règles de confidentialité souvent moins strictes qu’en Europe, peuvent avoir accès à ces données.

Comment utiliser ChatGPT sans risquer vos données

ChatGPT peut être un outil polyvalent, mais il y a des mises en garde sérieuses sur l’utilisation responsable de cet outil. Cela comprend :

  • les informations d’identité telles que le numéro de sécurité sociale et l’adresse complète,
  • les données bancaires comme les mots de passe et identifiants,
  • les données privées d’entreprise,
  • et les pensées intimes.

Les informations communiquées peuvent réapparaître dans les réponses à d’autres utilisateurs, ce qui crée un réel risque de fuite.

OpenAI propose des options pour mieux gérer la confidentialité, comme désactiver « Améliorer le modèle pour tous » et couper la fonction « Mémoire ». Ces actions empêchent l’usage des conversations pour l’entraînement des futurs modèles, même si certaines métadonnées peuvent être conservées pendant quelques jours.

Que fait OpenAI quand il y a un contenu problématique

Quand une requête est considérée comme présentant un risque immédiat, OpenAI peut transférer ces conversations vers des « pipelines spécialisés » étudiées par une « petite équipe » formée aux politiques d’utilisation de l’entreprise. Des mesures comme la suspension de compte peuvent être appliquées.

OpenAI indique toutefois, et c’est un point important, que les cas d’automutilation ne sont pas rapportés aux autorités, mettant en avant le respect de la vie privée de ses utilisateurs. Le groupe précise : « Lorsque nous identifions des utilisateurs susceptibles de s’en prendre physiquement aux autres, nous transférons leurs conversations vers des pipelines spécialisés. »

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.