Les inquiétudes autour de l’intrusion des intelligences artificielles dans la vie privée des utilisateurs ne cessent de monter, notamment en raison de préoccupations croissantes sur la confidentialité des données. Tout a pris de l’ampleur après le témoignage d’un utilisateur sur le forum Reddit, qui confie son angoisse à l’idée que ses échanges avec le chatbot ChatGPT puissent être consultés par des tiers. Ces craintes, nourries par diverses informations sur la gestion des données personnelles, soulèvent des questions sur l’utilisation des IA à des fins personnelles et professionnelles.
Usage massif : des chiffres qui parlent
Les chiffres d’utilisation de ChatGPT, développé par OpenAI, sont impressionnants. Le chatbot revendique entre 800 et 900 millions d’utilisateurs dans le monde, dont plus de 18 millions en France, confirme Ouest France. Mais cette adoption rapide n’est pas sans conséquences. En décembre 2024, l’autorité italienne a infligé une amende de 15 millions d’euros à OpenAI pour des violations présumées.
La réglementation autour de l’IA évolue aussi : l’IA Act, introduit par la Commission européenne en avril 2021, devrait entrer progressivement en vigueur à partir d’août 2026, et les mesures concernant les risques élevés ne s’appliqueront qu’à partir d’août 2027.
Qui a accès à vos échanges chez OpenAI ?
OpenAI reconnaît que des humains peuvent accéder à certaines conversations, pour plusieurs raisons : améliorer la qualité des réponses, corriger des erreurs du modèle, ou vérifier des problèmes de sécurité. Ce personnel inclut des « annotateurs ou sous-traitants ». En parallèle, ChatGPT assure que « la majorité des conversations ne sont pas lues ». L’entreprise promet aussi que les données personnelles ne sont pas monétisées. Son modèle économique repose sur des abonnements payants, des services aux entreprises, et des partenariats, notamment avec Microsoft. Malgré ces garanties, la publication PCmag a qualifié l’approche de ChatGPT de « marketing anxiogène ».
Ce que disent les experts
Pour Antoine Petel, docteur en droit des données, l’intérêt initial pour l’entraînement des outils a glissé vers une quête de monétisation des données. Il cite notamment le partenariat d’OpenAI avec Critéo, une société de publicité ciblée. L’expert rappelle toutefois que le RGPD impose des règles strictes sur l’utilisation des données en Europe, et que la CNIL en France, comme d’autres autorités, surveille ces pratiques. Petel précise que les entités développant des LLM, comme OpenAI, doivent respecter ces réglementations pour éviter des sanctions sévères, en réponse aux préoccupations éthiques.






