Refuser l’utilisation de vos données pour entraîner les IA : guide simple (ChatGPT, Gemini, Copilot…)

2/20/20263 min read

Certaines plateformes d’IA peuvent réutiliser des données d’usage pour améliorer leurs modèles. La CNIL a publié un guide pratique pour s’opposer à cette réutilisation, service par service.

Cet article résume l’essentiel et te donne une méthode claire, avec un point important : les menus et libellés peuvent évoluer, donc vérifie toujours la version la plus récente des paramètres.

Ce que propose la CNIL (et ce qu’elle ne dit pas)

La CNIL explique comment s’opposer à la réutilisation de ses données pour l’entraînement d’agents conversationnels, pour plusieurs plateformes. Elle précise qu’elle ne se prononce pas dans cet article sur la conformité au RGPD des procédés proposés.

Le cadre “droit d’opposition” en bref

En pratique, l’opposition vise à demander qu’un organisme cesse certains usages de tes données. La CNIL rappelle ce droit et les recours si un organisme refuse ou ne répond pas.
Côté RGPD, les droits des personnes (dont l’opposition) font partie du chapitre “Droits de la personne concernée”.

Information utile : ce qui ressemble à un “opt-out” dans une interface n’est pas toujours identique à une demande formelle d’exercice de droits. Dans le doute, tu peux faire les deux : désactiver le réglage + envoyer une demande.

Avant de toucher aux réglages : une règle simple

Ne saisis jamais dans un agent conversationnel :

  • données de santé,

  • données de mineurs,

  • données RH nominatives,

  • informations clients identifiantes,

  • secrets d’affaires.

Même si un réglage existe, le meilleur levier reste la minimisation des données partagées.

Comment s’opposer, plateforme par plateforme (résumé opérationnel)

Les chemins ci-dessous sont tirés du guide CNIL.

Google – Gemini

Option 1 : via l’activité du compte

  • Aller dans l’onglet “Activité”.

  • Dans “Activité dans les applications Gemini”, choisir “Désactiver et supprimer l’activité”.
    Note : désactiver peut supprimer l’historique et arrêter la sauvegarde des conversations.

Option 2 : via formulaire

  • Passer par la politique de confidentialité et déposer une demande (avec parfois des captures d’écran).

Meta – Meta AI (Facebook / Instagram)

Via le centre d’exercice des droits

  • Utiliser le centre d’exercice des droits de Meta.

  • Accéder au bloc “Comment m’opposer…”.

  • Choisir le formulaire adapté (opposition à l’utilisation par Meta AI / opposition à l’utilisation par des tiers).

Sans compte

  • Possibilité de créer une demande d’assistance via le même centre.

Cas WhatsApp

  • Passer par un formulaire dédié indiqué par la CNIL.

OpenAI – ChatGPT

Dans les paramètres :

  • Ouvrir “Gestion des données”.

  • Aller sur “Améliorer le modèle pour tous”.

  • Décochez l’option liée à l’amélioration du modèle.

Microsoft – Copilot

Dans les paramètres :

  • Onglet “Confidentialité”.

  • Désactiver “Formation du modèle sur du texte” et “Formation du modèle sur la voix”.

X – Grok

Dans Grok :

  • ParamètresContrôle de données → décocher “Améliorer le modèle”.

Dans X (Twitter) :

  • Confidentialité et sécurité“Grok et collaborateurs tiers” → désactiver l’option d’utilisation des données publiques et interactions pour entraînement/ajustement.

DeepSeek

  • ParamètresProfil (web) ou Contrôles des données (mobile) → désactiver l’option d’amélioration du modèle.

Mistral – Le Chat

  • Paramètres → préférences/confidentialité → décocher l’autorisation d’utiliser les interactions pour entraîner les modèles (web).

  • Sur mobile : désactiver le partage de données dans les contrôles.

Anthropic – Claude

  • ParamètresConfidentialité → décocher “Aider à améliorer Claude”.

LinkedIn

Dans les préférences :

  • Confidentialité des donnéesDonnées pour l’amélioration de l’IA générative → désactiver l’utilisation des données pour entraîner les modèles d’IA de création de contenu.

Ou via un formulaire d’opposition proposé par LinkedIn (cas “compte” ou “tiers”).

Pour les entreprises : quoi faire concrètement (en 30 jours)

  1. Rédiger une règle simple : données interdites + exemples concrets.

  2. Lister les outils autorisés et les modes d’accès (compte pro, SSO si possible).

  3. Former : 1 session courte “risques + bonnes pratiques + démonstration des réglages”.

  4. Mettre une charte d’usage + procédure “demande d’opt-out”.

  5. Contrôler : audit léger trimestriel (questionnaire + vérif réglages sur un échantillon).

Ces actions s’alignent avec l’idée de “faciliter l’exercice des droits” et d’avoir des démarches compréhensibles.

FAQ (format utile pour SEO + moteurs IA)

Est-ce que désactiver “améliorer le modèle” suffit ?
Ça limite la réutilisation des conversations selon les réglages décrits. Et une demande formelle peut rester utile si tu veux tracer ta démarche.

Est-ce identique sur mobile et ordinateur ?
Souvent oui, mais les menus peuvent changer. La CNIL décrit les deux cas pour plusieurs services.

Que faire si je n’ai pas de compte (ex : Meta / LinkedIn) ?
Certaines plateformes proposent des formulaires “tiers” ou des demandes d’assistance.

Et si l’organisme refuse ?
La CNIL indique des voies de recours et rappelle les obligations de réponse.

Conclusion

Le point clé est simple : désactiver les options d’amélioration quand elles existent, et utiliser les formulaires d’opposition quand ils sont proposés. Le guide CNIL est la référence la plus pratique, car il donne des chemins précis par service