GitHub va utiliser vos interactions avec Copilot pour entraîner ses modèles IA (vous pouvez dire non)

À partir du 24 avril, GitHub utilisera les inputs, outputs, snippets de code et le contexte associé de vos sessions Copilot pour entraîner et améliorer ses modèles d'IA.
Le changement concerne tous les utilisateurs des plans Free, Pro et Pro+, et il est activé par défaut. GitHub n'a prévu ni opt-in, ni pop-up de consentement, ni case à cocher. Si vous ne faites rien, vos données sont dans la machine.
Ce que GitHub veut (et ce que ça inclut)
L'annonce publiée sur le blog de GitHub détaille la liste de ce qui sera collecté. Et disons que la plateforme ne s’est pas fixé beaucoup de limites.
Concrètement, GitHub prévoit de collecter vos prompts, le code que vous montrez à Copilot, le contexte autour de votre curseur, la structure de vos repos, vos commentaires, votre documentation, et même vos réactions (pouces vers le haut ou vers le bas).
Bref, à peu près tout ce que vous faites avec Copilot.
La justification officielle ? L'incorporation de données d'interaction provenant d'employés Microsoft aurait déjà montré des améliorations significatives, notamment une augmentation du taux d'acceptation des suggestions dans plusieurs langages.
GitHub veut donc passer à l'échelle supérieure, en nourrissant ses modèles avec les interactions de ses 20 millions d'utilisateurs individuels.
Les repos privés, pas si privés que ça
GitHub le dit assez clairement dans sa FAQ, en choisissant ses mots avec précision : le contenu des repos privés n'est pas utilisé "at rest" (au repos), mais Copilot traite bien le code de vos repos privés quand vous utilisez activement l'outil.
Ces données d'interaction peuvent être utilisées pour l'entraînement, sauf si vous avez désactivé le réglage.
Le mot "privé" dans "dépôt privé GitHub" mériterait désormais un petit astérisque.
Les utilisateurs Copilot Business et Enterprise sont exemptés de cette collecte (leurs contrats l'interdisent), tout comme les étudiants et enseignants qui bénéficient d'un accès gratuit à Copilot.
Pour les utilisateurs individuels, la règle est simple : soit vous allez désactiver le réglage vous-même, soit vos données partent à l'entraînement.
Reste la question de la base légale en Europe, où le RGPD exige un consentement "libre, spécifique, éclairé et non ambigu”. Un opt-out activé par défaut semble difficilement cocher toutes ces cases.
On notera par ailleurs que les abonnés Pro, qui financent la plateforme de leur poche, sont précisément ceux qui seraient amenés à servir de carburant à cet entraînement.
Pour se justifier, GitHub pointe du doigt ses voisins : Anthropic, JetBrains et Microsoft (sa propre maison mère) ont des politiques d'opt-out similaires (oh, ben si tout le monde le fait alors, pourquoi pas nous ?).
Comment désactiver la collecte
Si vous préférez garder vos données pour vous, la manipulation est simple.
Rendez-vous dans vos paramètres GitHub Copilot en ligne, puis cherchez la rubrique "Privacy". Désactivez alors l'option "Allow GitHub to use my data for AI model training".

Bonne nouvelle : si vous aviez déjà désactivé le partage de données pour l'amélioration des produits par le passé, votre préférence a été conservée (vous n'avez rien à faire).
Autre précision utile : même si vous n'utilisez pas encore Copilot, vous pouvez désactiver ce réglage dès maintenant. Si vous activez Copilot un jour, votre préférence sera mémorisée.
Cela dit, rappelons que Codex, le modèle à la base de Copilot, a été entraîné sur du code public GitHub dès le départ, sans demander la permission à qui que ce soit.
À propos de l'auteur
Nicolas Lecointre
Chief Happiness Officer des développeurs, ceinture noire de sudo. Pour rire, j'ai créé Les Joies du Code. J'utilise Vim depuis 10 ans parce que je sais pas comment le quitter.
À lire également

Passbolt : le gestionnaire de mots de passe open source que votre équipe mérite vraiment
Je connais l’histoire, vous la connaissez, on la connaît tous. Le stagiaire qui est resté six mois, qui a fini par avoir accès à un peu (beaucoup) plus de choses...
Articles recommandés

VS Code passe aux releases hebdomadaires et introduit le mode Autopilot

Claude ouvre son contexte à 1 million de tokens : ce que ça change vraiment

"C'est pas moi, c'est l'IA" : après des pannes en cascade, Amazon impose la supervision humaine sur son code IA


VS Code passe aux releases hebdomadaires et introduit le mode Autopilot

Claude ouvre son contexte à 1 million de tokens : ce que ça change vraiment

"C'est pas moi, c'est l'IA" : après des pannes en cascade, Amazon impose la supervision humaine sur son code IA

JetBrains continue de miser sur l’IA (et vous laisse le choix)
Plus de contenu

Quand mon poste ne répond plus pour la dixième fois de suite

Quand j'arrive pas à corriger un bug mineur du matin

Quand je teste par erreur mon code sur des données de prod

Quand le stagiaire m'annonce fièrement qu'il vient de finir le dev que je lui ai donné

Quand je vais voir les sysadmins et que je me retrouve embarqué dans un débat sur l'architecture technique du projet
Quand je reçois un ticket à 17 heures le vendredi

"Tu peux corriger ce bug stp ? Ca te prendra que 2 minutes !"

Quand le commercial propose fièrement une solution

Quand mon poste ne répond plus pour la dixième fois de suite

Quand j'arrive pas à corriger un bug mineur du matin

Quand je teste par erreur mon code sur des données de prod

Quand le stagiaire m'annonce fièrement qu'il vient de finir le dev que je lui ai donné


