GitHub Copilot peut utiliser divers modèles d’IA. Cet article explique comment ces modèles sont hébergés et servis.
Modèles OpenAI
Utilisé pour les tâches suivantes :
- GPT-4.1
- Variables de données: GPT-5 mini
- GPT-5.1
- GPT-5.1-Codex
- GPT-5.1-Codex-Mini
- GPT-5.1-Codex-Max
- GPT-5.2
- GPT-5.2-Codex
- GPT-5.3-Codex
Ces modèles sont hébergés par OpenAI et par l'infrastructure Azure de GitHub.
OpenAI prend l’engagement de données suivant : nous [OpenAI] n’entraînent pas de modèles sur les données métier des clients. Le traitement des données suit les commentaires de confidentialité de l’entreprise d’OpenAI.
GitHub maintient un accord de non-conservation des données avec OpenAI.
Toutes les demandes d’entrée et réponses de sortie traitées par
- Goldeneye
Ces modèles sont déployés sur GitHub instance Azure OpenAI gérée.
Modèles Anthropic
Utilisé pour les tâches suivantes :
- Claude Haiku 4.5
- Claude Sonnet 4.5
- Claude Opus 4.5
- Claude Opus 4.6
- Claude Opus 4.6 (mode rapide) (préversion)
- Claude Sonnet 4
- Claude Sonnet 4.6
Ces modèles sont hébergés par Amazon Web Services, PBC anthropic et Google Cloud Platform. GitHub a conclu des accords avec les fournisseurs afin de garantir que les données ne sont pas utilisées pour l’entraînement. Des détails supplémentaires pour chaque fournisseur sont indiqués ci-dessous :
- Amazon Bedrock : Amazon prend les engagements de données suivants : Amazon Bedrock ne stocke ni n’enregistre vos prompts et complétions. Amazon Bedrock n’utilise pas vos prompts et complétions pour entraîner des modèles AWS et ne les distribue pas à des tiers.
- Anthropic PBC : GitHub maintient un accord de non-conservation des données avec Anthropic.
- Google Cloud : Google s’engage à ne pas entraîner ses modèles sur les données de GitHub dans le cadre de ses conditions de service. GitHub n’est en outre pas soumis à la journalisation des prompts à des fins de surveillance des abus.
Afin d’offrir une meilleure qualité de service et de réduire la latence, GitHub utilise la mise en cache des prompts. Vous pouvez en savoir plus sur la mise en cache des prompts chez Anthropic PBC, Amazon Bedrock et Google Cloud.
Lors de l’utilisation de Claude, les prompts d’entrée et les complétions de sortie continuent de passer par les filtres de contenu de GitHub Copilot visant la correspondance avec du code public, le cas échéant, ainsi que par ceux portant sur les contenus nuisibles ou offensants.
Modèles Google
Utilisé pour les tâches suivantes :
- Gemini 2.5 Pro
- Gemini 3 Pro
- Gemini 3 Flash
- Gemini 3.1 Pro
GitHub Copilot utilise Gemini 3.1 Pro, Gemini 3 Pro, Gemini 3 Flash, et Gemini 2.5 Pro hébergés sur Google Cloud Platform (GCP). Lors de l’utilisation des modèles Gemini, les prompts et métadonnées sont envoyés à GCP, qui prend l’engagement de données suivant : Gemini n’utilise pas vos prompts, ni ses réponses, comme données pour entraîner ses modèles.
Afin d’offrir une meilleure qualité de service et de réduire la latence, GitHub utilise la mise en cache des prompts.
Lors de l’utilisation des modèles Gemini, les prompts d’entrée et les complétions de sortie continuent de passer par les filtres de contenu de GitHub Copilot visant la correspondance avec du code public, le cas échéant, ainsi que par ceux portant sur les contenus nuisibles ou offensants.
Modèles xAI
Ces modèles sont hébergés sur xAI. xAI exploite Code Grok Rapide 1 dans GitHub Copilot dans le cadre d’une politique d’API à conservation nulle des données. Cela signifie que xAI s’engage à ce que le contenu utilisateur (à la fois les entrées envoyées au modèle et les sorties générées par le modèle) :
Ne sera pas :
- consigné à quelque fin que ce soit, y compris pour une revue humaine
- enregistré sur disque ou conservé sous quelque forme que ce soit, y compris en tant que métadonnées
- accessible au personnel de xAI.
- Utilisé pour l’entraînement de modèle
Sera uniquement :
- conservé temporairement en RAM pendant le temps minimal nécessaire pour traiter et répondre à chaque requête
- immédiatement supprimé de la mémoire dès que la réponse est transmise.
Lors de l’utilisation de xAI, les prompts d’entrée et les complétions de sortie continuent de passer par les filtres de contenu de GitHub Copilot visant la correspondance avec du code public, le cas échéant, ainsi que par ceux portant sur les contenus nuisibles ou offensants.
Pour plus d’informations, consultez les conditions d’utilisation d’entreprise de xAI sur le site web xAI.