の AI モデルの比較 GitHub Copilot
GitHub Copilot では、さまざまな機能を持つ複数の AI モデルがサポートされています。 選択したモデルは、インライン提案の コパイロットチャット と Copilot による応答の品質と関連性に影響します。 待機時間が少ないモデルや、特定のタスクではハルシネーションが少ない、またはパフォーマンスが高いモデルがあります。 このガイドは、モデル名だけでなく、タスクに基づいて最適なモデルを選ぶのに役立ちます。
メモ
- モデルごとに Premium リクエストの乗数が異なるため、毎月の使用許容量がどの程度使われるかに影響する可能性があります。 詳細については、「GitHub Copilot内の要求」を参照してください。
- サポートされている IDE で コパイロットチャット を使用すると、可用性に基づいて 最適 なモデルが自動的に選択されます。 手動で別のモデルを選択して、この選択をオーバーライドすることもできます。 「自動モデル選択 Copilot について」と「GitHub Copilot Chat の AI モデルの変更」を参照してください。
タスク別の推奨モデル
次の表は、適切なモデルをすばやく見つけるのにお使いください。詳細については、後のセクションを参照してください。
| モデル | タスク領域 | 長所 (主なユース ケース) | 参考資料 |
|---|---|---|---|
| GPT-4.1 | General-purpose coding and writing | Fast, accurate code completions and explanations | GPT-4.1 model card |
| GPT-5 mini | General-purpose coding and writing | Fast, accurate code completions and explanations | GPT-5 mini model card |
| GPT-5.2 | Deep reasoning and debugging | Multi-step problem solving and architecture-level code analysis | GPT-5.2 model card |
| GPT-5.2-Codex | Agentic software development | Agentic tasks | GPT-5.2-Codex model card |
| GPT-5.3-Codex | Agentic software development | Agentic tasks | GPT-5.3-Codex model card |
| GPT-5.4 | Deep reasoning and debugging | Multi-step problem solving and architecture-level code analysis | GPT-5.4 model card |
| GPT-5.4 mini | Agentic software development | Codebase exploration and is especially effective when using grep-style tools | Not available |
| Claude Haiku 4.5 | Fast help with simple or repetitive tasks | Fast, reliable answers to lightweight coding questions | Claude Haiku 4.5 model card |
| Claude Opus 4.5 | Deep reasoning and debugging | Complex problem-solving challenges, sophisticated reasoning | Claude Opus 4.5 model card |
| Claude Opus 4.6 | Deep reasoning and debugging | Complex problem-solving challenges, sophisticated reasoning | Claude Opus 4.6 model card |
| Claude Opus 4.6 (fast mode) (preview) | Deep reasoning and debugging | Complex problem-solving challenges, sophisticated reasoning | Not available |
| Claude Opus 4.7 | Deep reasoning and debugging | Complex problem-solving challenges, sophisticated reasoning | Not available |
| Claude Sonnet 4.0 | Deep reasoning and debugging | Performance and practicality, perfectly balanced for coding workflows | Claude Sonnet 4.0 model card |
| Claude Sonnet 4.5 | General-purpose coding and agent tasks | Complex problem-solving challenges, sophisticated reasoning | Claude Sonnet 4.5 model card |
| Claude Sonnet 4.6 | General-purpose coding and agent tasks | Complex problem-solving challenges, sophisticated reasoning | Claude Sonnet 4.6 model card |
| Gemini 2.5 Pro | Deep reasoning and debugging | Complex code generation, debugging, and research workflows | Gemini 2.5 Pro model card |
| Gemini 3 Flash | Fast help with simple or repetitive tasks | Fast, reliable answers to lightweight coding questions | Gemini 3 Flash model card |
| Gemini 3.1 Pro | Deep reasoning and debugging | Effective and efficient edit-then-test loops with high tool precision | not applicable |
| Grok Code Fast 1 | General-purpose coding and writing | Fast, accurate code completions and explanations | Grok Code Fast 1 model card |
| Qwen2.5 | General-purpose coding and writing | Code generation, reasoning, and code repair / debugging | Qwen2.5 model card |
| Raptor mini | General-purpose coding and writing | Fast, accurate code completions and explanations | Coming soon |
タスク: 汎用のコーディングとライティング
品質、速度、コスト効率のバランスが必要な一般的な開発タスクには、これらのモデルを使います。 これらのモデルは、特定の要件がない場合に既定で使うのに適しています。
| モデル | 適している理由 |
|---|---|
| GPT-5.3-Codex | 機能、テスト、デバッグ、リファクタリング、レビューなどの複雑なエンジニアリング タスクに関する高品質のコードを、長い指示なしで提供します。 |
| GPT-5 ミニ | コーディングとライティングのほとんどのタスクに対する信頼性の高い既定値。 高速かつ正確で、言語やフレームワークが違っても良好に動作します。 |
| Grok Code Fast 1 | コーディング タスクに特化しています。 複数の言語にわたるコード生成とデバッグに優れたパフォーマンスを発揮します。 |
| Raptor Mini | 迅速で正確なインライン提案と説明に特化しています。 |
これらのモデルを使用すべき場合
次のことが必要な場合は、これらのモデルのいずれかをお使いください。
- 関数、短いファイル、またはコードの差分を記述または確認します。
- ドキュメント、コメント、または概要を生成します。
- エラーや予期しない動作をすばやく説明します。
- 英語以外のプログラミング環境で作業します。
別のモデルを使用すべきとき
複雑なリファクタリング、アーキテクチャの決定、またはマルチステップ ロジックの作業を行っている場合は、「詳細な推論とデバッグ」のモデルを検討してください。 反復的な編集や 1 回限りのコードの提案など、高速でシンプルなタスクの場合は、「単純なタスクや反復的なタスクに関する高速の支援」を参照してください。
タスク: 単純なタスクや反復的なタスクに関する高速の支援
これらのモデルは、速度と応答性のために最適化されています。 これらは簡単な編集、ユーティリティ関数、構文のヘルプ、軽量のプロトタイプ作成に最適です。 必要以上に詳細な、または長い推論チェーンを待たずに、速やかに回答を得ることができます。
推奨モデル
| モデル | 適している理由 |
|---|---|
| クロード・ハイク 4.5 | 迅速な応答と高品質の出力のバランスを取ります。 小さなタスクや軽量のコードの説明に最適です。 |
これらのモデルを使用すべき場合
次のことが必要な場合は、これらのモデルのいずれかをお使いください。
- 小さい関数やユーティリティ コードを記述または編集します。
- 構文や言語について簡単な質問をします。
- 最小限のセットアップでアイデアのプロトタイプを作成します。
- 簡単なプロンプトや編集に関するフィードバックをすばやく入手します。
別のモデルを使用すべきとき
複雑なリファクタリング、アーキテクチャの決定、またはマルチステップ ロジックの作業を行っている場合は、「詳細な推論とデバッグ」のモデルを検討してください。 より強力な汎用の推論またはより構造化された出力を必要とするタスクについては、「汎用コーディングとライティング」を参照してください。
タスク: 詳細な推論とデバッグ
これらのモデルは、ステップ バイ ステップの推論、複雑な意思決定、または高コンテキストの認識を必要とするタスク用に設計されています。 構造化された分析、よく考えられたコード生成、または複数のファイルの理解が必要な場合に適切に機能します。
推奨モデル
| モデル | 適している理由 |
|---|---|
| GPT-5 ミニ | GPT-5 よりも高速な応答と低いリソース使用量で、深い推論とデバッグを実現します。 対話型セッションやステップバイステップのコード分析に最適です。 |
| GPT-5.4 | 複雑な推論、コード分析、技術的な意思決定に優れています。 |
| クロード・ソネット 4.6 | より信頼性の高い補完と負荷の下でのよりスマートな推論でSonnet 4.5を改善します。 |
| Claude Opus 4.7 | Anthropic の最も強力なモデルです。 |
クロード作品4.6によって改善されます。 |
| Gemini 3.1 Pro | 長いコンテキストでの高度な推論と、科学的または技術的な分析。 | | ゴールデンアイ | 複雑な問題解決の課題と高度な推論。 |
これらのモデルを使用すべき場合
次のことが必要な場合は、これらのモデルのいずれかをお使いください。
- 複数のファイルを対象にコンテキストに関する複雑な問題をデバッグします。
- 大規模な、または相互に接続されたコードベースをリファクタリングします。
- 複数のレイヤーを対象とする機能またはアーキテクチャを計画します。
- ライブラリ、パターン、またはワークフローの間のトレードオフを比較します。
- ログ、パフォーマンス データ、またはシステムの動作を分析します。
別のモデルを使用すべきとき
高速の反復的または軽量なタスクについては、「単純なタスクや反復的なタスクに関する高速の支援」を参照してください。 一般的な開発ワークフローまたはコンテンツの生成については、「汎用のコーディングとライティング」を参照してください。
タスク: ビジュアルの処理 (図、スクリーンショット)
スクリーンショット、図、UI コンポーネント、その他の視覚的な入力について質問したい場合は、これらのモデルを使います。 これらのモデルはマルチモーダル入力をサポートしており、フロントエンドの作業や視覚的なデバッグに適しています。
| モデル | 適している理由 |
|---|---|
| GPT-5 ミニ | コーディングとライティングのほとんどのタスクに対する信頼性の高い既定値。 高速かつ正確で、視覚的な推論タスクにおいてマルチモーダル入力に対応します。 言語やフレームワークが違っても良好に動作します。 |
| クロード・ソネット 4.6 | より信頼性の高い補完と負荷の下でのよりスマートな推論でSonnet 4.5を改善します。 |
| Gemini 3.1 Pro | 詳細な推論とデバッグは、複雑なコード生成、デバッグ、調査ワークフローに最適です。 |
これらのモデルを使用すべき場合
次のことが必要な場合は、これらのモデルのいずれかをお使いください。
- 図、スクリーンショット、または UI コンポーネントについて質問します。
- 視覚的な下書きまたはワークフローに関するフィードバックを受け取ります。
- ビジュアル コンテキストからフロントエンドの動作を理解します。
ヒント
画像入力をサポートしていないコンテキストでモデルを使っている場合 (コード エディターなど)、視覚的な推論の利点は見られません。 MCP サーバーを使って、視覚的な入力に間接的にアクセスできる場合があります。 「モデル コンテキスト プロトコル (MCP) サーバーを使用した GitHub Copilot Chatの拡張」を参照してください。
別のモデルを使用すべきとき
タスクに詳細な推論または大規模なリファクタリングが含まれている場合は、「詳細な推論とデバッグ」のモデルを検討してください。 テキストのみのタスクや簡単なコード編集の場合は、「単純なタスクや反復的なタスクに関する高速の支援」を参照してください。
次のステップ
適切なモデルを選択すると、 Copilotを最大限に活用できます。 使用するモデルがわからない場合は、 GPT-4.1などの汎用オプションから始めて、ニーズに応じて調整します。
- モデルの仕様と価格について詳しくは、「GitHub Copilotでサポートされている AI モデル」をご覧ください。
- さまざまなモデルの使用方法の他の例については、「さまざまなタスクを使った AI モデルの比較」をご覧ください。
- モデルの切り替えについては、「GitHub Copilot Chat の AI モデルの変更」または「GitHub Copilot インライン提案の AI モデルを変更する」をご覧ください。
-
コパイロットチャットがさまざまな AI モデルを提供する方法については、[AUTOTITLE](/copilot/reference/ai-models/model-hosting) を参照してください。