Aller au contenu principal

Copilot CLI

Développer avec Copilot CLI et Ollama

GitHub Copilot CLI est l'agent IA de codage officiel de GitHub pour le terminal. Il comprend votre codebase, répond à vos questions, édite des fichiers, exécute des commandes shell et aide à debugger, refactoriser et documenter.

Grâce à l'intégration Ollama, vous pouvez utiliser n'importe quel modèle Ollama (local ou cloud) à la place des modèles hébergés par GitHub.

:::tip Copilot CLI dans VS Code Cette intégration fonctionne dans le terminal intégré de VS Code. Ce n'est pas la même chose que l'intégration directe dans GitHub Copilot Chat (l'interface graphique). Pour le chat dans l'éditeur, utilisez ollama launch vscode. Les deux peuvent être utilisés ensemble : CLI pour les commandes terminal + Chat pour l'édition visuelle. :::


Installer Copilot CLI

Prérequis :

  • Ollama installé et lancé
  • GitHub Copilot CLI installé :
brew install copilot-cli

Lancer Copilot CLI avec Ollama

La façon la plus simple est d'utiliser ollama launch :

ollama launch copilot

Ollama configure Copilot CLI pour utiliser vos modèles et le lance prêt à l'emploi.

Vous pouvez aussi préciser directement le modèle :

ollama launch copilot --model kimi-k2.5:cloud

Ou avec un modèle local :

ollama launch copilot --model qwen3.5

Configuration manuelle (option avancée)

Si vous préférez tout contrôler :

export COPILOT_PROVIDER_BASE_URL=http://localhost:11434/v1
export COPILOT_PROVIDER_API_KEY=
export COPILOT_PROVIDER_WIRE_API=responses
export COPILOT_MODEL=qwen3.5

copilot

Mode non-interactif (headless)

Idéal pour Docker, CI/CD ou scripts :

ollama launch copilot --model kimi-k2.5:cloud --yes -- -p "comment fonctionne ce repository ?"

Le flag --yes télécharge automatiquement le modèle et passe directement les arguments à Copilot CLI.


Choisir un modèle

Modèles cloud (rapides et performants) :

  • kimi-k2.5:cloud — modèle cloud très performant
  • glm-5:cloud — excellent en raisonnement
  • qwen3.5:cloud — rapide et efficace

Modèles locaux (100 % privés) :

  • qwen3.5 — modèle local d'Alibaba
  • glm-4.7-flash — modèle local rapide

:::tip Contexte Pour les gros projets, on recommande un modèle avec un contexte ≥ 64k tokens. Pour comprendre ce qu'est la taille de contexte et comment l'ajuster, consultez la page Commandes — La taille de contexte. :::


Commandes utiles

CommandeUsage
ollama launch copilotInstallation + lancement complet
ollama launch copilot --model XXXLancer avec un modèle précis
copilotLancer Copilot CLI (après configuration)
ollama launch vscodeIntégration directe dans VS Code Copilot Chat

Résumé

Avec Copilot CLI et Ollama, vous pouvez :

  • lancer un assistant de codage en une seule commande (ollama launch copilot)
  • choisir librement votre modèle — local ou cloud
  • automatiser des tâches en mode headless pour vos pipelines CI/CD
  • utiliser le terminal de VS Code avec tous les modèles Ollama