Aller au contenu

Modeles

Configuration d'un fournisseur et d'un modele LLM.

OpenCode utilise l’AI SDK et Models.dev pour prendre en charge 75+ fournisseurs LLM et prend en charge l’execution de modeles locaux.


Fournisseurs

La plupart des fournisseurs populaires sont precharges par defaut. Si vous ajoute les identifiants d’un fournisseur via la commande /connect, ils seront disponibles au demarrage d’OpenCode.

En savoir plus sur les fournisseurs.


Selectionner un modele

Une fois que vous avez configure votre fournisseur, vous pouvez selectionner le modele que vous souhaitez en tapant :

/models

Modeles recommandes

Il y a beaucoup de modeles disponibles, avec de nouveaux modeles sortant chaque semaine.

Cependant, il n’y en a que quelques-uns qui sont bons a la fois pour generer du code et appeler des outils.

Voici plusieurs modeles qui fonctionnent bien avec OpenCode, dans aucun ordre particulier. (Ce n’est pas une liste exhaustive ni necessairement a jour) :

  • GPT 5.2
  • GPT 5.1 Codex
  • Claude Opus 4.5
  • Claude Sonnet 4.5
  • Minimax M2.1
  • Gemini 3 Pro

Definir une valeur par defaut

Pour definir l’un d’eux comme modele par defaut, vous pouvez definir la cle model dans votre configuration OpenCode.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"model": "lmstudio/google/gemma-3n-e4b"
}

Ici, l’ID complet est id_fournisseur/id_modele. Par exemple, si vous utilisez OpenCode Zen, vous utiliserez opencode/gpt-5.1-codex pour GPT 5.1 Codex.

Si vous avez configure un fournisseur personnalise, l’id_fournisseur est la cle de la partie fournisseur de votre configuration, et l’id_modele est la cle de fournisseur.modeles.


Configurer les modeles

Vous pouvez configurer globalement les options d’un modele via la configuration.

opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openai": {
"models": {
"gpt-5": {
"options": {
"reasoningEffort": "high",
"textVerbosity": "low",
"reasoningSummary": "auto",
"include": ["reasoning.encrypted_content"],
},
},
},
},
"anthropic": {
"models": {
"claude-sonnet-4-5-20250929": {
"options": {
"thinking": {
"type": "enabled",
"budgetTokens": 16000,
},
},
},
},
},
},
}

Ici, nous configurons les parametres globaux pour deux modeles integres : gpt-5 lorsqu’il est accede via le fournisseur openai, et claude-sonnet-4-20250514 lorsqu’il est accede via le fournisseur anthropic. Les noms de fournisseurs et de modeles integres peuvent etre trouves sur Models.dev.

Vous pouvez egalement configurer ces options pour tous les agents que vous utilisez. La configuration de l’agent remplace toutes les options globales ici. En savoir plus.

Vous pouvez egalement definir des variantes personnalisees qui etendent les variantes integrees. Les variantes vous permettent de configurer differents parametres pour le meme modele sans creer des entrees en double :

opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"opencode": {
"models": {
"gpt-5": {
"variants": {
"high": {
"reasoningEffort": "high",
"textVerbosity": "low",
"reasoningSummary": "auto",
},
"low": {
"reasoningEffort": "low",
"textVerbosity": "low",
"reasoningSummary": "auto",
},
},
},
},
},
},
}

Variantes

De nombreux modeles prennent en charge plusieurs variantes avec differentes configurations. OpenCode est fourni avec des variantes par defaut integrees pour les fournisseurs populaires.

Variantes integrees

OpenCode est fourni avec des variantes par defaut pour de nombreux fournisseurs :

Anthropic :

  • high - Budget de reflexion eleve (par defaut)
  • max - Budget de reflexion maximum

OpenAI :

Varie selon le modele mais environ :

  • none - Aucun raisonnement
  • minimal - Effort de raisonnement minimal
  • low - Effort de raisonnement faible
  • medium - Effort de raisonnement moyen
  • high - Effort de raisonnement eleve
  • xhigh - Effort de raisonnement tres eleve

Google :

  • low - Effort/budget de tokens inferieur
  • high - Effort/budget de tokens superieur

Variantes personnalisees

Vous pouvez remplacer les variantes existantes ou ajouter les votres :

opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openai": {
"models": {
"gpt-5": {
"variants": {
"thinking": {
"reasoningEffort": "high",
"textVerbosity": "low",
},
"fast": {
"disabled": true,
},
},
},
},
},
},
}

Cycle des variantes

Utilisez le keybind variant_cycle pour basculer rapidement entre les variantes. En savoir plus.


Chargement des modeles

Au demarrage d’OpenCode, il verifie les modeles dans l’ordre de priorite suivant :

  1. L’indicateur de ligne de commande --model ou -m. Le format est le meme que dans le fichier de configuration : id_fournisseur/id_modele.

  2. La liste des modeles dans la configuration OpenCode.

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "model": "anthropic/claude-sonnet-4-20250514"
    }

    Le format ici est fournisseur/modele.

  3. Le dernier modele utilise.

  4. Le premier modele utilisant une priorite interne.