Modeles
Configuration d'un fournisseur et d'un modele LLM.
OpenCode utilise l’AI SDK et Models.dev pour prendre en charge 75+ fournisseurs LLM et prend en charge l’execution de modeles locaux.
Fournisseurs
La plupart des fournisseurs populaires sont precharges par defaut. Si vous ajoute les identifiants d’un fournisseur via la commande /connect, ils seront disponibles au demarrage d’OpenCode.
En savoir plus sur les fournisseurs.
Selectionner un modele
Une fois que vous avez configure votre fournisseur, vous pouvez selectionner le modele que vous souhaitez en tapant :
/modelsModeles recommandes
Il y a beaucoup de modeles disponibles, avec de nouveaux modeles sortant chaque semaine.
Cependant, il n’y en a que quelques-uns qui sont bons a la fois pour generer du code et appeler des outils.
Voici plusieurs modeles qui fonctionnent bien avec OpenCode, dans aucun ordre particulier. (Ce n’est pas une liste exhaustive ni necessairement a jour) :
- GPT 5.2
- GPT 5.1 Codex
- Claude Opus 4.5
- Claude Sonnet 4.5
- Minimax M2.1
- Gemini 3 Pro
Definir une valeur par defaut
Pour definir l’un d’eux comme modele par defaut, vous pouvez definir la cle model dans votre configuration OpenCode.
{ "$schema": "https://opencode.ai/config.json", "model": "lmstudio/google/gemma-3n-e4b"}Ici, l’ID complet est id_fournisseur/id_modele. Par exemple, si vous utilisez OpenCode Zen, vous utiliserez opencode/gpt-5.1-codex pour GPT 5.1 Codex.
Si vous avez configure un fournisseur personnalise, l’id_fournisseur est la cle de la partie fournisseur de votre configuration, et l’id_modele est la cle de fournisseur.modeles.
Configurer les modeles
Vous pouvez configurer globalement les options d’un modele via la configuration.
{ "$schema": "https://opencode.ai/config.json", "provider": { "openai": { "models": { "gpt-5": { "options": { "reasoningEffort": "high", "textVerbosity": "low", "reasoningSummary": "auto", "include": ["reasoning.encrypted_content"], }, }, }, }, "anthropic": { "models": { "claude-sonnet-4-5-20250929": { "options": { "thinking": { "type": "enabled", "budgetTokens": 16000, }, }, }, }, }, },}Ici, nous configurons les parametres globaux pour deux modeles integres : gpt-5 lorsqu’il est accede via le fournisseur openai, et claude-sonnet-4-20250514 lorsqu’il est accede via le fournisseur anthropic.
Les noms de fournisseurs et de modeles integres peuvent etre trouves sur Models.dev.
Vous pouvez egalement configurer ces options pour tous les agents que vous utilisez. La configuration de l’agent remplace toutes les options globales ici. En savoir plus.
Vous pouvez egalement definir des variantes personnalisees qui etendent les variantes integrees. Les variantes vous permettent de configurer differents parametres pour le meme modele sans creer des entrees en double :
{ "$schema": "https://opencode.ai/config.json", "provider": { "opencode": { "models": { "gpt-5": { "variants": { "high": { "reasoningEffort": "high", "textVerbosity": "low", "reasoningSummary": "auto", }, "low": { "reasoningEffort": "low", "textVerbosity": "low", "reasoningSummary": "auto", }, }, }, }, }, },}Variantes
De nombreux modeles prennent en charge plusieurs variantes avec differentes configurations. OpenCode est fourni avec des variantes par defaut integrees pour les fournisseurs populaires.
Variantes integrees
OpenCode est fourni avec des variantes par defaut pour de nombreux fournisseurs :
Anthropic :
high- Budget de reflexion eleve (par defaut)max- Budget de reflexion maximum
OpenAI :
Varie selon le modele mais environ :
none- Aucun raisonnementminimal- Effort de raisonnement minimallow- Effort de raisonnement faiblemedium- Effort de raisonnement moyenhigh- Effort de raisonnement elevexhigh- Effort de raisonnement tres eleve
Google :
low- Effort/budget de tokens inferieurhigh- Effort/budget de tokens superieur
Variantes personnalisees
Vous pouvez remplacer les variantes existantes ou ajouter les votres :
{ "$schema": "https://opencode.ai/config.json", "provider": { "openai": { "models": { "gpt-5": { "variants": { "thinking": { "reasoningEffort": "high", "textVerbosity": "low", }, "fast": { "disabled": true, }, }, }, }, }, },}Cycle des variantes
Utilisez le keybind variant_cycle pour basculer rapidement entre les variantes. En savoir plus.
Chargement des modeles
Au demarrage d’OpenCode, il verifie les modeles dans l’ordre de priorite suivant :
-
L’indicateur de ligne de commande
--modelou-m. Le format est le meme que dans le fichier de configuration :id_fournisseur/id_modele. -
La liste des modeles dans la configuration OpenCode.
opencode.json {"$schema": "https://opencode.ai/config.json","model": "anthropic/claude-sonnet-4-20250514"}Le format ici est
fournisseur/modele. -
Le dernier modele utilise.
-
Le premier modele utilisant une priorite interne.