Modelli
Configurazione di un provider e modello LLM.
OpenCode utilizza l’AI SDK e Models.dev per supportare 75+ provider LLM e supporta l’esecuzione di modelli locali.
Provider
La maggior parte dei provider popolari sono precaricati per impostazione predefinita. Se hai aggiunto le credenziali per un provider tramite il comando /connect, saranno disponibili quando avvii OpenCode.
Ulteriori informazioni sui provider.
Selezionare un modello
Una volta configurato il provider, puoi selezionare il modello che desideri digitando:
/modelsModelli consigliati
Ci sono molti modelli disponibili, con nuovi modelli che escono ogni settimana.
Tuttavia, ce ne sono solo pochi che sono bravi sia a generare codice che a chiamare strumenti.
Ecco diversi modelli che funzionano bene con OpenCode, in nessun ordine particolare. (Questa non e una lista esaustiva né necessariamente aggiornata):
- GPT 5.2
- GPT 5.1 Codex
- Claude Opus 4.5
- Claude Sonnet 4.5
- Minimax M2.1
- Gemini 3 Pro
Impostare un predefinito
Per impostare uno di questi come modello predefinito, puoi impostare la chiave model nella tua configurazione OpenCode.
{ "$schema": "https://opencode.ai/config.json", "model": "lmstudio/google/gemma-3n-e4b"}Qui l’ID completo e id_provider/id_modello. Ad esempio, se stai usando OpenCode Zen, useresti opencode/gpt-5.1-codex per GPT 5.1 Codex.
Se hai configurato un provider personalizzato, l’id_provider e la chiave dalla parte provider della tua configurazione, e l’id_modello e la chiave da provider.modelli.
Configurare i modelli
Puoi configurare globalmente le opzioni di un modello tramite la configurazione.
{ "$schema": "https://opencode.ai/config.json", "provider": { "openai": { "models": { "gpt-5": { "options": { "reasoningEffort": "high", "textVerbosity": "low", "reasoningSummary": "auto", "include": ["reasoning.encrypted_content"], }, }, }, }, "anthropic": { "models": { "claude-sonnet-4-5-20250929": { "options": { "thinking": { "type": "enabled", "budgetTokens": 16000, }, }, }, }, }, },}Qui stiamo configurando impostazioni globali per due modelli integrati: gpt-5 quando si accede tramite il provider openai, e claude-sonnet-4-20250514 quando si accede tramite il provider anthropic.
I nomi di provider e modelli integrati possono essere trovati su Models.dev.
Puoi anche configurare queste opzioni per tutti gli agenti che stai usando. La configurazione dell’agente sovrascrive tutte le opzioni globali qui. Ulteriori informazioni.
Puoi anche definire varianti personalizzate che estendono quelle integrate. Le varianti ti consentono di configurare diverse impostazioni per lo stesso modello senza creare voci duplicate:
{ "$schema": "https://opencode.ai/config.json", "provider": { "opencode": { "models": { "gpt-5": { "variants": { "high": { "reasoningEffort": "high", "textVerbosity": "low", "reasoningSummary": "auto", }, "low": { "reasoningEffort": "low", "textVerbosity": "low", "reasoningSummary": "auto", }, }, }, }, }, },}Varianti
Molti modelli supportano piu varianti con diverse configurazioni. OpenCode viene fornito con varianti predefinite integrate per i provider popolari.
Varianti integrate
OpenCode viene fornito con varianti predefinite per molti provider:
Anthropic:
high- Budget di pensiero elevato (predefinito)max- Budget di pensiero massimo
OpenAI:
Varia in base al modello ma circa:
none- Nessun ragionamentominimal- Sforzo di ragionamento minimolow- Sforzo di ragionamento bassomedium- Sforzo di ragionamento mediohigh- Sforzo di ragionamento elevatoxhigh- Sforzo di ragionamento extra elevato
Google:
low- Sforzo/budget token inferiorehigh- Sforzo/budget token superiore
Varianti personalizzate
Puoi sovrascrivere le varianti esistenti o aggiungere le tue:
{ "$schema": "https://opencode.ai/config.json", "provider": { "openai": { "models": { "gpt-5": { "variants": { "thinking": { "reasoningEffort": "high", "textVerbosity": "low", }, "fast": { "disabled": true, }, }, }, }, }, },}Cycle varianti
Usa il keybind variant_cycle per passare rapidamente tra le varianti. Ulteriori informazioni.
Caricamento dei modelli
Quando OpenCode si avvia, verifica i modelli nel seguente ordine di priorita:
-
L’indicatore da riga di comando
--modelo-m. Il formato e lo stesso del file di configurazione:id_provider/id_modello. -
L’elenco dei modelli nella configurazione OpenCode.
opencode.json {"$schema": "https://opencode.ai/config.json","model": "anthropic/claude-sonnet-4-20250514"}Il formato qui e
provider/modello. -
L’ultimo modello utilizzato.
-
Il primo modello utilizzando una priorita interna.