Salta ai contenuti

Modelli

Configurazione di un provider e modello LLM.

OpenCode utilizza l’AI SDK e Models.dev per supportare 75+ provider LLM e supporta l’esecuzione di modelli locali.


Provider

La maggior parte dei provider popolari sono precaricati per impostazione predefinita. Se hai aggiunto le credenziali per un provider tramite il comando /connect, saranno disponibili quando avvii OpenCode.

Ulteriori informazioni sui provider.


Selezionare un modello

Una volta configurato il provider, puoi selezionare il modello che desideri digitando:

/models

Modelli consigliati

Ci sono molti modelli disponibili, con nuovi modelli che escono ogni settimana.

Tuttavia, ce ne sono solo pochi che sono bravi sia a generare codice che a chiamare strumenti.

Ecco diversi modelli che funzionano bene con OpenCode, in nessun ordine particolare. (Questa non e una lista esaustiva né necessariamente aggiornata):

  • GPT 5.2
  • GPT 5.1 Codex
  • Claude Opus 4.5
  • Claude Sonnet 4.5
  • Minimax M2.1
  • Gemini 3 Pro

Impostare un predefinito

Per impostare uno di questi come modello predefinito, puoi impostare la chiave model nella tua configurazione OpenCode.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"model": "lmstudio/google/gemma-3n-e4b"
}

Qui l’ID completo e id_provider/id_modello. Ad esempio, se stai usando OpenCode Zen, useresti opencode/gpt-5.1-codex per GPT 5.1 Codex.

Se hai configurato un provider personalizzato, l’id_provider e la chiave dalla parte provider della tua configurazione, e l’id_modello e la chiave da provider.modelli.


Configurare i modelli

Puoi configurare globalmente le opzioni di un modello tramite la configurazione.

opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openai": {
"models": {
"gpt-5": {
"options": {
"reasoningEffort": "high",
"textVerbosity": "low",
"reasoningSummary": "auto",
"include": ["reasoning.encrypted_content"],
},
},
},
},
"anthropic": {
"models": {
"claude-sonnet-4-5-20250929": {
"options": {
"thinking": {
"type": "enabled",
"budgetTokens": 16000,
},
},
},
},
},
},
}

Qui stiamo configurando impostazioni globali per due modelli integrati: gpt-5 quando si accede tramite il provider openai, e claude-sonnet-4-20250514 quando si accede tramite il provider anthropic. I nomi di provider e modelli integrati possono essere trovati su Models.dev.

Puoi anche configurare queste opzioni per tutti gli agenti che stai usando. La configurazione dell’agente sovrascrive tutte le opzioni globali qui. Ulteriori informazioni.

Puoi anche definire varianti personalizzate che estendono quelle integrate. Le varianti ti consentono di configurare diverse impostazioni per lo stesso modello senza creare voci duplicate:

opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"opencode": {
"models": {
"gpt-5": {
"variants": {
"high": {
"reasoningEffort": "high",
"textVerbosity": "low",
"reasoningSummary": "auto",
},
"low": {
"reasoningEffort": "low",
"textVerbosity": "low",
"reasoningSummary": "auto",
},
},
},
},
},
},
}

Varianti

Molti modelli supportano piu varianti con diverse configurazioni. OpenCode viene fornito con varianti predefinite integrate per i provider popolari.

Varianti integrate

OpenCode viene fornito con varianti predefinite per molti provider:

Anthropic:

  • high - Budget di pensiero elevato (predefinito)
  • max - Budget di pensiero massimo

OpenAI:

Varia in base al modello ma circa:

  • none - Nessun ragionamento
  • minimal - Sforzo di ragionamento minimo
  • low - Sforzo di ragionamento basso
  • medium - Sforzo di ragionamento medio
  • high - Sforzo di ragionamento elevato
  • xhigh - Sforzo di ragionamento extra elevato

Google:

  • low - Sforzo/budget token inferiore
  • high - Sforzo/budget token superiore

Varianti personalizzate

Puoi sovrascrivere le varianti esistenti o aggiungere le tue:

opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openai": {
"models": {
"gpt-5": {
"variants": {
"thinking": {
"reasoningEffort": "high",
"textVerbosity": "low",
},
"fast": {
"disabled": true,
},
},
},
},
},
},
}

Cycle varianti

Usa il keybind variant_cycle per passare rapidamente tra le varianti. Ulteriori informazioni.


Caricamento dei modelli

Quando OpenCode si avvia, verifica i modelli nel seguente ordine di priorita:

  1. L’indicatore da riga di comando --model o -m. Il formato e lo stesso del file di configurazione: id_provider/id_modello.

  2. L’elenco dei modelli nella configurazione OpenCode.

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "model": "anthropic/claude-sonnet-4-20250514"
    }

    Il formato qui e provider/modello.

  3. L’ultimo modello utilizzato.

  4. Il primo modello utilizzando una priorita interna.