Provider
Utilizzo di qualsiasi provider LLM in OpenCode.
OpenCode utilizza l’AI SDK e Models.dev per supportare pi di 75 provider LLM e supporta l’esecuzione di modelli locali.
Per aggiungere un provider, devi:
- Aggiungere le chiavi API del provider utilizzando il comando
/connect. - Configurare il provider nella tua configurazione OpenCode.
Credenziali
Quando aggiungi le chiavi API di un provider con il comando /connect, vengono memorizzate in ~/.local/share/opencode/auth.json.
Configurazione
Puoi personalizzare i provider tramite la sezione provider nella tua configurazione OpenCode.
URL di base
Puoi personalizzare l’URL di base per qualsiasi provider impostando l’opzione baseURL. Ci utile quando si utilizzano servizi proxy o endpoint personalizzati.
{ "$schema": "https://opencode.ai/config.json", "provider": { "anthropic": { "options": { "baseURL": "https://api.anthropic.com/v1" } } }}OpenCode Zen
OpenCode Zen un elenco di modelli forniti dal team OpenCode che sono stati testati e verificati per funzionare bene con OpenCode. Ulteriori informazioni.
-
Esegui il comando
/connectnel TUI, seleziona opencode e vai a opencode.ai/auth./connect -
Accedi, aggiungi i dettagli di fatturazione e copia la tua chiave API.
-
Incolla la tua chiave API.
┌ API key││└ enter -
Esegui
/modelsnel TUI per vedere l’elenco dei modelli che raccomandiamo./models
Funziona come qualsiasi altro provider in OpenCode. Il suo utilizzo completamente facoltativo.
Directory
Esaminiamo in dettaglio alcuni dei provider. Se desideri aggiungere un provider all’elenco, non esitare ad aprire una PR.
Amazon Bedrock
Per utilizzare Amazon Bedrock con OpenCode:
-
Vai al Catalogo modelli nella console Amazon Bedrock e richiedi l’accesso ai modelli che desideri.
-
Configura l’autenticazione utilizzando uno dei seguenti metodi:
Variabili d’ambiente (Avvio rapido)
Imposta una di queste variabili d’ambiente durante l’esecuzione di opencode:
Terminal window # Opzione 1: Utilizzo delle chiavi di accesso AWSAWS_ACCESS_KEY_ID=XXX AWS_SECRET_ACCESS_KEY=YYY opencode# Opzione 2: Utilizzo di un profilo AWS denominatoAWS_PROFILE=my-profile opencode# Opzione 3: Utilizzo del token bearer BedrockAWS_BEARER_TOKEN_BEDROCK=XXX opencodeOppure aggiungile al tuo profilo bash:
~/.bash_profile export AWS_PROFILE=my-dev-profileexport AWS_REGION=us-east-1File di configurazione (Consigliato)
Per la configurazione specifica del progetto o persistente, usa
opencode.json:opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"amazon-bedrock": {"options": {"region": "us-east-1","profile": "my-aws-profile"}}}}Opzioni disponibili:
region- Regione AWS (ad esempio,us-east-1,eu-west-1)profile- Profilo AWS denominato da~/.aws/credentialsendpoint- URL endpoint personalizzato per endpoint VPC (alias per l’opzione genericabaseURL)
Avanzato: Endpoint VPC
Se stai utilizzando endpoint VPC per Bedrock:
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"amazon-bedrock": {"options": {"region": "us-east-1","profile": "production","endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com"}}}}Metodi di autenticazione
AWS_ACCESS_KEY_ID/AWS_SECRET_ACCESS_KEY: Crea un utente IAM e genera chiavi di accesso nella console AWSAWS_PROFILE: Usa profili denominati da~/.aws/credentials. Configura prima conaws configure --profile my-profileoaws sso loginAWS_BEARER_TOKEN_BEDROCK: Genera chiavi API a lungo termine dalla console Amazon Bedrock
Priorit di autenticazione
Amazon Bedrock utilizza la seguente priorit di autenticazione:
- Token Bearer - Variabile d’ambiente
AWS_BEARER_TOKEN_BEDROCKo token dal comando/connect - Catena di credenziali AWS - Profilo, chiavi di accesso, credenziali condivise, ruoli IAM, metadati istanza
-
Esegui il comando
/modelsper selezionare il modello che desideri./models
Anthropic
Consigliamo di iscriversi a Claude Pro o Max.
-
Una volta iscritto, esegui il comando
/connecte seleziona Anthropic./connect -
Qui puoi selezionare l’opzione Claude Pro/Max e aprir il tuo browser e chiederti di autenticarti.
┌ Select auth method││ Claude Pro/Max│ Create an API Key│ Manually enter API Key└ -
Ora tutti i modelli Anthropic dovrebbero essere disponibili quando usi il comando
/models./models
Utilizzo delle chiavi API
Puoi anche selezionare Crea una chiave API se non hai un abbonamento Pro/Max. Aprir anche il tuo browser e chiederarti di accedere ad Anthropic e ti dar un codice che puoi incollare nel tuo terminale.
Oppure se hai gi una chiave API, puoi selezionare Inserisci chiave API manualmente e incollarla nel tuo terminale.
Azure OpenAI
-
Vai al portale Azure e crea una risorsa Azure OpenAI. Ti servir:
- Nome della risorsa: Diventa parte del tuo endpoint API (
https://RESOURCE_NAME.openai.azure.com/) - Chiave API:
KEY 1oKEY 2dalla tua risorsa
- Nome della risorsa: Diventa parte del tuo endpoint API (
-
Vai a Azure AI Foundry e distribuisci un modello.
-
Esegui il comando
/connecte cerca Azure./connect -
Inserisci la tua chiave API.
┌ API key││└ enter -
Imposta il nome della tua risorsa come variabile d’ambiente:
Terminal window AZURE_RESOURCE_NAME=XXX opencodeOppure aggiungilo al tuo profilo bash:
~/.bash_profile export AZURE_RESOURCE_NAME=XXX -
Esegui il comando
/modelsper selezionare il modello distribuito./models
Azure Cognitive Services
-
Vai al portale Azure e crea una risorsa Azure OpenAI. Ti servir:
- Nome della risorsa: Diventa parte del tuo endpoint API (
https://AZURE_COGNITIVE_SERVICES_RESOURCE_NAME.cognitiveservices.azure.com/) - Chiave API:
KEY 1oKEY 2dalla tua risorsa
- Nome della risorsa: Diventa parte del tuo endpoint API (
-
Vai a Azure AI Foundry e distribuisci un modello.
-
Esegui il comando
/connecte cerca Azure Cognitive Services./connect -
Inserisci la tua chiave API.
┌ API key││└ enter -
Imposta il nome della tua risorsa come variabile d’ambiente:
Terminal window AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX opencodeOppure aggiungilo al tuo profilo bash:
~/.bash_profile export AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX -
Esegui il comando
/modelsper selezionare il modello distribuito./models
Baseten
-
Vai a Baseten, crea un account e genera una chiave API.
-
Esegui il comando
/connecte cerca Baseten./connect -
Inserisci la tua chiave API Baseten.
┌ API key││└ enter -
Esegui il comando
/modelsper selezionare un modello./models
Cerebras
-
Vai alla console Cerebras, crea un account e genera una chiave API.
-
Esegui il comando
/connecte cerca Cerebras./connect -
Inserisci la tua chiave API Cerebras.
┌ API key││└ enter -
Esegui il comando
/modelsper selezionare un modello come Qwen 3 Coder 480B./models
Cloudflare AI Gateway
Cloudflare AI Gateway ti permette di accedere ai modelli di OpenAI, Anthropic, Workers AI e altro attraverso un endpoint unificato. Con Fatturazione unificata non hai bisogno di chiavi API separate per ogni provider.
-
Vai alla dashboard Cloudflare, naviga in AI > AI Gateway e crea un nuovo gateway.
-
Imposta il tuo ID account e ID gateway come variabili d’ambiente.
~/.bash_profile export CLOUDFLARE_ACCOUNT_ID=your-32-character-account-idexport CLOUDFLARE_GATEWAY_ID=your-gateway-id -
Esegui il comando
/connecte cerca Cloudflare AI Gateway./connect -
Inserisci il tuo token API Cloudflare.
┌ API key││└ enterOppure impostalo come variabile d’ambiente.
~/.bash_profile export CLOUDFLARE_API_TOKEN=your-api-token -
Esegui il comando
/modelsper selezionare un modello./modelsPuoi anche aggiungere modelli attraverso la tua configurazione opencode.
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"cloudflare-ai-gateway": {"models": {"openai/gpt-4o": {},"anthropic/claude-sonnet-4": {}}}}}
Cortecs
-
Vai alla console Cortecs, crea un account e genera una chiave API.
-
Esegui il comando
/connecte cerca Cortecs./connect -
Inserisci la tua chiave API Cortecs.
┌ API key││└ enter -
Esegui il comando
/modelsper selezionare un modello come Kimi K2 Instruct./models
DeepSeek
-
Vai alla console DeepSeek, crea un account e fai clic su Crea nuova chiave API.
-
Esegui il comando
/connecte cerca DeepSeek./connect -
Inserisci la tua chiave API DeepSeek.
┌ API key││└ enter -
Esegui il comando
/modelsper selezionare un modello DeepSeek come DeepSeek Reasoner./models
Deep Infra
-
Vai alla dashboard Deep Infra, crea un account e genera una chiave API.
-
Esegui il comando
/connecte cerca Deep Infra./connect -
Inserisci la tua chiave API Deep Infra.
┌ API key││└ enter -
Esegui il comando
/modelsper selezionare un modello./models
Fireworks AI
-
Vai alla console Fireworks AI, crea un account e fai clic su Crea chiave API.
-
Esegui il comando
/connecte cerca Fireworks AI./connect -
Inserisci la tua chiave API Fireworks AI.
┌ API key││└ enter -
Esegui il comando
/modelsper selezionare un modello come Kimi K2 Instruct./models
GitHub Copilot
Per utilizzare il tuo abbonamento GitHub Copilot con opencode:
-
Esegui il comando
/connecte cerca GitHub Copilot./connect -
Vai a github.com/login/device e inserisci il codice.
┌ Login with GitHub Copilot││ https://github.com/login/device││ Enter code: 8F43-6FCF│└ Waiting for authorization... -
Ora esegui il comando
/modelsper selezionare il modello che desideri./models
Google Vertex AI
Per utilizzare Google Vertex AI con OpenCode:
-
Vai al Model Garden nella Google Cloud Console e verifica i modelli disponibili nella tua regione.
-
Imposta le variabili d’ambiente richieste:
GOOGLE_CLOUD_PROJECT: Il tuo ID progetto Google CloudVERTEX_LOCATION(opzionale): La regione per Vertex AI (predefinitoglobal)- Autenticazione (scegline una):
GOOGLE_APPLICATION_CREDENTIALS: Percorso del file della chiave JSON dell’account di servizio- Autenticati usando gcloud CLI:
gcloud auth application-default login
Impostale durante l’esecuzione di opencode.
Terminal window GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json GOOGLE_CLOUD_PROJECT=your-project-id opencodeOppure aggiungile al tuo profilo bash.
~/.bash_profile export GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.jsonexport GOOGLE_CLOUD_PROJECT=your-project-idexport VERTEX_LOCATION=global
-
Esegui il comando
/modelsper selezionare il modello che desideri./models
Groq
-
Vai alla console Groq, fai clic su Crea chiave API e copia la chiave.
-
Esegui il comando
/connecte cerca Groq./connect -
Inserisci la chiave API del provider.
┌ API key││└ enter -
Esegui il comando
/modelsper selezionare quello che desideri./models
Hugging Face
Hugging Face Inference Providers fornisce l’accesso a modelli open source supportati da pi di 17 provider.
-
Vai alle impostazioni di Hugging Face per creare un token con l’autorizzazione a effettuare chiamate ai provider di inferenza.
-
Esegui il comando
/connecte cerca Hugging Face./connect -
Inserisci il tuo token Hugging Face.
┌ API key││└ enter -
Esegui il comando
/modelsper selezionare un modello come Kimi-K2-Instruct o GLM-4.6./models
Helicone
Helicone una piattaforma di osservabilit LLM che fornisce registrazione, monitoraggio e analisi per le tue applicazioni AI. Il gateway AI di Helicone instrada le tue richieste al provider appropriato automaticamente in base al modello.
-
Vai a Helicone, crea un account e genera una chiave API dalla tua dashboard.
-
Esegui il comando
/connecte cerca Helicone./connect -
Inserisci la tua chiave API Helicone.
┌ API key││└ enter -
Esegui il comando
/modelsper selezionare un modello./models
Per ulteriori provider e funzionalit avanzate come la memorizzazione nella cache e la limitazione della velocit, consulta la documentazione di Helicone.
Configurazioni opzionali
Nell’eventualit in cui vedi una funzionalit o un modello di Helicone che non configurato automaticamente tramite opencode, puoi sempre configurarlo tu stesso.
Ecco l’Elenco modelli di Helicone, ti servir per ottenere gli ID dei modelli che desideri aggiungere.
{ "$schema": "https://opencode.ai/config.json", "provider": { "helicone": { "npm": "@ai-sdk/openai-compatible", "name": "Helicone", "options": { "baseURL": "https://ai-gateway.helicone.ai", }, "models": { "gpt-4o": { // ID modello (dalla pagina dell'elenco modelli di Helicone) "name": "GPT-4o", // Il tuo nome personalizzato per il modello }, "claude-sonnet-4-20250514": { "name": "Claude Sonnet 4", }, }, }, },}Intestazioni personalizzate
Helicone supporta intestazioni personalizzate per funzionalit come la memorizzazione nella cache, il tracciamento degli utenti e la gestione delle sessioni. Aggiungile alla tua configurazione del provider usando options.headers:
{ "$schema": "https://opencode.ai/config.json", "provider": { "helicone": { "npm": "@ai-sdk/openai-compatible", "name": "Helicone", "options": { "baseURL": "https://ai-gateway.helicone.ai", "headers": { "Helicone-Cache-Enabled": "true", "Helicone-User-Id": "opencode", }, }, }, },}Tracciamento delle sessioni
La funzionalit Sessioni di Helicone ti consente di raggruppare richieste LML correlate. Usa il plugin opencode-helicone-session per registrare automaticamente ogni conversazione OpenCode come una sessione in Helicone.
npm install -g opencode-helicone-sessionAggiungilo alla tua configurazione.
{ "plugin": ["opencode-helicone-session"]}Il plugin inietta le intestazioni Helicone-Session-Id e Helicone-Session-Name nelle tue richieste. Nella pagina Sessioni di Helicone, vedrai ogni conversazione OpenCode elencata come una sessione separata.
Intestazioni comuni di Helicone
| Intestazione | Descrizione |
|---|---|
Helicone-Cache-Enabled | Abilita la memorizzazione nella cache delle risposte (true/false) |
Helicone-User-Id | Traccia le metriche per utente |
Helicone-Property-[Name] | Aggiungi propriet personalizzate (ad esempio, Helicone-Property-Environment) |
Helicone-Prompt-Id | Associa le richieste con le versioni dei prompt |
Vedi l’Elenco delle intestazioni di Helicone per tutte le intestazioni disponibili.
llama.cpp
Puoi configurare opencode per utilizzare modelli locali attraverso l’utilit llama-server di llama.cpp
{ "$schema": "https://opencode.ai/config.json", "provider": { "llama.cpp": { "npm": "@ai-sdk/openai-compatible", "name": "llama-server (local)", "options": { "baseURL": "http://127.0.0.1:8080/v1" }, "models": { "qwen3-coder:a3b": { "name": "Qwen3-Coder: a3b-30b (local)", "limit": { "context": 128000, "output": 65536 } } } } }}In questo esempio:
llama.cppl’ID provider personalizzato. Pu essere qualsiasi stringa che desideri.npmspecifica il pacchetto da utilizzare per questo provider. Qui,@ai-sdk/openai-compatibleutilizzato per qualsiasi API compatibile con OpenAI.nameil nome visualizzato del provider nell’interfaccia utente.options.baseURLl’endpoint per il server locale.modelsuna mappa di ID modello alle loro configurazioni. Il nome del modello verr visualizzato nell’elenco di selezione dei modelli.
IO.NET
IO.NET offre 17 modelli ottimizzati per vari casi d’uso:
-
Vai alla console IO.NET, crea un account e genera una chiave API.
-
Esegui il comando
/connecte cerca IO.NET./connect -
Inserisci la tua chiave API IO.NET.
┌ API key││└ enter -
Esegui il comando
/modelsper selezionare un modello./models
LM Studio
Puoi configurare opencode per utilizzare modelli locali attraverso LM Studio.
{ "$schema": "https://opencode.ai/config.json", "provider": { "lmstudio": { "npm": "@ai-sdk/openai-compatible", "name": "LM Studio (local)", "options": { "baseURL": "http://127.0.0.1:1234/v1" }, "models": { "google/gemma-3n-e4b": { "name": "Gemma 3n-e4b (local)" } } } }}In questo esempio:
lmstudiol’ID provider personalizzato. Pu essere qualsiasi stringa che desideri.npmspecifica il pacchetto da utilizzare per questo provider. Qui,@ai-sdk/openai-compatibleutilizzato per qualsiasi API compatibile con OpenAI.nameil nome visualizzato del provider nell’interfaccia utente.options.baseURLl’endpoint per il server locale.modelsuna mappa di ID modello alle loro configurazioni. Il nome del modello verr visualizzato nell’elenco di selezione dei modelli.
Moonshot AI
Per utilizzare Kimi K2 di Moonshot AI:
-
Vai alla console Moonshot AI, crea un account e fai clic su Crea chiave API.
-
Esegui il comando
/connecte cerca Moonshot AI./connect -
Inserisci la tua chiave API Moonshot.
┌ API key││└ enter -
Esegui il comando
/modelsper selezionare Kimi K2./models
MiniMax
-
Vai alla Console API MiniMax, crea un account e genera una chiave API.
-
Esegui il comando
/connecte cerca MiniMax./connect -
Inserisci la tua chiave API MiniMax.
┌ API key││└ enter -
Esegui il comando
/modelsper selezionare un modello come M2.1./models
Nebius Token Factory
-
Vai alla console Nebius Token Factory, crea un account e fai clic su Aggiungi chiave.
-
Esegui il comando
/connecte cerca Nebius Token Factory./connect -
Inserisci la tua chiave API Nebius Token Factory.
┌ API key││└ enter -
Esegui il comando
/modelsper selezionare un modello come Kimi K2 Instruct./models
Ollama
Puoi configurare opencode per utilizzare modelli locali attraverso Ollama.
{ "$schema": "https://opencode.ai/config.json", "provider": { "ollama": { "npm": "@ai-sdk/openai-compatible", "name": "Ollama (local)", "options": { "baseURL": "http://localhost:11434/v1" }, "models": { "llama2": { "name": "Llama 2" } } } }}In questo esempio:
ollamal’ID provider personalizzato. Pu essere qualsiasi stringa che desideri.npmspecifica il pacchetto da utilizzare per questo provider. Qui,@ai-sdk/openai-compatibleutilizzato per qualsiasi API compatibile con OpenAI.nameil nome visualizzato del provider nell’interfaccia utente.options.baseURLl’endpoint per il server locale.modelsuna mappa di ID modello alle loro configurazioni. Il nome del modello verr visualizzato nell’elenco di selezione dei modelli.
Ollama Cloud
Per utilizzare Ollama Cloud con OpenCode:
-
Vai a https://ollama.com/ e accedi o crea un account.
-
Naviga in Impostazioni > Chiavi e fai clic su Aggiungi chiave API per generare una nuova chiave API.
-
Copia la chiave API per l’uso in OpenCode.
-
Esegui il comando
/connecte cerca Ollama Cloud./connect -
Inserisci la tua chiave API Ollama Cloud.
┌ API key││└ enter -
Importante: Prima di utilizzare i modelli cloud in OpenCode, devi recuperare le informazioni del modello localmente:
Terminal window ollama pull gpt-oss:20b-cloud -
Esegui il comando
/modelsper selezionare il tuo modello Ollama Cloud./models
OpenAI
Consigliamo di iscriversi a ChatGPT Plus o Pro.
-
Una volta iscritto, esegui il comando
/connecte seleziona OpenAI./connect -
Qui puoi selezionare l’opzione ChatGPT Plus/Pro e aprir il tuo browser e chiederti di autenticarti.
┌ Select auth method││ ChatGPT Plus/Pro│ Manually enter API Key└ -
Ora tutti i modelli OpenAI dovrebbero essere disponibili quando usi il comando
/models./models
Utilizzo delle chiavi API
Se hai gi una chiave API, puoi selezionare Inserisci chiave API manualmente e incollarla nel tuo terminale.
OpenCode Zen
OpenCode Zen un elenco di modelli testati e verificati forniti dal team OpenCode. Ulteriori informazioni.
-
Accedi a OpenCode Zen e fai clic su Crea chiave API.
-
Esegui il comando
/connecte cerca OpenCode Zen./connect -
Inserisci la tua chiave API OpenCode.
┌ API key││└ enter -
Esegui il comando
/modelsper selezionare un modello come Qwen 3 Coder 480B./models
OpenRouter
-
Vai alla dashboard OpenRouter, fai clic su Crea chiave API e copia la chiave.
-
Esegui il comando
/connecte cerca OpenRouter./connect -
Inserisci la chiave API del provider.
┌ API key││└ enter -
Molti modelli OpenRouter sono precaricati per impostazione predefinita, esegui il comando
/modelsper selezionare quello che desideri./modelsPuoi anche aggiungere modelli aggiuntivi attraverso la tua configurazione opencode.
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"openrouter": {"models": {"somecoolnewmodel": {}}}}} -
Puoi anche personalizzarli attraverso la tua configurazione opencode. Ecco un esempio di specifica di un provider
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"openrouter": {"models": {"moonshotai/kimi-k2": {"options": {"provider": {"order": ["baseten"],"allow_fallbacks": false}}}}}}}
SAP AI Core
SAP AI Core fornisce l’accesso a pi di 40 modelli di OpenAI, Anthropic, Google, Amazon, Meta, Mistral e AI21 attraverso una piattaforma unificata.
-
Vai al tuo Cockpit SAP BTP, naviga alla tua istanza del servizio SAP AI Core e crea una chiave di servizio.
-
Esegui il comando
/connecte cerca SAP AI Core./connect -
Inserisci la tua chiave di servizio JSON.
┌ Service key││└ enterOppure imposta la variabile d’ambiente
AICORE_SERVICE_KEY:Terminal window AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' opencodeOppure aggiungila al tuo profilo bash:
~/.bash_profile export AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' -
Facoltativamente, imposta l’ID di distribuzione e il gruppo di risorse:
Terminal window AICORE_DEPLOYMENT_ID=your-deployment-id AICORE_RESOURCE_GROUP=your-resource-group opencode -
Esegui il comando
/modelsper selezionare tra pi di 40 modelli disponibili./models
OVHcloud AI Endpoints
-
Vai al pannello OVHcloud. Naviga nella sezione
Public Cloud,AI & Machine Learning>AI Endpointse nella schedaAPI Keys, fai clic su Crea una nuova chiave API. -
Esegui il comando
/connecte cerca OVHcloud AI Endpoints./connect -
Inserisci la tua chiave API OVHcloud AI Endpoints.
┌ API key││└ enter -
Esegui il comando
/modelsper selezionare un modello come gpt-oss-120b./models
Scaleway
Per utilizzare le API Generative Scaleway con Opencode:
-
Vai alle impostazioni IAM della console Scaleway per generare una nuova chiave API.
-
Esegui il comando
/connecte cerca Scaleway./connect -
Inserisci la tua chiave API Scaleway.
┌ API key││└ enter -
Esegui il comando
/modelsper selezionare un modello come devstral-2-123b-instruct-2512 o gpt-oss-120b./models
Together AI
-
Vai alla console Together AI, crea un account e fai clic su Aggiungi chiave.
-
Esegui il comando
/connecte cerca Together AI./connect -
Inserisci la tua chiave API Together AI.
┌ API key││└ enter -
Esegui il comando
/modelsper selezionare un modello come Kimi K2 Instruct./models
Venice AI
-
Vai alla console Venice AI, crea un account e genera una chiave API.
-
Esegui il comando
/connecte cerca Venice AI./connect -
Inserisci la tua chiave API Venice AI.
┌ API key││└ enter -
Esegui il comando
/modelsper selezionare un modello come Llama 3.3 70B./models
Vercel AI Gateway
Vercel AI Gateway ti permette di accedere ai modelli di OpenAI, Anthropic, Google, xAI e altro attraverso un endpoint unificato. I modelli sono offerti al prezzo di listino senza sovrapprezzo.
-
Vai alla dashboard Vercel, naviga nella scheda AI Gateway e fai clic su Chiavi API per creare una nuova chiave API.
-
Esegui il comando
/connecte cerca Vercel AI Gateway./connect -
Inserisci la tua chiave API Vercel AI Gateway.
┌ API key││└ enter -
Esegui il comando
/modelsper selezionare un modello./models
Puoi anche personalizzare i modelli attraverso la tua configurazione opencode. Ecco un esempio di specifica dell’ordine di routing del provider.
{ "$schema": "https://opencode.ai/config.json", "provider": { "vercel": { "models": { "anthropic/claude-sonnet-4": { "options": { "order": ["anthropic", "vertex"] } } } } }}Alcune opzioni di routing utili:
| Opzione | Descrizione |
|---|---|
order | Sequenza di provider da provare |
only | Restringi a provider specifici |
zeroDataRetention | Usa solo provider con politiche di zero conservazione dati |
xAI
-
Vai alla console xAI, crea un account e genera una chiave API.
-
Esegui il comando
/connecte cerca xAI./connect -
Inserisci la tua chiave API xAI.
┌ API key││└ enter -
Esegui il comando
/modelsper selezionare un modello come Grok Beta./models
Z.AI
-
Vai alla console API Z.AI, crea un account e fai clic su Crea una nuova chiave API.
-
Esegui il comando
/connecte cerca Z.AI./connectSe sei iscritto al Piano di codifica GLM, seleziona Piano di codifica Z.AI.
-
Inserisci la tua chiave API Z.AI.
┌ API key││└ enter -
Esegui il comando
/modelsper selezionare un modello come GLM-4.7./models
ZenMux
-
Vai alla dashboard ZenMux, fai clic su Crea chiave API e copia la chiave.
-
Esegui il comando
/connecte cerca ZenMux./connect -
Inserisci la chiave API del provider.
┌ API key││└ enter -
Molti modelli ZenMux sono precaricati per impostazione predefinita, esegui il comando
/modelsper selezionare quello che desideri./modelsPuoi anche aggiungere modelli aggiuntivi attraverso la tua configurazione opencode.
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"zenmux": {"models": {"somecoolnewmodel": {}}}}}
Provider personalizzato
Per aggiungere qualsiasi provider compatibile con OpenAI che non elencato nel comando /connect:
-
Esegui il comando
/connecte scorri verso il basso su Altro.Terminal window $ /connect┌ Add credential│◆ Select provider│ ...│ ● Other└ -
Inserisci un ID univoco per il provider.
Terminal window $ /connect┌ Add credential│◇ Enter provider id│ myprovider└ -
Inserisci la tua chiave API per il provider.
Terminal window $ /connect┌ Add credential│▲ This only stores a credential for myprovider - you will need to configure it in opencode.json, check the docs for examples.│◇ Enter your API key│ sk-...└ -
Crea o aggiorna il tuo file
opencode.jsonnella tua directory del progetto:opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"myprovider": {"npm": "@ai-sdk/openai-compatible","name": "My AI ProviderDisplay Name","options": {"baseURL": "https://api.myprovider.com/v1"},"models": {"my-model-name": {"name": "My Model Display Name"}}}}}Ecco le opzioni di configurazione:
- npm: Pacchetto AI SDK da usare,
@ai-sdk/openai-compatibleper provider compatibili con OpenAI - name: Nome visualizzato nell’interfaccia utente.
- models: Modelli disponibili.
- options.baseURL: URL endpoint API.
- options.apiKey: Imposta facoltativamente la chiave API, se non usi l’autenticazione.
- options.headers: Imposta facoltativamente intestazioni personalizzate.
Per ulteriori informazioni sulle opzioni avanzate, consulta l’esempio seguente.
- npm: Pacchetto AI SDK da usare,
-
Esegui il comando
/modelse il tuo provider personalizzato e i modelli appariranno nell’elenco di selezione.
Esempio
Ecco un esempio di impostazione delle opzioni apiKey, headers e limit del modello.
{ "$schema": "https://opencode.ai/config.json", "provider": { "myprovider": { "npm": "@ai-sdk/openai-compatible", "name": "My AI ProviderDisplay Name", "options": { "baseURL": "https://api.myprovider.com/v1", "apiKey": "{env:ANTHROPIC_API_KEY}", "headers": { "Authorization": "Bearer custom-token" } }, "models": { "my-model-name": { "name": "My Model Display Name", "limit": { "context": 200000, "output": 65536 } } } } }}Dettagli della configurazione:
- apiKey: Impostato usando la sintassi della variabile
env, ulteriori informazioni. - headers: Intestazioni personalizzate inviate con ogni richiesta.
- limit.context: Token di input massimi che il modello accetta.
- limit.output: Token massimi che il modello pu generare.
I campi limit consentono a OpenCode di capire quanto contesto ti rimane. I provider standard li estraggono automaticamente da models.dev.
Risoluzione dei problemi
Se hai problemi a configurare un provider, verifica quanto segue:
-
Verifica la configurazione dell’autenticazione: Esegui
opencode auth listper vedere se le credenziali del provider sono state aggiunte alla tua configurazione.Ci non si applica a provider come Amazon Bedrock, che si affidano a variabili d’ambiente per la loro autenticazione.
-
Per i provider personalizzati, verifica la configurazione opencode e:
- Assicurati che l’ID provider usato nel comando
/connectcorrisponda all’ID nella tua configurazione opencode. - Il pacchetto npm corretto sia usato per il provider. Ad esempio, usa
@ai-sdk/cerebrasper Cerebras. E per tutti gli altri provider compatibili con OpenAI, usa@ai-sdk/openai-compatible. - Verifica che sia usato l’endpoint API corretto nel campo
options.baseURL.
- Assicurati che l’ID provider usato nel comando