콘텐츠로 이동

공급자

OpenCode에서 LLM 공급자를 사용합니다.

OpenCode는 AI SDKModels.dev를 사용하여 75개 이상의 LLM 공급자를 지원하며 로컬 모델도 실행할 수 있습니다.

필요한 공급자를 추가하려면:

  1. /connect 명령을 사용하여 공급자의 API 키를 추가하십시오.
  2. OpenCode 구성에서 공급자를 구성하십시오.

자격 증명

/connect 명령으로 공급자의 API 키를 추가하면 다음 위치에 저장됩니다: ~/.local/share/opencode/auth.json


구성

OpenCode 설정의 provider 섹션을 통해 공급자를 사용자 정의할 수 있습니다.


기본 URL

baseURL 옵션을 설정하여 모든 공급자를 위한 기본 URL을 사용자 정의할 수 있습니다. 프록시 서비스 또는 사용자 정의 엔드포인트를 사용할 때 유용합니다.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"anthropic": {
"options": {
"baseURL": "https://api.anthropic.com/v1"
}
}
}
}

OpenCode Zen

OpenCode Zen은 OpenCode 팀이 OpenCode와 잘 작동하도록 테스트하고 검증한 모델 목록입니다. 더 알아보기.

  1. TUI에서 /connect 명령을 실행하고 opencode를 선택한 뒤, opencode.ai/auth로 이동합니다.

    /connect
  2. 로그인하고 결제 정보를 입력한 후 API 키를 복사하십시오.

  3. API 키를 붙여넣습니다.

    ┌ API key
    └ enter
  4. TUI에서 /models를 실행하여 추천 모델 목록을 볼 수 있습니다.

    /models

OpenCode의 다른 공급자처럼 작동하며 사용은 완전히 선택 사항입니다.


디렉토리

공급자 세부 정보를 확인하세요. 목록에 공급자를 추가하려면 PR을 열어주세요.


302.AI

  1. 302.AI 콘솔로 이동하여 계정을 만들고 API 키를 생성합니다.

  2. /connect 명령을 실행하고 302.AI를 검색하십시오.

    /connect
  3. 302.AI API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. 모델을 선택하려면 /models 명령을 실행하십시오.

    /models

Amazon Bedrock

OpenCode로 Amazon Bedrock을 사용하려면:

  1. Amazon Bedrock 콘솔의 Model catalog로 이동하여 원하는 모델에 대한 액세스를 요청합니다.

  2. 다음 방법 중 하나를 사용하여 설정합니다:

환경 변수 (빠른 시작)

OpenCode를 실행하는 동안 다음 환경 변수 중 하나를 설정합니다:

Terminal window
# Option 1: Using AWS access keys
AWS_ACCESS_KEY_ID=XXX AWS_SECRET_ACCESS_KEY=YYY opencode
# Option 2: Using named AWS profile
AWS_PROFILE=my-profile opencode
# Option 3: Using Bedrock bearer token
AWS_BEARER_TOKEN_BEDROCK=XXX opencode

또는 bash 프로필에 추가합니다:

~/.bash_profile
export AWS_PROFILE=my-dev-profile
export AWS_REGION=us-east-1

설정 파일 (권장)

프로젝트별 또는 영구 구성을 위해 opencode.json을 사용하십시오.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"amazon-bedrock": {
"options": {
"region": "us-east-1",
"profile": "my-aws-profile"
}
}
}
}

유효한 옵션:

  • region - AWS 리전 (예: us-east-1, eu-west-1)

  • profile - ~/.aws/credentials의 AWS 프로필 이름

  • endpoint - VPC 엔드포인트 등을 위한 사용자 정의 엔드포인트 URL (일반 baseURL 옵션의 별칭)

고급: VPC 엔드포인트

Bedrock의 VPC 엔드포인트를 사용하는 경우:

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"amazon-bedrock": {
"options": {
"region": "us-east-1",
"profile": "production",
"endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com"
}
}
}
}

인증 방법

  • AWS_ACCESS_KEY_ID/AWS_SECRET_ACCESS_KEY: IAM 사용자 및 AWS 콘솔에서 액세스 키 생성
  • AWS_PROFILE: ~/.aws/credentials의 프로필 이름을 사용합니다. aws configure --profile my-profile 또는 aws sso login으로 먼저 구성하십시오.
  • AWS_BEARER_TOKEN_BEDROCK: Amazon Bedrock 콘솔에서 임시 API 키 생성
  • AWS_WEB_IDENTITY_TOKEN_FILE / AWS_ROLE_ARN: EKS IRSA (서비스 계정용 IAM 역할) 또는 다른 Kubernetes 환경의 OIDC 연동. 이 환경 변수는 서비스 계정을 사용할 때 Kubernetes에 의해 자동으로 주입됩니다.

인증 우선 순위

Amazon Bedrock은 다음과 같은 인증 우선 순위를 사용합니다.

  1. Bearer Token - AWS_BEARER_TOKEN_BEDROCK 환경 변수 또는 /connect 명령의 토큰

  2. AWS Credential Chain - 프로필, 액세스 키, 공유 자격 증명, IAM 역할, 웹 ID 토큰 (EKS IRSA), 인스턴스 메타데이터

  3. /models 명령을 실행하여 원하는 모델을 선택하십시오.

    /models

Anthropic

  1. 가입 후 /connect 명령을 실행하고 Anthropic을 선택합니다.

    /connect
  2. Claude Pro/Max 옵션을 선택하면 브라우저가 열립니다.

    ┌ Select auth method
    │ Claude Pro/Max
    │ Create an API Key
    │ Manually enter API Key
  3. 이제 /models 명령을 사용할 때 모든 Anthropic 모델을 사용할 수 있습니다.

    /models

OpenCode에서 Claude Pro/Max 구독을 사용하는 것은 Anthropic에서 공식적으로 지원하지 않습니다.

API 키 사용

Pro/Max 구독이 없는 경우 Create an API Key를 선택할 수 있습니다. 브라우저가 열리고 Anthropic에 로그인한 후 터미널에 붙여넣을 수 있는 코드를 제공합니다.

또는 이미 API 키가 있다면, Manually enter API Key를 선택하고 터미널에 붙여넣을 수 있습니다.


Azure OpenAI

  1. Azure 포털로 이동하여 Azure OpenAI 리소스를 만듭니다. 다음이 필요합니다:

    • 리소스 이름: API 엔드포인트의 일부가 됩니다 (https://RESOURCE_NAME.openai.azure.com/)
    • API 키: 리소스의 KEY 1 또는 KEY 2
  2. Azure AI Foundry로 이동하여 모델을 배포합니다.

  3. /connect 명령을 실행하고 Azure를 검색하십시오.

    /connect
  4. API 키를 입력하십시오.

    ┌ API key
    └ enter
  5. 리소스 이름을 환경 변수로 설정:

    Terminal window
    AZURE_RESOURCE_NAME=XXX opencode

    또는 bash 프로필에 추가:

    ~/.bash_profile
    export AZURE_RESOURCE_NAME=XXX
  6. /models 명령을 실행하여 배포된 모델을 선택하십시오.

    /models

Azure Cognitive Services

  1. Azure 포털로 이동하여 Azure OpenAI 리소스를 만듭니다. 다음이 필요합니다:

    • 리소스 이름: API 엔드포인트의 일부가 됩니다 (https://AZURE_COGNITIVE_SERVICES_RESOURCE_NAME.cognitiveservices.azure.com/)
    • API 키: 리소스의 KEY 1 또는 KEY 2
  2. Azure AI Foundry로 이동하여 모델을 배포합니다.

  3. /connect 명령을 실행하고 Azure Cognitive Services를 검색하십시오.

    /connect
  4. API 키를 입력하십시오.

    ┌ API key
    └ enter
  5. 리소스 이름을 환경 변수로 설정:

    Terminal window
    AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX opencode

    또는 bash 프로필에 추가:

    ~/.bash_profile
    export AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX
  6. /models 명령을 실행하여 배포된 모델을 선택하십시오.

    /models

Baseten

  1. Baseten으로 이동하여 계정을 만들고 API 키를 생성합니다.

  2. /connect 명령을 실행하고 Baseten을 검색하십시오.

    /connect
  3. Baseten API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. 모델을 선택하려면 /models 명령을 실행하십시오.

    /models

Cerebras

  1. Cerebras 콘솔로 이동하여 계정을 만들고 API 키를 생성합니다.

  2. /connect 명령을 실행하고 Cerebras를 검색하십시오.

    /connect
  3. Cerebras API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 모델(예: Qwen 3 Coder 480B)을 선택하십시오.

    /models

Cloudflare AI Gateway

Cloudflare AI Gateway는 OpenAI, Anthropic, Workers AI 등의 모델에 액세스할 수 있으며, 통합된 엔드포인트를 통해 더 많은 기능을 제공합니다. Unified Billing을 사용하면 각 공급자의 별도 API 키가 필요하지 않습니다.

  1. Cloudflare 대시보드로 이동하여, AI > AI Gateway로 가서 새로운 게이트웨이를 만듭니다.

  2. 계정 ID 및 Gateway ID를 환경 변수로 설정하십시오.

    ~/.bash_profile
    export CLOUDFLARE_ACCOUNT_ID=your-32-character-account-id
    export CLOUDFLARE_GATEWAY_ID=your-gateway-id
  3. /connect 명령을 실행하고 Cloudflare AI Gateway를 검색하십시오.

    /connect
  4. Cloudflare API 토큰을 입력하십시오.

    ┌ API key
    └ enter

    또는 환경 변수로 설정합니다.

    ~/.bash_profile
    export CLOUDFLARE_API_TOKEN=your-api-token
  5. 모델을 선택하려면 /models 명령을 실행하십시오.

    /models

    OpenCode 구성을 통해 모델을 추가할 수 있습니다.

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "cloudflare-ai-gateway": {
    "models": {
    "openai/gpt-4o": {},
    "anthropic/claude-sonnet-4": {}
    }
    }
    }
    }

Cortecs

  1. Cortecs 콘솔로 이동하여 계정을 만들고 API 키를 생성합니다.

  2. /connect 명령을 실행하고 Cortecs를 검색하십시오.

    /connect
  3. Cortecs API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 모델(예: Kimi K2 Instruct)을 선택하십시오.

    /models

DeepSeek

  1. DeepSeek 콘솔로 이동하여 계정을 만들고 API Keys를 클릭하여 키를 생성합니다.

  2. /connect 명령을 실행하고 DeepSeek를 검색하십시오.

    /connect
  3. DeepSeek API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 DeepSeek 모델(예: DeepSeek Reasoner)을 선택하십시오.

    /models

Deep Infra

  1. Deep Infra 대시보드로 이동하여 계정을 만들고 API 키를 생성합니다.

  2. /connect 명령을 실행하고 Deep Infra를 검색하십시오.

    /connect
  3. Deep Infra API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. 모델을 선택하려면 /models 명령을 실행하십시오.

    /models

Firmware

  1. Firmware 대시보드로 이동하여 계정을 만들고 API 키를 생성합니다.

  2. /connect 명령을 실행하고 Firmware를 검색하십시오.

    /connect
  3. Firmware API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. 모델을 선택하려면 /models 명령을 실행하십시오.

    /models

Fireworks AI

  1. Fireworks AI 콘솔로 이동하여 계정을 만들고 API Keys를 클릭합니다.

  2. /connect 명령을 실행하고 Fireworks AI를 검색하십시오.

    /connect
  3. Fireworks AI API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 모델(예: Kimi K2 Instruct)을 선택하십시오.

    /models

GitLab Duo

GitLab Duo는 GitLab의 Anthropic 프록시를 통해 기본 도구 호출 기능을 갖춘 AI 기반 에이전트 채팅을 제공합니다.

  1. /connect 명령을 실행하고 GitLab을 선택합니다.

    /connect
  2. 인증 방법을 선택하십시오:

    ┌ Select auth method
    │ OAuth (Recommended)
    │ Personal Access Token

OAuth 사용 (권장)

OAuth를 선택하면 브라우저에서 권한 부여를 요청합니다.

개인 액세스 토큰 사용

  1. GitLab User Settings > Access Tokens로 이동

  2. 새 토큰 추가

  3. 이름: OpenCode, 범위: api

  4. 토큰 복사 (glpat-로 시작)

  5. 터미널에 입력하십시오.

  6. 사용 가능한 모델을 보려면 /models 명령을 실행하십시오.

    /models

세 가지 Claude 기반 모델을 사용할 수 있습니다:

  • duo-chat-haiku-4-5 (기본값) - 빠른 작업을 위한 빠른 응답
  • duo-chat-sonnet-4-5 - 대부분의 워크플로우에 균형 잡힌 성능
  • duo-chat-opus-4-5 - 복잡한 분석 가능

셀프 호스팅 GitLab (Self-Hosted)

자체 호스팅 GitLab 인스턴스:

Terminal window
export GITLAB_INSTANCE_URL=https://gitlab.company.com
export GITLAB_TOKEN=glpat-...

인스턴스가 사용자 정의 AI Gateway를 실행하는 경우:

Terminal window
export GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.com

또는 bash 프로필에 추가:

~/.bash_profile
export GITLAB_INSTANCE_URL=https://gitlab.company.com
export GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.com
export GITLAB_TOKEN=glpat-...

셀프 호스팅 인스턴스용 OAuth

자체 호스팅 인스턴스에 대해 OAuth를 작동시키려면 새로운 애플리케이션(Settings → Applications)을 만들어야 합니다. 콜백 URL http://127.0.0.1:8080/callback 및 다음 범위가 필요합니다:

  • api (사용자 대신 API 액세스)
  • read_user (개인 정보 읽기)
  • read_repository (리포지토리 읽기 전용 액세스)

그런 다음 애플리케이션 ID를 환경 변수로 노출하십시오:

Terminal window
export GITLAB_OAUTH_CLIENT_ID=your_application_id_here

opencode-gitlab-auth 홈페이지에 추가 문서가 있습니다.

구성

opencode.json을 통해 사용자 정의:

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"gitlab": {
"options": {
"instanceUrl": "https://gitlab.com",
"featureFlags": {
"duo_agent_platform_agentic_chat": true,
"duo_agent_platform": true
}
}
}
}
}
GitLab API 도구 (선택 사항이지만 강력 권장)

GitLab 도구(병합 요청, 이슈, 파이프라인, CI/CD 등)에 액세스하려면:

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"plugin": ["@gitlab/opencode-gitlab-plugin"]
}

이 플러그인은 MR 리뷰, 이슈 추적, 파이프라인 모니터링 등을 포함한 포괄적인 GitLab 리포지토리 관리 기능을 제공합니다.


GitHub Copilot

GitHub Copilot 구독을 사용하여 opencode:

  1. /connect 명령을 실행하고 GitHub Copilot을 검색하십시오.

    /connect
  2. github.com/login/device로 이동하여 코드를 입력합니다.

    ┌ Login with GitHub Copilot
    │ https://github.com/login/device
    │ Enter code: 8F43-6FCF
    └ Waiting for authorization...
  3. 이제 원하는 모델을 선택하기 위해 /models 명령을 실행합니다.

    /models

구글 Vertex AI

opencode로 Google Vertex AI를 사용하려면:

  1. Google Cloud Console에서 ** Model Garden**을 통해 헤드를 확인하고 확인하십시오. 당신의 지역에서 유효한 모형.

  2. 필요한 환경 변수를 설정:

  • GOOGLE_CLOUD_PROJECT: 당신의 구글 클라우드 프로젝트 ID
  • VERTEX_LOCATION (선택): Vertex AI를 위한 지구 (global에 기본)
  • 인증(초당):
  • GOOGLE_APPLICATION_CREDENTIALS: 서비스 계정 JSON 키 파일 경로
  • gcloud CLI를 사용하여 인증 : gcloud auth application-default login

opencode를 실행하면서 설정한다.

Terminal window
GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json GOOGLE_CLOUD_PROJECT=your-project-id opencode

또는 bash 프로파일에 추가하십시오.

~/.bash_profile
export GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json
export GOOGLE_CLOUD_PROJECT=your-project-id
export VERTEX_LOCATION=global
  1. 당신이 원하는 모형을 선정하기 위하여 /models 명령을 실행하십시오.

    /models

Groq
  1. Groq 콘솔에 머리, click Create API Key, 키 복사.

  2. /connect 명령을 실행하고 Groq에 대한 검색.

    /connect
  3. 공급자를 위한 API 열쇠를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 원하는 것을 선택합니다.

    /models

Hugging Face

Hugging Face Inference Provider는 17+ 공급자가 지원하는 오픈 모델에 대한 액세스를 제공합니다.

  1. Hugging Face settings를 통해 토큰을 Inference Provider에게 호출할 권한을 부여합니다.

  2. /connect 명령을 실행하고 Hugging Face를 검색하십시오.

    /connect
  3. Hugging Face 토큰을 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 같은 모델을 선택하십시오 Kimi-K2-Instruct 또는 GLM-4.6 .

    /models

Helicone

Helicone는 AI 애플리케이션에 대한 로깅, 모니터링 및 분석 기능을 제공하는 LLM Observability 플랫폼입니다. Helicone AI Gateway는 모델을 기반으로 적절한 공급자에게 요청을 자동으로 전달합니다.

  1. Helicone에 머리, 계정을 만들고, 대시보드에서 API 키를 생성합니다.

  2. /connect 명령을 실행하고 ** Helicone**를 검색하십시오.

    /connect
  3. Helicone API 열쇠를 입력하십시오.

    ┌ API key
    └ enter
  4. 모델을 선택하려면 /models 명령을 실행하십시오.

    /models

캐싱 및 속도 제한과 같은 더 많은 공급자와 고급 기능을 위해 Helicone 문서를 확인하십시오.

선택 사항

이벤트에서 opencode를 통해 자동으로 구성되지 않는 Helicone의 기능 또는 모델을 볼 수 있습니다.

여기에 Helicone의 모델 디렉토리, 당신은 당신이 추가 할 모델의 ID를 잡아이 필요.

~/.config/opencode/opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"helicone": {
"npm": "@ai-sdk/openai-compatible",
"name": "Helicone",
"options": {
"baseURL": "https://ai-gateway.helicone.ai",
},
"models": {
"gpt-4o": {
// Model ID (from Helicone's model directory page)
"name": "GPT-4o", // Your own custom name for the model
},
"claude-sonnet-4-20250514": {
"name": "Claude Sonnet 4",
},
},
},
},
}
사용자 정의 헤더

Helicone는 캐싱, 사용자 추적 및 세션 관리와 같은 기능을 위한 사용자 정의 헤더를 지원합니다. options.headers를 사용하여 공급자 구성에 추가하십시오:

~/.config/opencode/opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"helicone": {
"npm": "@ai-sdk/openai-compatible",
"name": "Helicone",
"options": {
"baseURL": "https://ai-gateway.helicone.ai",
"headers": {
"Helicone-Cache-Enabled": "true",
"Helicone-User-Id": "opencode",
},
},
},
},
}
세션 추적

Helicone’s Sessions 기능으로 그룹 관련 LLM 요청이 가능합니다. opencode-helicone-session 플러그인을 사용하여 각 opencode 대화를 Helicone 세션으로 자동 로그인하십시오.

Terminal window
npm install -g opencode-helicone-session

설정에 추가하십시오.

opencode.json
{
"plugin": ["opencode-helicone-session"]
}

플러그인은 Helicone-Session-IdHelicone-Session-Name 헤더를 귀하의 요청에 주사합니다. Helicone의 세션 페이지에서는 별도의 세션으로 나열된 각 opencode 대화를 볼 수 있습니다.

공통 Helicone 헤더
헤드러Description
Helicone-Cache-Enabled대응 캐싱 (true/false)
Helicone-User-Id사용자별 추적 가능
Helicone-Property-[Name]사용자 정의 속성 추가(예: Helicone-Property-Environment)
Helicone-Prompt-Idprompt 대응

모든 사용 가능한 헤더에 대한 Helicone Header Directory를 참조하십시오.


llama.cpp

llama.cpp’s llama-server 유틸리티를 통해 로컬 모델을 사용할 수 있습니다.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"llama.cpp": {
"npm": "@ai-sdk/openai-compatible",
"name": "llama-server (local)",
"options": {
"baseURL": "http://127.0.0.1:8080/v1"
},
"models": {
"qwen3-coder:a3b": {
"name": "Qwen3-Coder: a3b-30b (local)",
"limit": {
"context": 128000,
"output": 65536
}
}
}
}
}
}

이 예제에서:

  • llama.cpp는 주문 공급자 ID입니다. 원하는 문자열이 될 수 있습니다.
  • npm는 이 공급자를 위해 사용할 포장을 지정합니다. 여기, @ai-sdk/openai-compatible는 OpenAI 호환 API에 사용됩니다.
  • name는 UI에 있는 공급자를 위한 전시 이름입니다.
  • options.baseURL는 로컬 서버의 엔드포인트입니다.
  • models는 모델 ID를 구성하는 맵입니다. 모델 이름은 모델 선택 목록에 표시됩니다.

IO.NET

IO.NET은 다양한 사용 사례에 최적화된 17개의 모델을 제공합니다:

  1. IO.NET 콘솔에 머리, 계정을 만들고 API 키를 생성합니다.

  2. /connect 명령을 실행하고 IO.NET를 검색하십시오.

    /connect
  3. IO.NET API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. 모델을 선택하려면 /models 명령을 실행하십시오.

    /models

LM Studio

LM Studio를 통해 로컬 모델을 사용할 수 있습니다.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"lmstudio": {
"npm": "@ai-sdk/openai-compatible",
"name": "LM Studio (local)",
"options": {
"baseURL": "http://127.0.0.1:1234/v1"
},
"models": {
"google/gemma-3n-e4b": {
"name": "Gemma 3n-e4b (local)"
}
}
}
}
}

이 예제에서:

  • lmstudio는 주문 공급자 ID입니다. 원하는 문자열이 될 수 있습니다.
  • npm는 이 공급자를 위해 사용할 포장을 지정합니다. 여기, @ai-sdk/openai-compatible는 OpenAI 호환 API에 사용됩니다.
  • name는 UI에 있는 공급자를 위한 전시 이름입니다.
  • options.baseURL는 로컬 서버의 엔드포인트입니다.
  • models는 모델 ID를 구성하는 맵입니다. 모델 이름은 모델 선택 목록에 표시됩니다.

Moonshot AI

Moonshot AI에서 Kimi K2 사용 :

  1. Moonshot AI 콘솔에 머리, 계정을 만들고, ** API 키**를 클릭합니다.

  2. /connect 명령을 실행하고 Moonshot AI를 검색하십시오.

    /connect
  3. Moonshot API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 Kimi K2 .

    /models

MiniMax

  1. MiniMax API 콘솔에 머리, 계정을 만들고 API 키를 생성합니다.

  2. /connect 명령을 실행하고 MiniMax를 검색하십시오.

    /connect
  3. MiniMax API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 같은 모델을 선택하십시오 M2.1 .

    /models

Nebius Token Factory

  1. Nebius Token Factory 콘솔에 머리, 계정을 만들고, ** 키 추가 **.

  2. /connect 명령을 실행하고 Nebius Token Factory를 검색하십시오.

    /connect
  3. Nebius 토큰 공장 API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 같은 모델을 선택하십시오 Kimi K2 Instruct .

    /models

Ollama

Ollama를 통해 로컬 모델을 사용할 수 있습니다.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"ollama": {
"npm": "@ai-sdk/openai-compatible",
"name": "Ollama (local)",
"options": {
"baseURL": "http://localhost:11434/v1"
},
"models": {
"llama2": {
"name": "Llama 2"
}
}
}
}
}

이 예제에서:

  • ollama는 주문 공급자 ID입니다. 원하는 문자열이 될 수 있습니다.
  • npm는 이 공급자를 위해 사용할 포장을 지정합니다. 여기, @ai-sdk/openai-compatible는 OpenAI 호환 API에 사용됩니다.
  • name는 UI에 있는 공급자를 위한 전시 이름입니다.
  • options.baseURL는 로컬 서버의 엔드포인트입니다.
  • models는 모델 ID를 구성하는 맵입니다. 모델 이름은 모델 선택 목록에 표시됩니다.

Ollama Cloud

opencode로 Ollama Cloud를 사용하려면:

  1. https://ollama.com/ 이상 머리와 로그인하거나 계정을 만들 수 있습니다.

  2. Navigate toSettings > Keys 및 click API Key를 추가하여 새로운 API 키 생성.

  3. opencode에서 사용을 위한 API 열쇠를 복사하십시오.

  4. /connect 명령을 실행하고 ** Ollama Cloud**를 검색하십시오.

    /connect
  5. Ollama Cloud API 키 입력.

    ┌ API key
    └ enter
  6. ** 중요 **: opencode의 클라우드 모델을 사용하기 전에, 로컬 모델 정보를 끌어야 합니다:

    Terminal window
    ollama pull gpt-oss:20b-cloud
  7. /models 명령을 실행하여 Ollama Cloud 모델을 선택하십시오.

    /models

OpenAI

ChatGPT Plus 또는 Pro에 가입하는 것이 좋습니다.

  1. 가입하면 /connect 명령을 실행하고 OpenAI를 선택하십시오.

    /connect
  2. ChatGPT Plus/Pro 옵션을 선택하고 브라우저를 열 수 있습니다. 자주 묻는 질문

    ┌ Select auth method
    │ ChatGPT Plus/Pro
    │ Manually enter API Key
  3. 이제 모든 OpenAI 모델은 /models 명령을 사용할 때 사용할 수 있어야합니다.

    /models
API 키 사용

API 키가 이미 있다면 ** 수동으로 API 키**를 입력하고 terminal에서 붙여넣을 수 있습니다.


OpenCode Zen

OpenCode Zen은 opencode 팀에서 제공하는 테스트 및 검증된 모델 목록입니다. 더 알아보기.

  1. 로그인 OpenCode Zen and clickCreate API Key.

  2. /connect 명령을 실행하고 OpenCode Zen를 검색하십시오.

    /connect
  3. opencode API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 같은 모델을 선택하십시오 Qwen 3 Coder 480B .

    /models

OpenRouter

  1. OpenRouter 대시보드에 머리, click ** API Key**를 클릭하고 키를 복사합니다.

  2. /connect 명령을 실행하고 OpenRouter를 검색하십시오.

    /connect
  3. 공급자를 위한 API 열쇠를 입력하십시오.

    ┌ API key
    └ enter
  4. 많은 OpenRouter 모델은 기본적으로 /models 명령을 실행하여 원하는 것을 선택합니다.

    /models

opencode config를 통해 추가 모델을 추가할 수 있습니다.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openrouter": {
"models": {
"somecoolnewmodel": {}
}
}
}
}
  1. 당신은 또한 당신의 opencode config를 통해 그들을 주문을 받아서 만들 수 있습니다. 공급자 지정의 예입니다.

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "openrouter": {
    "models": {
    "moonshotai/kimi-k2": {
    "options": {
    "provider": {
    "order": ["baseten"],
    "allow_fallbacks": false
    }
    }
    }
    }
    }
    }
    }

SAP AI Core

SAP AI Core는 OpenAI, Anthropic, Google, Amazon, Meta, Mistral 및 AI21의 40+ 모델에 대한 액세스를 제공합니다.

  1. SAP BTP Cockpit로 이동하여 SAP AI Core 서비스 인스턴스로 이동하고 서비스 키를 만듭니다.

  2. /connect 명령을 실행하고 SAP AI Core를 검색하십시오.

    /connect
  3. 서비스 키 JSON을 입력하십시오.

    ┌ Service key
    └ enter

또는 AICORE_SERVICE_KEY 환경 변수를 설정:

Terminal window
AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' opencode

또는 bash 프로파일에 추가:

~/.bash_profile
export AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}'
  1. 선택적으로 배치 ID 및 자원 그룹:

    Terminal window
    AICORE_DEPLOYMENT_ID=your-deployment-id AICORE_RESOURCE_GROUP=your-resource-group opencode
  2. /models 명령을 실행하여 40+ 유효한 모형에서 선택하십시오.

    /models

OVHcloud AI 엔드포인트

  1. OVHcloud 패널에 머리. Public Cloud 섹션으로 이동, AI & Machine Learning > AI EndpointsAPI Keys 탭에서, ** 새로운 API 키 활성화 **.

  2. /connect 명령을 실행하고 ** OVHcloud AI Endpoints**를 검색하십시오.

    /connect
  3. OVHcloud AI Endpoints API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 같은 모델을 선택하십시오 gpt-oss-120b .

    /models

Scaleway

opencode를 사용하여 Scaleway Generative APIs를 사용하려면:

  1. Scaleway 콘솔 IAM 설정를 통해 새로운 API 키 생성.

  2. /connect 명령을 실행하고 Scaleway를 검색하십시오.

    /connect
  3. Scaleway API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 같은 모델을 선택하십시오. devstral-2-123b-instruct-2512 또는 gpt-oss-120b .

    /models

Together AI

  1. Together AI 콘솔에 머리, 계정을 만들고 ** 키 추가 **를 클릭합니다.

  2. /connect 명령을 실행하고 Together AI를 검색하십시오.

    /connect
  3. 함께 AI API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 같은 모델을 선택하십시오 Kimi K2 Instruct .

    /models

Venice AI

  1. Venice AI 콘솔에 머리, 계정을 만들고 API 키를 생성합니다.

  2. /connect 명령을 실행하고 **Venice AI **를 검색하십시오.

    /connect
  3. 베니스 AI API 열쇠를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 같은 모델을 선택하십시오 Llama 3.3 70B .

    /models

Vercel AI 게이트웨이

Vercel AI를 게이트웨이는 OpenAI, Anthropic, Google, xAI 등에서 모델에 액세스할 수 있습니다. 모델은 Markup없이 목록 가격에서 제공됩니다.

  1. Vercel 대시보드에 머리, AI Gateway 탭으로 이동하고, API 키를 클릭하여 새로운 API 키 생성.

  2. /connect 명령을 실행하고 Vercel AI Gateway를 검색하십시오.

    /connect
  3. Vercel AI Gateway API 키 입력.

    ┌ API key
    └ enter
  4. 모델을 선택하려면 /models 명령을 실행하십시오.

    /models

opencode config를 통해 모델을 사용자 정의 할 수 있습니다. 공급자 routing 순서를 지정하는 예입니다.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"vercel": {
"models": {
"anthropic/claude-sonnet-4": {
"options": {
"order": ["anthropic", "vertex"]
}
}
}
}
}
}

몇몇 유용한 여정 선택권:

옵션설명
order공급자의 순서
only특정 공급자 제한
zeroDataRetention제로 데이터 보유 정책만 이용 가능

xAI

  1. xAI 콘솔에 머리, 계정을 만들고 API 키를 생성합니다.

  2. /connect 명령을 실행하고 xAI를 검색하십시오.

    /connect
  3. xAI API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 같은 모델을 선택하십시오 Grok Beta .

    /models

Z.AI

  1. Z.AI API 콘솔에 머리, 계정을 만들고, 새로운 API 키를 클릭합니다.

  2. /connect 명령을 실행하고 ** Z.AI**를 검색하십시오.

    /connect

GLM 코딩 플랜에 가입하면 Z.AI 코딩 플랜을 선택하십시오.

  1. Z.AI API 키를 입력하십시오.

    ┌ API key
    └ enter
  2. /models 명령을 실행하여 같은 모델을 선택하십시오 GLM-4.7 .

    /models

ZenMux

  1. ZenMux 대쉬보드에 머리, click Create API Key, 키 복사.

  2. /connect 명령을 실행하고 ZenMux를 검색하십시오.

    /connect
  3. 공급자를 위한 API 열쇠를 입력하십시오.

    ┌ API key
    └ enter
  4. 많은 ZenMux 모델은 기본적으로 사전 로드되며 /models 명령을 실행하여 원하는 것을 선택합니다.

    /models

opencode config를 통해 추가 모델을 추가할 수 있습니다.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"zenmux": {
"models": {
"somecoolnewmodel": {}
}
}
}
}

사용자 정의 공급자

/connect 명령에 나열되지 않은 OpenAI-compatible 공급자를 추가하려면:

  1. /connect 명령을 실행하고 ** 다른**로 스크롤하십시오.

    Terminal window
    $ /connect
    Add credential
    Select provider
    ...
    Other
  2. 공급자를 위한 유일한 ID를 입력하십시오.

    Terminal window
    $ /connect
    Add credential
    Enter provider id
    myprovider
  3. 공급자를 위한 당신의 API 열쇠를 입력하십시오.

    Terminal window
    $ /connect
    Add credential
    This only stores a credential for myprovider - you will need to configure it in opencode.json, check the docs for examples.
    Enter your API key
    sk-...
  4. 프로젝트 디렉토리에 opencode.json 파일을 만들거나 업데이트하십시오.

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "myprovider": {
    "npm": "@ai-sdk/openai-compatible",
    "name": "My AI ProviderDisplay Name",
    "options": {
    "baseURL": "https://api.myprovider.com/v1"
    },
    "models": {
    "my-model-name": {
    "name": "My Model Display Name"
    }
    }
    }
    }
    }

여기에 구성 옵션:

  • npm: AI SDK 패키지, OpenAI 호환 공급자 @ai-sdk/openai-compatible -name: UI의 표시 이름.
  • ** 모델**: 유효한 모델.
  • options.baseURL: API 엔드포인트 URL.
  • options.apiKey: 선택적으로 auth를 사용하지 않는 경우 API 키 설정.
  • options.headers: 선택적으로 사용자 정의 헤더를 설정합니다.

아래 예에서 고급 옵션에 더.

  1. /models 명령을 실행하고 사용자 정의 공급자와 모델은 선택 목록에서 나타납니다.

예제

다음은 apiKey, headers 및 모델 limit 옵션 설정 예입니다.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"myprovider": {
"npm": "@ai-sdk/openai-compatible",
"name": "My AI ProviderDisplay Name",
"options": {
"baseURL": "https://api.myprovider.com/v1",
"apiKey": "{env:ANTHROPIC_API_KEY}",
"headers": {
"Authorization": "Bearer custom-token"
}
},
"models": {
"my-model-name": {
"name": "My Model Display Name",
"limit": {
"context": 200000,
"output": 65536
}
}
}
}
}
}

구성 세부 사항:

  • apiKey: env 변수 구문을 사용하여 설정, learn more. -headers: 각 요청으로 전송된 사용자 정의 헤더.
  • limit.context: 모델이 허용하는 최대 Input Tokens.
  • limit.output: 모델이 생성할 수 있는 최대 Output Tokens.

limit 필드를 사용하면 opencode가 얼마나 많은 컨텍스트를 이해 할 수 있습니다. 표준 공급자는 model.dev에서 자동적으로 당깁니다.


문제 해결

공급자 구성에 문제가 있는 경우 다음을 확인하십시오.

  1. **주의 설정 확인 **: opencode auth list를 실행하여 자격 증명을 볼 수 있습니다. 공급자는 config에 추가됩니다.

이것은 Amazon Bedrock과 같은 공급자에 적용되지 않습니다. 환경 변수에 의존합니다.

  1. 주문 공급자를 위해, opencode config를 검사하고:
  • /connect 명령에 사용되는 공급자 ID가 opencode config에서 ID를 일치시킵니다.
  • 오른쪽 npm 패키지는 공급자에 사용됩니다. 예를 들어 Cerebras의 @ai-sdk/cerebras를 사용합니다. 그리고 다른 모든 OpenAI 호환 공급자를 위해, 사용 @ai-sdk/openai-compatible.
  • 올바른 API 엔드포인트는 options.baseURL 필드에 사용됩니다.