공급자
OpenCode에서 LLM 공급자를 사용합니다.
OpenCode는 AI SDK 및 Models.dev를 사용하여 75개 이상의 LLM 공급자를 지원하며 로컬 모델도 실행할 수 있습니다.
필요한 공급자를 추가하려면:
/connect명령을 사용하여 공급자의 API 키를 추가하십시오.- OpenCode 구성에서 공급자를 구성하십시오.
자격 증명
/connect 명령으로 공급자의 API 키를 추가하면 다음 위치에 저장됩니다:
~/.local/share/opencode/auth.json
구성
OpenCode 설정의 provider 섹션을 통해 공급자를 사용자 정의할 수 있습니다.
기본 URL
baseURL 옵션을 설정하여 모든 공급자를 위한 기본 URL을 사용자 정의할 수 있습니다. 프록시 서비스 또는 사용자 정의 엔드포인트를 사용할 때 유용합니다.
{ "$schema": "https://opencode.ai/config.json", "provider": { "anthropic": { "options": { "baseURL": "https://api.anthropic.com/v1" } } }}OpenCode Zen
OpenCode Zen은 OpenCode 팀이 OpenCode와 잘 작동하도록 테스트하고 검증한 모델 목록입니다. 더 알아보기.
-
TUI에서
/connect명령을 실행하고opencode를 선택한 뒤, opencode.ai/auth로 이동합니다./connect -
로그인하고 결제 정보를 입력한 후 API 키를 복사하십시오.
-
API 키를 붙여넣습니다.
┌ API key││└ enter -
TUI에서
/models를 실행하여 추천 모델 목록을 볼 수 있습니다./models
OpenCode의 다른 공급자처럼 작동하며 사용은 완전히 선택 사항입니다.
디렉토리
공급자 세부 정보를 확인하세요. 목록에 공급자를 추가하려면 PR을 열어주세요.
302.AI
-
302.AI 콘솔로 이동하여 계정을 만들고 API 키를 생성합니다.
-
/connect명령을 실행하고 302.AI를 검색하십시오./connect -
302.AI API 키를 입력하십시오.
┌ API key││└ enter -
모델을 선택하려면
/models명령을 실행하십시오./models
Amazon Bedrock
OpenCode로 Amazon Bedrock을 사용하려면:
-
Amazon Bedrock 콘솔의 Model catalog로 이동하여 원하는 모델에 대한 액세스를 요청합니다.
-
다음 방법 중 하나를 사용하여 설정합니다:
환경 변수 (빠른 시작)
OpenCode를 실행하는 동안 다음 환경 변수 중 하나를 설정합니다:
# Option 1: Using AWS access keys AWS_ACCESS_KEY_ID=XXX AWS_SECRET_ACCESS_KEY=YYY opencode
# Option 2: Using named AWS profile AWS_PROFILE=my-profile opencode
# Option 3: Using Bedrock bearer token AWS_BEARER_TOKEN_BEDROCK=XXX opencode또는 bash 프로필에 추가합니다:
export AWS_PROFILE=my-dev-profile export AWS_REGION=us-east-1설정 파일 (권장)
프로젝트별 또는 영구 구성을 위해 opencode.json을 사용하십시오.
{ "$schema": "https://opencode.ai/config.json", "provider": { "amazon-bedrock": { "options": { "region": "us-east-1", "profile": "my-aws-profile" } } }}유효한 옵션:
-
region- AWS 리전 (예:us-east-1,eu-west-1) -
profile-~/.aws/credentials의 AWS 프로필 이름 -
endpoint- VPC 엔드포인트 등을 위한 사용자 정의 엔드포인트 URL (일반baseURL옵션의 별칭)
고급: VPC 엔드포인트
Bedrock의 VPC 엔드포인트를 사용하는 경우:
{ "$schema": "https://opencode.ai/config.json", "provider": { "amazon-bedrock": { "options": { "region": "us-east-1", "profile": "production", "endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com" } } }}인증 방법
AWS_ACCESS_KEY_ID/AWS_SECRET_ACCESS_KEY: IAM 사용자 및 AWS 콘솔에서 액세스 키 생성AWS_PROFILE:~/.aws/credentials의 프로필 이름을 사용합니다.aws configure --profile my-profile또는aws sso login으로 먼저 구성하십시오.AWS_BEARER_TOKEN_BEDROCK: Amazon Bedrock 콘솔에서 임시 API 키 생성AWS_WEB_IDENTITY_TOKEN_FILE/AWS_ROLE_ARN: EKS IRSA (서비스 계정용 IAM 역할) 또는 다른 Kubernetes 환경의 OIDC 연동. 이 환경 변수는 서비스 계정을 사용할 때 Kubernetes에 의해 자동으로 주입됩니다.
인증 우선 순위
Amazon Bedrock은 다음과 같은 인증 우선 순위를 사용합니다.
-
Bearer Token -
AWS_BEARER_TOKEN_BEDROCK환경 변수 또는/connect명령의 토큰 -
AWS Credential Chain - 프로필, 액세스 키, 공유 자격 증명, IAM 역할, 웹 ID 토큰 (EKS IRSA), 인스턴스 메타데이터
-
/models명령을 실행하여 원하는 모델을 선택하십시오./models
Anthropic
-
가입 후
/connect명령을 실행하고 Anthropic을 선택합니다./connect -
Claude Pro/Max 옵션을 선택하면 브라우저가 열립니다.
┌ Select auth method││ Claude Pro/Max│ Create an API Key│ Manually enter API Key└ -
이제
/models명령을 사용할 때 모든 Anthropic 모델을 사용할 수 있습니다./models
OpenCode에서 Claude Pro/Max 구독을 사용하는 것은 Anthropic에서 공식적으로 지원하지 않습니다.
API 키 사용
Pro/Max 구독이 없는 경우 Create an API Key를 선택할 수 있습니다. 브라우저가 열리고 Anthropic에 로그인한 후 터미널에 붙여넣을 수 있는 코드를 제공합니다.
또는 이미 API 키가 있다면, Manually enter API Key를 선택하고 터미널에 붙여넣을 수 있습니다.
Azure OpenAI
-
Azure 포털로 이동하여 Azure OpenAI 리소스를 만듭니다. 다음이 필요합니다:
- 리소스 이름: API 엔드포인트의 일부가 됩니다 (
https://RESOURCE_NAME.openai.azure.com/) - API 키: 리소스의
KEY 1또는KEY 2
- 리소스 이름: API 엔드포인트의 일부가 됩니다 (
-
Azure AI Foundry로 이동하여 모델을 배포합니다.
-
/connect명령을 실행하고 Azure를 검색하십시오./connect -
API 키를 입력하십시오.
┌ API key││└ enter -
리소스 이름을 환경 변수로 설정:
Terminal window AZURE_RESOURCE_NAME=XXX opencode또는 bash 프로필에 추가:
~/.bash_profile export AZURE_RESOURCE_NAME=XXX -
/models명령을 실행하여 배포된 모델을 선택하십시오./models
Azure Cognitive Services
-
Azure 포털로 이동하여 Azure OpenAI 리소스를 만듭니다. 다음이 필요합니다:
- 리소스 이름: API 엔드포인트의 일부가 됩니다 (
https://AZURE_COGNITIVE_SERVICES_RESOURCE_NAME.cognitiveservices.azure.com/) - API 키: 리소스의
KEY 1또는KEY 2
- 리소스 이름: API 엔드포인트의 일부가 됩니다 (
-
Azure AI Foundry로 이동하여 모델을 배포합니다.
-
/connect명령을 실행하고 Azure Cognitive Services를 검색하십시오./connect -
API 키를 입력하십시오.
┌ API key││└ enter -
리소스 이름을 환경 변수로 설정:
Terminal window AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX opencode또는 bash 프로필에 추가:
~/.bash_profile export AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX -
/models명령을 실행하여 배포된 모델을 선택하십시오./models
Baseten
-
Baseten으로 이동하여 계정을 만들고 API 키를 생성합니다.
-
/connect명령을 실행하고 Baseten을 검색하십시오./connect -
Baseten API 키를 입력하십시오.
┌ API key││└ enter -
모델을 선택하려면
/models명령을 실행하십시오./models
Cerebras
-
Cerebras 콘솔로 이동하여 계정을 만들고 API 키를 생성합니다.
-
/connect명령을 실행하고 Cerebras를 검색하십시오./connect -
Cerebras API 키를 입력하십시오.
┌ API key││└ enter -
/models명령을 실행하여 모델(예: Qwen 3 Coder 480B)을 선택하십시오./models
Cloudflare AI Gateway
Cloudflare AI Gateway는 OpenAI, Anthropic, Workers AI 등의 모델에 액세스할 수 있으며, 통합된 엔드포인트를 통해 더 많은 기능을 제공합니다. Unified Billing을 사용하면 각 공급자의 별도 API 키가 필요하지 않습니다.
-
Cloudflare 대시보드로 이동하여, AI > AI Gateway로 가서 새로운 게이트웨이를 만듭니다.
-
계정 ID 및 Gateway ID를 환경 변수로 설정하십시오.
~/.bash_profile export CLOUDFLARE_ACCOUNT_ID=your-32-character-account-idexport CLOUDFLARE_GATEWAY_ID=your-gateway-id -
/connect명령을 실행하고 Cloudflare AI Gateway를 검색하십시오./connect -
Cloudflare API 토큰을 입력하십시오.
┌ API key││└ enter또는 환경 변수로 설정합니다.
~/.bash_profile export CLOUDFLARE_API_TOKEN=your-api-token -
모델을 선택하려면
/models명령을 실행하십시오./modelsOpenCode 구성을 통해 모델을 추가할 수 있습니다.
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"cloudflare-ai-gateway": {"models": {"openai/gpt-4o": {},"anthropic/claude-sonnet-4": {}}}}}
Cortecs
-
Cortecs 콘솔로 이동하여 계정을 만들고 API 키를 생성합니다.
-
/connect명령을 실행하고 Cortecs를 검색하십시오./connect -
Cortecs API 키를 입력하십시오.
┌ API key││└ enter -
/models명령을 실행하여 모델(예: Kimi K2 Instruct)을 선택하십시오./models
DeepSeek
-
DeepSeek 콘솔로 이동하여 계정을 만들고 API Keys를 클릭하여 키를 생성합니다.
-
/connect명령을 실행하고 DeepSeek를 검색하십시오./connect -
DeepSeek API 키를 입력하십시오.
┌ API key││└ enter -
/models명령을 실행하여 DeepSeek 모델(예: DeepSeek Reasoner)을 선택하십시오./models
Deep Infra
-
Deep Infra 대시보드로 이동하여 계정을 만들고 API 키를 생성합니다.
-
/connect명령을 실행하고 Deep Infra를 검색하십시오./connect -
Deep Infra API 키를 입력하십시오.
┌ API key││└ enter -
모델을 선택하려면
/models명령을 실행하십시오./models
Firmware
-
Firmware 대시보드로 이동하여 계정을 만들고 API 키를 생성합니다.
-
/connect명령을 실행하고 Firmware를 검색하십시오./connect -
Firmware API 키를 입력하십시오.
┌ API key││└ enter -
모델을 선택하려면
/models명령을 실행하십시오./models
Fireworks AI
-
Fireworks AI 콘솔로 이동하여 계정을 만들고 API Keys를 클릭합니다.
-
/connect명령을 실행하고 Fireworks AI를 검색하십시오./connect -
Fireworks AI API 키를 입력하십시오.
┌ API key││└ enter -
/models명령을 실행하여 모델(예: Kimi K2 Instruct)을 선택하십시오./models
GitLab Duo
GitLab Duo는 GitLab의 Anthropic 프록시를 통해 기본 도구 호출 기능을 갖춘 AI 기반 에이전트 채팅을 제공합니다.
-
/connect명령을 실행하고 GitLab을 선택합니다./connect -
인증 방법을 선택하십시오:
┌ Select auth method││ OAuth (Recommended)│ Personal Access Token└
OAuth 사용 (권장)
OAuth를 선택하면 브라우저에서 권한 부여를 요청합니다.
개인 액세스 토큰 사용
-
새 토큰 추가
-
이름:
OpenCode, 범위:api -
토큰 복사 (
glpat-로 시작) -
터미널에 입력하십시오.
-
사용 가능한 모델을 보려면
/models명령을 실행하십시오./models
세 가지 Claude 기반 모델을 사용할 수 있습니다:
- duo-chat-haiku-4-5 (기본값) - 빠른 작업을 위한 빠른 응답
- duo-chat-sonnet-4-5 - 대부분의 워크플로우에 균형 잡힌 성능
- duo-chat-opus-4-5 - 복잡한 분석 가능
셀프 호스팅 GitLab (Self-Hosted)
자체 호스팅 GitLab 인스턴스:
export GITLAB_INSTANCE_URL=https://gitlab.company.comexport GITLAB_TOKEN=glpat-...인스턴스가 사용자 정의 AI Gateway를 실행하는 경우:
export GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.com또는 bash 프로필에 추가:
export GITLAB_INSTANCE_URL=https://gitlab.company.comexport GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.comexport GITLAB_TOKEN=glpat-...셀프 호스팅 인스턴스용 OAuth
자체 호스팅 인스턴스에 대해 OAuth를 작동시키려면 새로운 애플리케이션(Settings → Applications)을 만들어야 합니다.
콜백 URL http://127.0.0.1:8080/callback 및 다음 범위가 필요합니다:
api(사용자 대신 API 액세스)read_user(개인 정보 읽기)read_repository(리포지토리 읽기 전용 액세스)
그런 다음 애플리케이션 ID를 환경 변수로 노출하십시오:
export GITLAB_OAUTH_CLIENT_ID=your_application_id_hereopencode-gitlab-auth 홈페이지에 추가 문서가 있습니다.
구성
opencode.json을 통해 사용자 정의:
{ "$schema": "https://opencode.ai/config.json", "provider": { "gitlab": { "options": { "instanceUrl": "https://gitlab.com", "featureFlags": { "duo_agent_platform_agentic_chat": true, "duo_agent_platform": true } } } }}GitLab API 도구 (선택 사항이지만 강력 권장)
GitLab 도구(병합 요청, 이슈, 파이프라인, CI/CD 등)에 액세스하려면:
{ "$schema": "https://opencode.ai/config.json", "plugin": ["@gitlab/opencode-gitlab-plugin"]}이 플러그인은 MR 리뷰, 이슈 추적, 파이프라인 모니터링 등을 포함한 포괄적인 GitLab 리포지토리 관리 기능을 제공합니다.
GitHub Copilot
GitHub Copilot 구독을 사용하여 opencode:
-
/connect명령을 실행하고 GitHub Copilot을 검색하십시오./connect -
github.com/login/device로 이동하여 코드를 입력합니다.
┌ Login with GitHub Copilot││ https://github.com/login/device││ Enter code: 8F43-6FCF│└ Waiting for authorization... -
이제 원하는 모델을 선택하기 위해
/models명령을 실행합니다./models
구글 Vertex AI
opencode로 Google Vertex AI를 사용하려면:
-
Google Cloud Console에서 ** Model Garden**을 통해 헤드를 확인하고 확인하십시오. 당신의 지역에서 유효한 모형.
-
필요한 환경 변수를 설정:
GOOGLE_CLOUD_PROJECT: 당신의 구글 클라우드 프로젝트 IDVERTEX_LOCATION(선택): Vertex AI를 위한 지구 (global에 기본)- 인증(초당):
GOOGLE_APPLICATION_CREDENTIALS: 서비스 계정 JSON 키 파일 경로- gcloud CLI를 사용하여 인증 :
gcloud auth application-default login
opencode를 실행하면서 설정한다.
GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json GOOGLE_CLOUD_PROJECT=your-project-id opencode또는 bash 프로파일에 추가하십시오.
export GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json export GOOGLE_CLOUD_PROJECT=your-project-id export VERTEX_LOCATION=global-
당신이 원하는 모형을 선정하기 위하여
/models명령을 실행하십시오./models
Groq
-
Groq 콘솔에 머리, click Create API Key, 키 복사.
-
/connect명령을 실행하고 Groq에 대한 검색./connect -
공급자를 위한 API 열쇠를 입력하십시오.
┌ API key││└ enter -
/models명령을 실행하여 원하는 것을 선택합니다./models
Hugging Face
Hugging Face Inference Provider는 17+ 공급자가 지원하는 오픈 모델에 대한 액세스를 제공합니다.
-
Hugging Face settings를 통해 토큰을 Inference Provider에게 호출할 권한을 부여합니다.
-
/connect명령을 실행하고 Hugging Face를 검색하십시오./connect -
Hugging Face 토큰을 입력하십시오.
┌ API key││└ enter -
/models명령을 실행하여 같은 모델을 선택하십시오 Kimi-K2-Instruct 또는 GLM-4.6 ./models
Helicone
Helicone는 AI 애플리케이션에 대한 로깅, 모니터링 및 분석 기능을 제공하는 LLM Observability 플랫폼입니다. Helicone AI Gateway는 모델을 기반으로 적절한 공급자에게 요청을 자동으로 전달합니다.
-
Helicone에 머리, 계정을 만들고, 대시보드에서 API 키를 생성합니다.
-
/connect명령을 실행하고 ** Helicone**를 검색하십시오./connect -
Helicone API 열쇠를 입력하십시오.
┌ API key││└ enter -
모델을 선택하려면
/models명령을 실행하십시오./models
캐싱 및 속도 제한과 같은 더 많은 공급자와 고급 기능을 위해 Helicone 문서를 확인하십시오.
선택 사항
이벤트에서 opencode를 통해 자동으로 구성되지 않는 Helicone의 기능 또는 모델을 볼 수 있습니다.
여기에 Helicone의 모델 디렉토리, 당신은 당신이 추가 할 모델의 ID를 잡아이 필요.
{ "$schema": "https://opencode.ai/config.json", "provider": { "helicone": { "npm": "@ai-sdk/openai-compatible", "name": "Helicone", "options": { "baseURL": "https://ai-gateway.helicone.ai", }, "models": { "gpt-4o": { // Model ID (from Helicone's model directory page) "name": "GPT-4o", // Your own custom name for the model }, "claude-sonnet-4-20250514": { "name": "Claude Sonnet 4", }, }, }, },}사용자 정의 헤더
Helicone는 캐싱, 사용자 추적 및 세션 관리와 같은 기능을 위한 사용자 정의 헤더를 지원합니다. options.headers를 사용하여 공급자 구성에 추가하십시오:
{ "$schema": "https://opencode.ai/config.json", "provider": { "helicone": { "npm": "@ai-sdk/openai-compatible", "name": "Helicone", "options": { "baseURL": "https://ai-gateway.helicone.ai", "headers": { "Helicone-Cache-Enabled": "true", "Helicone-User-Id": "opencode", }, }, }, },}세션 추적
Helicone’s Sessions 기능으로 그룹 관련 LLM 요청이 가능합니다. opencode-helicone-session 플러그인을 사용하여 각 opencode 대화를 Helicone 세션으로 자동 로그인하십시오.
npm install -g opencode-helicone-session설정에 추가하십시오.
{ "plugin": ["opencode-helicone-session"]}플러그인은 Helicone-Session-Id 및 Helicone-Session-Name 헤더를 귀하의 요청에 주사합니다. Helicone의 세션 페이지에서는 별도의 세션으로 나열된 각 opencode 대화를 볼 수 있습니다.
공통 Helicone 헤더
| 헤드러 | Description |
|---|---|
Helicone-Cache-Enabled | 대응 캐싱 (true/false) |
Helicone-User-Id | 사용자별 추적 가능 |
Helicone-Property-[Name] | 사용자 정의 속성 추가(예: Helicone-Property-Environment) |
Helicone-Prompt-Id | prompt 대응 |
모든 사용 가능한 헤더에 대한 Helicone Header Directory를 참조하십시오.
llama.cpp
llama.cpp’s llama-server 유틸리티를 통해 로컬 모델을 사용할 수 있습니다.
{ "$schema": "https://opencode.ai/config.json", "provider": { "llama.cpp": { "npm": "@ai-sdk/openai-compatible", "name": "llama-server (local)", "options": { "baseURL": "http://127.0.0.1:8080/v1" }, "models": { "qwen3-coder:a3b": { "name": "Qwen3-Coder: a3b-30b (local)", "limit": { "context": 128000, "output": 65536 } } } } }}이 예제에서:
llama.cpp는 주문 공급자 ID입니다. 원하는 문자열이 될 수 있습니다.npm는 이 공급자를 위해 사용할 포장을 지정합니다. 여기,@ai-sdk/openai-compatible는 OpenAI 호환 API에 사용됩니다.name는 UI에 있는 공급자를 위한 전시 이름입니다.options.baseURL는 로컬 서버의 엔드포인트입니다.models는 모델 ID를 구성하는 맵입니다. 모델 이름은 모델 선택 목록에 표시됩니다.
IO.NET
IO.NET은 다양한 사용 사례에 최적화된 17개의 모델을 제공합니다:
-
IO.NET 콘솔에 머리, 계정을 만들고 API 키를 생성합니다.
-
/connect명령을 실행하고 IO.NET를 검색하십시오./connect -
IO.NET API 키를 입력하십시오.
┌ API key││└ enter -
모델을 선택하려면
/models명령을 실행하십시오./models
LM Studio
LM Studio를 통해 로컬 모델을 사용할 수 있습니다.
{ "$schema": "https://opencode.ai/config.json", "provider": { "lmstudio": { "npm": "@ai-sdk/openai-compatible", "name": "LM Studio (local)", "options": { "baseURL": "http://127.0.0.1:1234/v1" }, "models": { "google/gemma-3n-e4b": { "name": "Gemma 3n-e4b (local)" } } } }}이 예제에서:
lmstudio는 주문 공급자 ID입니다. 원하는 문자열이 될 수 있습니다.npm는 이 공급자를 위해 사용할 포장을 지정합니다. 여기,@ai-sdk/openai-compatible는 OpenAI 호환 API에 사용됩니다.name는 UI에 있는 공급자를 위한 전시 이름입니다.options.baseURL는 로컬 서버의 엔드포인트입니다.models는 모델 ID를 구성하는 맵입니다. 모델 이름은 모델 선택 목록에 표시됩니다.
Moonshot AI
Moonshot AI에서 Kimi K2 사용 :
-
Moonshot AI 콘솔에 머리, 계정을 만들고, ** API 키**를 클릭합니다.
-
/connect명령을 실행하고 Moonshot AI를 검색하십시오./connect -
Moonshot API 키를 입력하십시오.
┌ API key││└ enter -
/models명령을 실행하여 Kimi K2 ./models
MiniMax
-
MiniMax API 콘솔에 머리, 계정을 만들고 API 키를 생성합니다.
-
/connect명령을 실행하고 MiniMax를 검색하십시오./connect -
MiniMax API 키를 입력하십시오.
┌ API key││└ enter -
/models명령을 실행하여 같은 모델을 선택하십시오 M2.1 ./models
Nebius Token Factory
-
Nebius Token Factory 콘솔에 머리, 계정을 만들고, ** 키 추가 **.
-
/connect명령을 실행하고 Nebius Token Factory를 검색하십시오./connect -
Nebius 토큰 공장 API 키를 입력하십시오.
┌ API key││└ enter -
/models명령을 실행하여 같은 모델을 선택하십시오 Kimi K2 Instruct ./models
Ollama
Ollama를 통해 로컬 모델을 사용할 수 있습니다.
{ "$schema": "https://opencode.ai/config.json", "provider": { "ollama": { "npm": "@ai-sdk/openai-compatible", "name": "Ollama (local)", "options": { "baseURL": "http://localhost:11434/v1" }, "models": { "llama2": { "name": "Llama 2" } } } }}이 예제에서:
ollama는 주문 공급자 ID입니다. 원하는 문자열이 될 수 있습니다.npm는 이 공급자를 위해 사용할 포장을 지정합니다. 여기,@ai-sdk/openai-compatible는 OpenAI 호환 API에 사용됩니다.name는 UI에 있는 공급자를 위한 전시 이름입니다.options.baseURL는 로컬 서버의 엔드포인트입니다.models는 모델 ID를 구성하는 맵입니다. 모델 이름은 모델 선택 목록에 표시됩니다.
Ollama Cloud
opencode로 Ollama Cloud를 사용하려면:
-
https://ollama.com/ 이상 머리와 로그인하거나 계정을 만들 수 있습니다.
-
Navigate toSettings > Keys 및 click API Key를 추가하여 새로운 API 키 생성.
-
opencode에서 사용을 위한 API 열쇠를 복사하십시오.
-
/connect명령을 실행하고 ** Ollama Cloud**를 검색하십시오./connect -
Ollama Cloud API 키 입력.
┌ API key││└ enter -
** 중요 **: opencode의 클라우드 모델을 사용하기 전에, 로컬 모델 정보를 끌어야 합니다:
Terminal window ollama pull gpt-oss:20b-cloud -
/models명령을 실행하여 Ollama Cloud 모델을 선택하십시오./models
OpenAI
ChatGPT Plus 또는 Pro에 가입하는 것이 좋습니다.
-
가입하면
/connect명령을 실행하고 OpenAI를 선택하십시오./connect -
ChatGPT Plus/Pro 옵션을 선택하고 브라우저를 열 수 있습니다. 자주 묻는 질문
┌ Select auth method││ ChatGPT Plus/Pro│ Manually enter API Key└ -
이제 모든 OpenAI 모델은
/models명령을 사용할 때 사용할 수 있어야합니다./models
API 키 사용
API 키가 이미 있다면 ** 수동으로 API 키**를 입력하고 terminal에서 붙여넣을 수 있습니다.
OpenCode Zen
OpenCode Zen은 opencode 팀에서 제공하는 테스트 및 검증된 모델 목록입니다. 더 알아보기.
-
로그인 OpenCode Zen and clickCreate API Key.
-
/connect명령을 실행하고 OpenCode Zen를 검색하십시오./connect -
opencode API 키를 입력하십시오.
┌ API key││└ enter -
/models명령을 실행하여 같은 모델을 선택하십시오 Qwen 3 Coder 480B ./models
OpenRouter
-
OpenRouter 대시보드에 머리, click ** API Key**를 클릭하고 키를 복사합니다.
-
/connect명령을 실행하고 OpenRouter를 검색하십시오./connect -
공급자를 위한 API 열쇠를 입력하십시오.
┌ API key││└ enter -
많은 OpenRouter 모델은 기본적으로
/models명령을 실행하여 원하는 것을 선택합니다./models
opencode config를 통해 추가 모델을 추가할 수 있습니다.
{ "$schema": "https://opencode.ai/config.json", "provider": { "openrouter": { "models": { "somecoolnewmodel": {} } } }}-
당신은 또한 당신의 opencode config를 통해 그들을 주문을 받아서 만들 수 있습니다. 공급자 지정의 예입니다.
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"openrouter": {"models": {"moonshotai/kimi-k2": {"options": {"provider": {"order": ["baseten"],"allow_fallbacks": false}}}}}}}
SAP AI Core
SAP AI Core는 OpenAI, Anthropic, Google, Amazon, Meta, Mistral 및 AI21의 40+ 모델에 대한 액세스를 제공합니다.
-
SAP BTP Cockpit로 이동하여 SAP AI Core 서비스 인스턴스로 이동하고 서비스 키를 만듭니다.
-
/connect명령을 실행하고 SAP AI Core를 검색하십시오./connect -
서비스 키 JSON을 입력하십시오.
┌ Service key││└ enter
또는 AICORE_SERVICE_KEY 환경 변수를 설정:
AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' opencode또는 bash 프로파일에 추가:
export AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}'-
선택적으로 배치 ID 및 자원 그룹:
Terminal window AICORE_DEPLOYMENT_ID=your-deployment-id AICORE_RESOURCE_GROUP=your-resource-group opencode -
/models명령을 실행하여 40+ 유효한 모형에서 선택하십시오./models
OVHcloud AI 엔드포인트
-
OVHcloud 패널에 머리.
Public Cloud섹션으로 이동,AI & Machine Learning>AI Endpoints및API Keys탭에서, ** 새로운 API 키 활성화 **. -
/connect명령을 실행하고 ** OVHcloud AI Endpoints**를 검색하십시오./connect -
OVHcloud AI Endpoints API 키를 입력하십시오.
┌ API key││└ enter -
/models명령을 실행하여 같은 모델을 선택하십시오 gpt-oss-120b ./models
Scaleway
opencode를 사용하여 Scaleway Generative APIs를 사용하려면:
-
Scaleway 콘솔 IAM 설정를 통해 새로운 API 키 생성.
-
/connect명령을 실행하고 Scaleway를 검색하십시오./connect -
Scaleway API 키를 입력하십시오.
┌ API key││└ enter -
/models명령을 실행하여 같은 모델을 선택하십시오. devstral-2-123b-instruct-2512 또는 gpt-oss-120b ./models
Together AI
-
Together AI 콘솔에 머리, 계정을 만들고 ** 키 추가 **를 클릭합니다.
-
/connect명령을 실행하고 Together AI를 검색하십시오./connect -
함께 AI API 키를 입력하십시오.
┌ API key││└ enter -
/models명령을 실행하여 같은 모델을 선택하십시오 Kimi K2 Instruct ./models
Venice AI
-
Venice AI 콘솔에 머리, 계정을 만들고 API 키를 생성합니다.
-
/connect명령을 실행하고 **Venice AI **를 검색하십시오./connect -
베니스 AI API 열쇠를 입력하십시오.
┌ API key││└ enter -
/models명령을 실행하여 같은 모델을 선택하십시오 Llama 3.3 70B ./models
Vercel AI 게이트웨이
Vercel AI를 게이트웨이는 OpenAI, Anthropic, Google, xAI 등에서 모델에 액세스할 수 있습니다. 모델은 Markup없이 목록 가격에서 제공됩니다.
-
Vercel 대시보드에 머리, AI Gateway 탭으로 이동하고, API 키를 클릭하여 새로운 API 키 생성.
-
/connect명령을 실행하고 Vercel AI Gateway를 검색하십시오./connect -
Vercel AI Gateway API 키 입력.
┌ API key││└ enter -
모델을 선택하려면
/models명령을 실행하십시오./models
opencode config를 통해 모델을 사용자 정의 할 수 있습니다. 공급자 routing 순서를 지정하는 예입니다.
{ "$schema": "https://opencode.ai/config.json", "provider": { "vercel": { "models": { "anthropic/claude-sonnet-4": { "options": { "order": ["anthropic", "vertex"] } } } } }}몇몇 유용한 여정 선택권:
| 옵션 | 설명 |
|---|---|
order | 공급자의 순서 |
only | 특정 공급자 제한 |
zeroDataRetention | 제로 데이터 보유 정책만 이용 가능 |
xAI
-
xAI 콘솔에 머리, 계정을 만들고 API 키를 생성합니다.
-
/connect명령을 실행하고 xAI를 검색하십시오./connect -
xAI API 키를 입력하십시오.
┌ API key││└ enter -
/models명령을 실행하여 같은 모델을 선택하십시오 Grok Beta ./models
Z.AI
-
Z.AI API 콘솔에 머리, 계정을 만들고, 새로운 API 키를 클릭합니다.
-
/connect명령을 실행하고 ** Z.AI**를 검색하십시오./connect
GLM 코딩 플랜에 가입하면 Z.AI 코딩 플랜을 선택하십시오.
-
Z.AI API 키를 입력하십시오.
┌ API key││└ enter -
/models명령을 실행하여 같은 모델을 선택하십시오 GLM-4.7 ./models
ZenMux
-
ZenMux 대쉬보드에 머리, click Create API Key, 키 복사.
-
/connect명령을 실행하고 ZenMux를 검색하십시오./connect -
공급자를 위한 API 열쇠를 입력하십시오.
┌ API key││└ enter -
많은 ZenMux 모델은 기본적으로 사전 로드되며
/models명령을 실행하여 원하는 것을 선택합니다./models
opencode config를 통해 추가 모델을 추가할 수 있습니다.
{ "$schema": "https://opencode.ai/config.json", "provider": { "zenmux": { "models": { "somecoolnewmodel": {} } } }}사용자 정의 공급자
/connect 명령에 나열되지 않은 OpenAI-compatible 공급자를 추가하려면:
-
/connect명령을 실행하고 ** 다른**로 스크롤하십시오.Terminal window $ /connect┌ Add credential│◆ Select provider│ ...│ ● Other└ -
공급자를 위한 유일한 ID를 입력하십시오.
Terminal window $ /connect┌ Add credential│◇ Enter provider id│ myprovider└ -
공급자를 위한 당신의 API 열쇠를 입력하십시오.
Terminal window $ /connect┌ Add credential│▲ This only stores a credential for myprovider - you will need to configure it in opencode.json, check the docs for examples.│◇ Enter your API key│ sk-...└ -
프로젝트 디렉토리에
opencode.json파일을 만들거나 업데이트하십시오.opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"myprovider": {"npm": "@ai-sdk/openai-compatible","name": "My AI ProviderDisplay Name","options": {"baseURL": "https://api.myprovider.com/v1"},"models": {"my-model-name": {"name": "My Model Display Name"}}}}}
여기에 구성 옵션:
- npm: AI SDK 패키지, OpenAI 호환 공급자
@ai-sdk/openai-compatible-name: UI의 표시 이름. - ** 모델**: 유효한 모델.
- options.baseURL: API 엔드포인트 URL.
- options.apiKey: 선택적으로 auth를 사용하지 않는 경우 API 키 설정.
- options.headers: 선택적으로 사용자 정의 헤더를 설정합니다.
아래 예에서 고급 옵션에 더.
/models명령을 실행하고 사용자 정의 공급자와 모델은 선택 목록에서 나타납니다.
예제
다음은 apiKey, headers 및 모델 limit 옵션 설정 예입니다.
{ "$schema": "https://opencode.ai/config.json", "provider": { "myprovider": { "npm": "@ai-sdk/openai-compatible", "name": "My AI ProviderDisplay Name", "options": { "baseURL": "https://api.myprovider.com/v1", "apiKey": "{env:ANTHROPIC_API_KEY}", "headers": { "Authorization": "Bearer custom-token" } }, "models": { "my-model-name": { "name": "My Model Display Name", "limit": { "context": 200000, "output": 65536 } } } } }}구성 세부 사항:
- apiKey:
env변수 구문을 사용하여 설정, learn more. -headers: 각 요청으로 전송된 사용자 정의 헤더. - limit.context: 모델이 허용하는 최대 Input Tokens.
- limit.output: 모델이 생성할 수 있는 최대 Output Tokens.
limit 필드를 사용하면 opencode가 얼마나 많은 컨텍스트를 이해 할 수 있습니다. 표준 공급자는 model.dev에서 자동적으로 당깁니다.
문제 해결
공급자 구성에 문제가 있는 경우 다음을 확인하십시오.
- **주의 설정 확인 **:
opencode auth list를 실행하여 자격 증명을 볼 수 있습니다. 공급자는 config에 추가됩니다.
이것은 Amazon Bedrock과 같은 공급자에 적용되지 않습니다. 환경 변수에 의존합니다.
- 주문 공급자를 위해, opencode config를 검사하고:
/connect명령에 사용되는 공급자 ID가 opencode config에서 ID를 일치시킵니다.- 오른쪽 npm 패키지는 공급자에 사용됩니다. 예를 들어 Cerebras의
@ai-sdk/cerebras를 사용합니다. 그리고 다른 모든 OpenAI 호환 공급자를 위해, 사용@ai-sdk/openai-compatible. - 올바른 API 엔드포인트는
options.baseURL필드에 사용됩니다.