Модели
Настройка поставщика и модели LLM.
opencode использует AI SDK и Models.dev для поддержки более 75 поставщиков LLM и поддерживает запуск локальных моделей.
Провайдеры
Большинство популярных провайдеров предварительно загружены по умолчанию. Если вы добавили учетные данные для поставщика с помощью команды /connect, они будут доступны при запуске opencode.
Узнайте больше о providers.
Выберите модель
После того, как вы настроили своего провайдера, вы можете выбрать нужную модель, введя:
/modelsРекомендуемые модели
Моделей очень много, новые выходят каждую неделю.
Однако лишь немногие из них хороши как в генерации кода, так и в вызове инструментов.
Вот несколько моделей, которые хорошо работают с opencode (в произвольном порядке). (Это не исчерпывающий список и не обязательно актуальный):
- GPT 5.2
- Кодекс GPT 5.1
- Claude Opus 4.5
- Claude Sonnet 4.5
- MiniMax M2.1
- Gemini 3 Pro
Установить значение по умолчанию
Чтобы установить одну из них в качестве модели по умолчанию, вы можете установить ключ model в вашем
Конфигурация opencode.
{ "$schema": "https://opencode.ai/config.json", "model": "lmstudio/google/gemma-3n-e4b"}Здесь полный идентификатор provider_id/model_id. Например, если вы используете OpenCode Zen, вы должны использовать opencode/gpt-5.1-codex для кодекса GPT 5.1.
Если вы настроили пользовательский поставщик, provider_id — это ключ из части provider вашей конфигурации, а model_id — это ключ из provider.models.
Настройка моделей
Вы можете глобально настроить параметры модели через файл config.
{ "$schema": "https://opencode.ai/config.json", "provider": { "openai": { "models": { "gpt-5": { "options": { "reasoningEffort": "high", "textVerbosity": "low", "reasoningSummary": "auto", "include": ["reasoning.encrypted_content"], }, }, }, }, "anthropic": { "models": { "claude-sonnet-4-5-20250929": { "options": { "thinking": { "type": "enabled", "budgetTokens": 16000, }, }, }, }, }, },}Здесь мы настраиваем глобальные параметры для двух встроенных моделей: gpt-5 при доступе через поставщика openai и claude-sonnet-4-20250514 при доступе через поставщика anthropic.
Названия встроенных поставщиков и моделей можно найти на сайте Models.dev.
Вы также можете настроить эти параметры для любых используемых вами агентов. Конфигурация агента переопределяет любые глобальные параметры здесь. Подробнее.
Вы также можете определить собственные варианты, расширяющие встроенные. Варианты позволяют настраивать разные параметры для одной и той же модели без создания повторяющихся записей:
{ "$schema": "https://opencode.ai/config.json", "provider": { "opencode": { "models": { "gpt-5": { "variants": { "high": { "reasoningEffort": "high", "textVerbosity": "low", "reasoningSummary": "auto", }, "low": { "reasoningEffort": "low", "textVerbosity": "low", "reasoningSummary": "auto", }, }, }, }, }, },}Варианты
Многие модели поддерживают несколько вариантов с разными конфигурациями. opencode поставляется со встроенными вариантами по умолчанию для популярных провайдеров.
Встроенные варианты
opencode поставляется с вариантами по умолчанию для многих провайдеров:
Anthropic:
high— Бюджет рассуждений: высокий (по умолчанию)max— Максимальный бюджет рассуждений
OpenAI:
Зависит от модели, но примерно:
none— Без рассуждений.minimal— Минимальные усилия для рассужденийlow— Низкие усилия для рассуждений.medium— Средние усилия для рассуждений.high— Высокие усилия для рассуждений.xhigh— Сверхвысокие усилия для рассуждений.
Google:
low– меньший бюджет усилий/токенов.high— более высокий бюджет усилий/токенов
Пользовательские варианты
Вы можете переопределить существующие варианты или добавить свои собственные:
{ "$schema": "https://opencode.ai/config.json", "provider": { "openai": { "models": { "gpt-5": { "variants": { "thinking": { "reasoningEffort": "high", "textVerbosity": "low", }, "fast": { "disabled": true, }, }, }, }, }, },}Переключение вариантов
Используйте сочетание клавиш variant_cycle для быстрого переключения между вариантами. Подробнее .
Загрузка моделей
Когда opencode запускается, он проверяет модели в следующем порядке приоритета:
-
CLI-флаг
--modelили-m. Формат тот же, что и в файле конфигурации:provider_id/model_id. -
Список моделей в конфигурации opencode.
opencode.json {"$schema": "https://opencode.ai/config.json","model": "anthropic/claude-sonnet-4-20250514"}Здесь используется формат
provider/model. -
Последняя использованная модель.
-
Первая модель, использующая внутренний приоритет.