ESC

Сравнение AI-моделей

Цены, бенчмарки и характеристики. Обновлено: апрель 2026 г.

Данные: Artificial Analysis, LLM Stats, Vellum

Флагманские модели

Максимальное качество для сложных задач

Модель Провайдер Input / 1M Output / 1M Контекст SWE-bench Arena Elo Лучше всего для
Claude Opus 4.6 Anthropic $5.00 $25.00 1M 80.8% 1548 Кодинг, сложные задачи
GPT-5.4 OpenAI $2.50 $10.00 256K ~80% 1520 Рассуждения, computer use
Gemini 3.1 Pro Google $2.00 $12.00 1M 80.6% 1510 Абстрактное мышление, мультимодал
Grok 4 xAI $3.00 $15.00 256K - 1540 HLE бенчмарк, рассуждения

Средний уровень

Баланс цены и качества для повседневной работы

Модель Провайдер Input / 1M Output / 1M Контекст SWE-bench Arena Elo Лучше всего для
Claude Sonnet 4.6 Anthropic $3.00 $15.00 1M 79.6% 1533 Баланс цена/качество
GPT-5.2 OpenAI $1.75 $14.00 256K - - Общие задачи
Gemini 3 Flash Google $0.50 $3.00 1M - - Быстрый инференс
DeepSeek V3.2 DeepSeek $0.28 $0.42 128K 72% - Open-source, цена
MiniMax M2.5 MiniMax $0.50 $2.00 128K 80.2% - Open-source кодинг

Бюджетные модели

Минимальная цена для простых задач

Модель Провайдер Input / 1M Output / 1M Контекст SWE-bench Arena Elo Лучше всего для
Claude Haiku 4.5 Anthropic $0.25 $1.25 200K - - Быстрые задачи, классификация
Gemini Flash-Lite Google $0.10 $0.40 1M - - Минимальная цена

Ключевые выводы

Нет единого лидера

Claude лидирует в кодинге, Gemini - в рассуждениях, GPT - в computer use. Выбирайте под задачу, а не по рейтингу.

Цены упали на 80%

С 2024 по 2026 цены на API снизились в 5 раз. DeepSeek V3.2 стоит $0.28/M - в 100 раз дешевле Opus.

Open-source догоняет

MiniMax M2.5 набирает 80.2% на SWE-bench - наравне с Claude Opus. Разрыв закрытых и открытых моделей исчезает.