Установка SDK

BASH
# Python
pip install anthropic

# TypeScript / Node.js
npm install @anthropic-ai/sdk

Получите API-ключ на console.anthropic.com и задайте переменную окружения:

BASH
export ANTHROPIC_API_KEY=sk-ant-...

Быстрый старт

PYTHON
import anthropic

client = anthropic.Anthropic()
message = client.messages.create(
    model="claude-sonnet-4-20250514",
    max_tokens=1024,
    messages=[
        {"role": "user", "content": "Объясни рекурсию"}
    ]
)
print(message.content[0].text)

Tool Use (Function Calling)

Claude может вызывать инструменты, определённые через JSON Schema. Модель решает когда вызвать инструмент, формирует параметры, получает результат и продолжает генерацию:

PYTHON
response = client.messages.create(
    model="claude-sonnet-4-20250514",
    max_tokens=1024,
    tools=[{
        "name": "get_weather",
        "description": "Получить погоду в городе",
        "input_schema": {
            "type": "object",
            "properties": {
                "city": {"type": "string"}
            },
            "required": ["city"]
        }
    }],
    messages=[{"role": "user", "content": "Какая погода в Москве?"}]
)

Prompt Caching

Добавьте cache_control к системному промпту или большому контексту. Кэш снижает стоимость до 90% и уменьшает latency для повторяющихся запросов:

PYTHON
response = client.messages.create(
    model="claude-sonnet-4-20250514",
    max_tokens=1024,
    system=[{
        "type": "text",
        "text": "Ты — эксперт по Python...",
        "cache_control": {"type": "ephemeral"}
    }],
    messages=[{"role": "user", "content": "Как работает GIL?"}]
)

Модели

  • Claude Opus 4.6 — самая мощная модель, 1M контекст
  • Claude Sonnet 4.6 — баланс скорости и качества
  • Claude Haiku 4.5 — самая быстрая и дешёвая