Установка SDK
# Python
pip install anthropic
# TypeScript / Node.js
npm install @anthropic-ai/sdk Получите API-ключ на console.anthropic.com и задайте переменную окружения:
export ANTHROPIC_API_KEY=sk-ant-... Быстрый старт
import anthropic
client = anthropic.Anthropic()
message = client.messages.create(
model="claude-sonnet-4-20250514",
max_tokens=1024,
messages=[
{"role": "user", "content": "Объясни рекурсию"}
]
)
print(message.content[0].text) Tool Use (Function Calling)
Claude может вызывать инструменты, определённые через JSON Schema. Модель решает когда вызвать инструмент, формирует параметры, получает результат и продолжает генерацию:
response = client.messages.create(
model="claude-sonnet-4-20250514",
max_tokens=1024,
tools=[{
"name": "get_weather",
"description": "Получить погоду в городе",
"input_schema": {
"type": "object",
"properties": {
"city": {"type": "string"}
},
"required": ["city"]
}
}],
messages=[{"role": "user", "content": "Какая погода в Москве?"}]
) Prompt Caching
Добавьте cache_control к системному промпту или большому контексту. Кэш снижает стоимость до 90% и уменьшает latency для повторяющихся запросов:
response = client.messages.create(
model="claude-sonnet-4-20250514",
max_tokens=1024,
system=[{
"type": "text",
"text": "Ты — эксперт по Python...",
"cache_control": {"type": "ephemeral"}
}],
messages=[{"role": "user", "content": "Как работает GIL?"}]
) Модели
- Claude Opus 4.6 — самая мощная модель, 1M контекст
- Claude Sonnet 4.6 — баланс скорости и качества
- Claude Haiku 4.5 — самая быстрая и дешёвая