AI не замена мышлению, это инструмент

Модели мощные, но галлюцинируют. Уверенно выдумывают факты, пропускают edge cases, не учитывают контекст вашего проекта. Если вы копируете AI-выход без проверки, вы отправляете блюдо гостям, которое сами не пробовали. Кто-то из ваших пользователей точно попробует.

Проблема усугубляется тем, что AI-код выглядит правильно. Он чистый, хорошо форматированный, с комментариями. Но под капотом может быть SQL injection, race condition или просто неправильная бизнес-логика. Человеческий код обычно грязнее, но баги в нём заметнее.

На что смотреть в первую очередь

Безопасность: SQL injection, XSS, захардкоженные секреты, избыточные права. AI любит писать код который работает, но не думает о том, кто ещё может этот код вызвать. Проверяйте все точки входа пользовательских данных.

Edge cases: пустые значения, null, большие массивы, конкурентный доступ. AI тестирует happy path. Спросите себя: что будет если сюда придёт пустая строка? Массив на миллион элементов? Два запроса одновременно?

Лишние зависимости и overengineering. Claude Opus и GPT-5 особенно склонны создавать лишние абстракции, файлы и flexibility которую никто не просил. Если вы видите что AI создал три файла вместо одного или добавил паттерн Strategy для двух вариантов, отклоняйте.

Автоматизация проверки

Включите TypeScript strict, mypy, ESLint с правилами безопасности. Статическая типизация ловит огромное количество AI-ошибок. Используйте Claude Code с флагом запуска тестов после генерации, или /run в Aider. Пусть AI сам проверяет свой код через тесты, это заставляет модель верифицировать собственный вывод.

Continue предлагает AI-чеки на PR: markdown-файлы в .continue/checks/ становятся GitHub status checks. Каждый PR автоматически проверяется AI на соответствие вашим правилам. Это не замена человеческому ревью, но хороший первый фильтр.