9 апреля аналитики предупредили: ИИ-агенты, способные автономно выполнять задачи, перемещать данные и инициировать решения, часто без чётких записей о том, что они сделали, когда и почему, создают провал в управлении, который становится юридически значимым с началом принудительного исполнения европейского закона об ИИ в августе 2026 года.

Пять критических вызовов

Трассируемость: организации не могут отследить действия агентов по системам - без полного аудитного следа нельзя доказать, что система работает безопасно или даже законно. Идентификация агентов: многие организации не имеют даже базового реестра активных агентов. Мультиагентная сложность: цепочки взаимодействующих агентов затрудняют отслеживание сбоев. Недостаточный человеческий надзор: рецензенты видят только промпт или оценку уверенности, а нужен контекст, полномочия и время для вмешательства. Пробелы в отзыве: организации должны уметь отключить агента за секунды - удалить привилегии, разорвать доступ к API, сбросить очередь задач.

Что требует Закон

Статья 9: управление рисками ИИ должно быть «непрерывным, основанным на доказательствах процессом» на каждом этапе развёртывания высокорисковых систем. Статья 13: ИИ-система от третьей стороны «должна быть интерпретируемой для пользователей» — не закрытой, с достаточной документацией для безопасного и законного использования. Выбор модели и метод деплоя — это одновременно технические и регуляторные решения.

Что нужно менять

Централизованные зашифрованные записи всей агентной активности, криптографическое подписание действий агентов, привязанных к неизменяемым хеш-цепочкам, обязательное тестирование безопасности мультиагентных систем, возможность экстренного отзыва и регуляторно-готовые доказательства. Фундаментальный тест: может ли каждый аспект агентного ИИ быть «идентифицирован, ограничен политикой, проверен, прерван и объяснён»? Если ответ неясен — управление ещё не на месте.