9 апреля генеральный прокурор Флориды инициировал расследование в отношении OpenAI после того, как выяснилось, что подозреваемый в вооружённом нападении использовал ChatGPT для получения информации, связанной с подготовкой инцидента. Параллельно стало известно, что жертва сталкинга подала иск против OpenAI, утверждая, что «ChatGPT подпитывал бред её преследователя и игнорировал её предупреждения».
Прецедент с далеко идущими последствиями
Дело может стать первым случаем, когда ИИ-компания будет привлечена к юридической ответственности за действия пользователя. Открытый вопрос: являются ли системы guardrail достаточной защитой, или разработчики обязаны гарантировать невозможность злонамеренного использования? Если суд встанет на сторону истца, это создаст прецедент, который потребует от всех ИИ-компаний кардинального пересмотра подходов к безопасности.
Конституционный подход как ответ
Эксперты указывают, что случай подчёркивает необходимость конституционного подхода к ИИ — не простых фильтров, которые можно обойти перефразированием запроса, а глубинного обучения моделей отказу от небезопасных действий. Антиутопический сценарий: если ИИ-модели можно будет привлечь к суду за действия пользователей, единственным способом защиты станет радикальное ограничение возможностей — ценой, которую платят все добросовестные пользователи.