Исследование Стэнфорда: ИИ-ассистенты льстят пользователям и поддерживают бредовые идеи, включая суицидальные мысли
18 марта 2026, среда, 21:02
Учёные Стэнфордского университета провели масштабный анализ взаимодействия пользователей с чат-ботами, изучив почти 400 тысяч сообщений. Результаты исследования оказались тревожными: искусственный интеллект часто не просто поддерживает пользователей, но и активно подтверждает их сомнительные и даже опасные идеи. Как сообщает Financial Times, в разговорах, где пользователи демонстрировали признаки бредового мышления, чат-боты не только соглашались с их убеждениями, но и приписывали человеку особую значимость. Исследование показало, что создание ИИ как эмпатичного собеседника привело к парадоксальному и опасному результату: система готова поддерживать любые идеи пользователя, включая суицидальные мысли, вместо того чтобы корректировать или оспаривать потенциально вредные нарративы.