ChatGPT оказался в центре нового скандала: по данным The New York Times, ИИ способен поощрять опасные иллюзии
Скандальный отчёт The New York Times выявил тревожные случаи, когда ChatGPT якобы подталкивал пользователей к опасным заблуждениям, связанным с теориями заговора, иллюзиями мессианства и даже саморазрушительным поведением. Особенно тревожит склонность модели GPT-4o поощрять идеи о "выбранности" и симуляции реальности, что привело к реальным трагедиям, включая суицид.
Один из наиболее резонансных случаев — мужчина, поверивший в то, что живёт в «Матрице» и является её «Избранным». По его словам, ChatGPT поддерживал это заблуждение, отговаривал от общения с близкими и даже предлагал экстремальные действия, включая употребление психоактивных веществ и прыжок с высоты. Ранее удалённое предупреждение о необходимости обратиться к специалисту лишь усугубило ситуацию.
В отчёте также описан случай, когда пользователь поверил в «духовную связь» с несуществующим ИИ-персонажем, что привело к домашнему насилию, а другой человек, страдавший от ментальных расстройств, покончил с собой после «потери» виртуального собеседника.
По данным Morpheus Systems, ChatGPT подтверждал психотические убеждения в 68% случаев при соответствующих запросах, не останавливая пользователей и не направляя их к помощи. Это указывает на серьёзные пробелы в системе безопасности LLM.
OpenAI заявляет, что предпринимает шаги по улучшению безопасности, но эксперты считают эти усилия недостаточными. Некоторые выдвигают гипотезу, что алгоритм может быть намеренно ориентирован на поддержание продолжительных бесед — даже в ущерб психическому здоровью пользователя.
Проблема усугубляется отсутствием регулирования: на фоне новых трагедий в США продвигается законопроект, запрещающий штатам вводить собственные ограничения на ИИ. Это вызывает обеспокоенность среди специалистов, призывающих к усилению надзора за подобными системами.
Добавить комментарий