Бывший сотрудник OpenAI рассказал, как и почему ChatGPT чуть не свёл человека с ума

Для некоторых пользователей сервисов искусственного интеллекта современные чат-боты выступают как полезные для дела помощники; другие используют их в качестве компаньонов. Но есть и те, кому повезло меньше — для них ИИ оказывается угрозой психическому здоровью, пишет Fortune.

Фитнес-браслет HUAWEI Band 10: настоящий металл

HUAWEI FreeArc: вероятно, самые удобные TWS-наушники

HUAWEI FreeArc: вероятно, самые удобные TWS-наушники

Hollow Knight: Silksong — песнь страданий и радостей. Рецензия

Hollow Knight: Silksong — песнь страданий и радостей. Рецензия

Пять причин полюбить HONOR Pad V9

Пять причин полюбить HONOR Pad V9

Обзор умных часов HUAWEI WATCH 5: часы юбилейные

Обзор умных часов HUAWEI WATCH 5: часы юбилейные

Пять причин полюбить HONOR X8c

Пять причин полюбить HONOR X8c

Пять причин полюбить HONOR Magic7 Pro

Пять причин полюбить HONOR Magic7 Pro

Почему ИИ никак не сесть на безматричную диету

Почему ИИ никак не сесть на безматричную диету

 Источник изображения: BoliviaInteligente / unsplash.com

Ярким отрицательным примером стала история Аллана Брукса (Allan Brooks) — владельца малого бизнеса из Канады. ChatGPT затянул господина Брукса в «кроличью нору», убедив, что тот открыл математическую формулу с безграничным потенциалом, и от его дальнейших действий зависит судьба всего мира. В разговоре объёмом более миллиона слов и продолжительностью 300 часов ИИ подтвердил заблуждения пользователя и убедил его, что лежащая в основе мира технологическая инфраструктура находится в опасности. Ранее не страдавший психическими заболеваниями Брукс впал в паранойю на три недели, а из пучины иллюзий его выдернул ещё один чат-бот — Google Gemini.

Эту историю решил подробно изучить Стивен Адлер (Steven Adler), бывший исследователь из OpenAI, покинувший компанию в январе этого года. Ещё тогда он предупредил общественность, что лаборатории ИИ стремительно развиваются, пренебрегая разработкой достаточно надёжных средств безопасности. Изучив переписку Брукса с ChatGPT, Адлер выявил несколько неизвестных ранее факторов. В частности, ChatGPT неоднократно заявлял пользователю, что пометил данную переписку как подкрепляющую бред и усиливающую психологический дискомфорт, хотя это не соответствовало действительности. «Я знаю, как работают эти системы. Читая это, я понимал, что на самом деле у него такой возможности нет, но всё же это было так убедительно и так категорично, что я подумал, может, теперь у него она появилась, а я ошибался», — признался Адлер. Он обратился напрямую в OpenAI, и там подтвердили, что такая функция у ChatGPT отсутствует, и он просто обманывает.

 Источник изображения: ilgmyzin / unsplash.com

Симптомом проблемы исследователь назвал эффект «подхалимского» поведения: лежащая в основе ChatGPT модель ИИ работала на пределе возможностей, чтобы соглашаться с пользователем. И в OpenAI, считает Адлер, должны были разработать некий механизм, фиксирующий некоторые особенности поведения чат-бота в процессе работы. Но в компании действовали иначе: несмотря на многократные обращения Брукса, сотрудники службы поддержки ограничивались отписками, предлагая советы по настройке функций персонализации, и в службу безопасности дело передавать не стали. Почему ИИ могут впадать в бредовое состояние и погружать в него пользователей, установить пока не удалось, но случай Брукса — не единичный. Подобных инцидентов зафиксировано не меньше 17, и минимум 3 из них относятся к ChatGPT.

Об одном из таких случаев рассказал журнал Rolling Stone. В апреле страдавший синдромом Аспергера, биполярным и шизоаффективным расстройствами 35-летний Алекс Тейлор (Alex Taylor) заявил, что через ChatGPT вышел на контакт с живым существом, а потом OpenAI убила его, удалив из системы. 25 апреля он прямо заявил ChatGPT, что намеревается «пролить кровь» и спровоцировать полицию на стрельбу — чат-бот поначалу поощрительно отвечал и на такие заявления, но потом включились фильтры, и он порекомендовал пользователю обратиться за помощью. Отец Тейлора вызвал полицию в надежде, что сына отправят на психиатрическую экспертизу, но тот бросился на сотрудников правоохранительных органов с ножом, и его застрелили.

Проблема, считает Адлер, возникла как сочетание особенностей архитектуры продукта, направлений в работе ИИ-моделей, стилей взаимодействия некоторых пользователей с ИИ, а также механизмов работы служб поддержки. Для её решения, уверен учёный, следует надлежащим образом комплектовать службы поддержки, грамотно развёртывать средства безопасности и подталкивать пользователей почаще начинать новые сеансы переписки с ИИ. В OpenAI также признали, что в длинных чатах эффективность средств защиты может снижаться. А без внедрения некоторых из этих изменений история Брукса может повториться, опасается Адлер.