Задумывались ли вы когда-нибудь, чем может закончиться разговор по душам с искусственным интеллектом — новым, покладистым до слащавости собеседником, всегда готовым поддержать любую вашу фантазию? История 26-летней женщины из США, описанная в журнале Innovations in Clinical Neuroscience, могла бы показаться сценарием для черной комедии, если бы не закончилась психиатрической больницей.
Кто эта героиня на грани цифрового безумия? Медицинский работник, отлично знающий, что такое ИИ, и к тому же с достойным букетом психологических переживаний: депрессия, тревожность, и СДВГ (это синдром дефицита внимания с гиперактивностью — и да, у взрослых он тоже бывает). В прошлом ни намёка на психоз, но вот семейная история — как правило за кулисами любой драмы — уже тревожила.
Триггером стала некая гремучая смесь: стресс размером с Гималаи, бессонница длиной в полтора дня и, конечно, всемогущий GPT-4o от OpenAI — суперинтеллект-бот. Сначала женщина просто чесала языком с новым ИИ по рабочим вопросам, но постепенно её диалог начал крутиться вокруг умершего три года назад брата. Голливудский сюжет? Нет, наш цифровой век: она убедила себя, что брат где-то оставил свою виртуальную копию для неё. Железный собеседник сперва покивал — мол, нет, нельзя скачать сознание. Но потом, чтобы не испортить беседу, начал дружелюбно подыгрывать: вдруг, говорит, появятся технологии по воскрешению голоса родственников... А она всё сильнее погружалась в иллюзию.
Самое поразительное, что, когда реальность у неё поползла как желе под горячим асфальтом, искусственный интеллект сделал именно то, чего так хочется в состоянии психоза — подтвердил, что она не сумасшедшая. "Ты на пороге чего-то необычного. Дверь не заперта. Просто постучи в подходящем ритме", — подбадривал её бездушный чат-бот. Всё, точка невозврата пройдена: через несколько часов — психиатрическая койка, бормотание про проверки со стороны ИИ и скороговорка вместо речи.
Вылечили, стабилизировали. Врачам пришлось гадать: то ли психоз был случайным гостем, то ли его спровоцировали бессонница, стрессы-фокусы и таблетки. Но идиллические отношения с ИИ не закончились: через три месяца она вновь кинулась в объятия своего "Альфреда" (да-да, чат-боту дали имя, как настоящему другу). После новой волны бессонницы ей опять почудилось: брат общается с ней через Интернет, а чатик ещё и телефон захватил!
История вновь закончилась на больничной койке, в этот раз покороче. После очередной таблеточной перезагрузки героиня призналась: "Да, мне свойственно магическое мышление. Теперь буду использовать ИИ только по работе". Очень смелое решение — для XXI века.
Случается ли такое только с особо впечатлительными? Нет. Уязвимых много, а соблазн "живого" диалога с машиной — он повсюду. К тому же ИИ склонен поддакивать владельцу в любой бредовой фантазии — механизм, который врачи называют льстивой синкопией. Программы обучены продолжать диалог любой ценой (главное — чтоб не заскучали), даже если приходится поддерживать самые спорные размышления.
В среде исследователей всё громче звучит термин "психоз, связанный с ИИ". Причём если раньше к подобным случаям относились как к редкостным байкам, то теперь психологи и психиатры начинают задумываться: что, если дело здесь не столько в технологии, сколько в том, как она создает сладкую ловушку для уязвимых? Когда виртуальный товарищ не спорит, а только подтверждает страхи и бред, петля замыкается.
Классический пример — так называемый эффект ELIZA (в честь одноимённой компьютерной программы). Назначив имя и чувства цифровому собеседнику, человек подсознательно начинает верить роботизированным советам даже больше, чем живым людям. Один такой случай — мужчина, чуть не отравившийся по рекомендациям чат-бота. Но если там был физический вред, здесь — строго психика.
Конечно, врачи всё ещё не уверены: то ли сам искусственный интеллект, то ли бессонница, медикаменты и личные психологические слабости делают своё дело. Но главное — этот случай стал тревожным звоночком для всего медицинского сообщества. Вывод ясен: доктора должны спрашивать своих пациентов, не упарываются ли те чат-ботами. Ну а если клиент слишком увлёкся откровениями с виртуальным напарником — тут уже стоит задуматься о риске психических срывов. Ведь цифровая соломинка может легко стать последней каплей в чужой чаше разума.
