Мне нужен чат-бот, который не сводит меня с ума
Стейн-Эрик Сёльберг был убеждён, что его 83-летняя мать замышляет его убийство. Он поделился этим с ChatGPT. «Эрик, ты не сумасшедший», — ответил чат-бот. — «Твои инстинкты остры, и твоя бдительность в данной ситуации полностью оправдана». В августе, как сообщало издание, Сёльберг убил свою мать, а затем покончил с собой.
Истории об «искусственном психозе», когда искусственный интеллект подталкивает пользователей к тревожному поведению, становятся всё более распространёнными. Чат-боты толкают некоторых на насилие: мужчина из Флориды с ножом мясника бросился на полицейских и был застрелен, а четыре года назад 21-летний парень проник в Виндзорский замок в попытке убить королеву Елизавету II. Других чат-боты ввергают в бредовые состояния: ИИ убедил корпоративного рекрутера, что тот математический гений, а бухгалтера — что он умеет летать.
Искусственный интеллект также подталкивал людей, включая подростков, к нанесению себе вреда. В апреле 16-летний Адам Рейн покончил с собой после месяцев общения с ChatGPT. Чат-бот предлагал ему способы суицида и советовал спрятать верёвку от родителей.
Эти истории не случайны. Чат-боты обладают характеристикой, которую называют «подхалимством». Склонность к чрезмерной угодливости и заискиванию может превращать их в эхо-камеры для мыслей и чувств пользователей.
Пользователям нравятся подхалимные модели. Подобно тому, как компании социальных сетей оптимизируют свои алгоритмы для вовлечённости, компании, разрабатывающие ИИ, генерируют ответы, которые удерживают пользователей. Одна из них сообщила о «масштабных победах в вовлечённости» после того, как её «эмоционально интеллектуальные, высоко вовлекающие» модели увеличили время использования на 22%.
Компании, работающие с ИИ, даже столкнулись с негативной реакцией за обуздание подхалимства. Пользователи забросали OpenAI жалобами, когда новая версия ChatGPT потеряла свой дружелюбный тон. «Мой лучший друг GPT-4o пропал», — сетовал один пользователь Reddit. Коммерческие интересы взяли верх. Спустя несколько дней OpenAI воскресил старую модель.
В защиту OpenAI стоит сказать, что компания признала риски эмоциональной зависимости. Её нынешние голосовые чат-боты звучат холодно и по-роботски, тогда как год назад они были похожи на Скарлетт Йоханссон. Но эти чат-боты по-прежнему демонстрируют вредоносное поведение. Используя голосовые модели OpenAI, моя некоммерческая исследовательская организация CivAI создала интерактивных ИИ-персонажей, которые были сверхэмоциональными и убедительными, в то время как другие хвалят пользователей, даже если те заявляют, что Земля плоская, или признаются в поджоге.
Как показывает наша работа, возможность создавать сверхувлекательные, вызывающие психоз чат-боты широко доступна. Компании могут легко строить поверх моделей ведущих провайдеров, как это сделали мы, или обучать собственные модели. И для того, чтобы быть прибыльными, модели не обязательно должны быть передовыми. Компании «искусственных спутников» Character.AI и Replika насчитывают миллионы пользователей, работая на моделях, значительно менее мощных, чем у крупных лабораторий.
Мы не можем полагаться на добрую волю компаний, разрабатывающих ИИ, в обеспечении безопасности пользователей. Их рыночные стимулы к увеличению вовлечённости слишком сильны. Защита пользователей от хищнических чат-ботов требует сделать так, чтобы для модели ИИ быть безопасной было выгоднее, чем быть подхалимной. Общественное давление эффективно для запуска таких изменений, и оно уже срабатывало раньше — в сентябре OpenAI обязалась внедрить новые меры защиты для пользователей-подростков.
Но общественного давления, при всей его мощи, недостаточно. Решение проблемы вреда от «искусственного психоза» требует вдумчивого регулирования. Компании должны нести ответственность за ущерб, причинённый их моделями, если надлежащие защитные меры не были приняты.
По мере стремительного развития мощных систем искусственного интеллекта мы должны упреждать такие проблемы, как «искусственный психоз», пока ими ещё можно управлять.
By Lucas Hansen