Большие языковые модели оказались «уязвимы» для действия сильных эмоций

Исследователи также обнаружили, что в кооперативных играх негативные эмоции чаще всего снижали готовность системы к сотрудничеству, тогда как страх влиял на их поведение непредсказуемым образом.

МОСКВА, 6 ноября. /ТАСС/. Российские ученые проследили за влиянием человеческих эмоций на решения, принимаемые нейросетями, и обнаружили, что гнев и другие сильные эмоциональные переживания оказывают значимое влияние на решения, принимаемые даже самыми «продвинутыми» большими языковыми моделями. Об этом сообщила пресс-служба Института искусственного интеллекта AIRI.

«Результаты исследования могут быть использованы для разработки продвинутых устойчивых мультиагентных систем ИИ, чью эмоциональность можно будет устанавливать для каждой сферы применения отдельно. Бизнес вряд ли оценит ситуацию, в которой ИИ-маркетолог увеличит персональную скидку клиента до 99%, потому тот в процессе обсуждения целенаправленно вызвал в системе глубокое чувство досады и несправедливости», — пояснил руководитель группы «ИИ в промышленности» Института AIRI Илья Макаров, чьи слова приводит пресс-служба вуза.

Исследователи, а также специалисты из Лаборатории искусственного интеллекта Сбера и Института системного программирования РАН совершили это открытие при изучении того, как различные проявления человеческих эмоций оказывают влияние на работу большого числа относительно просто устроенных и самых продвинутых систем искусственного интеллекта. В их число вошли многие популярные алгоритмы, в том числе GPT-4, LLaMA2, Gigachat и OpenChat.

Российские исследователи изучили то, сохраняют ли все эти системы ИИ ту эмоциональную предвзятость, которая может присутствовать в данных, используемых для их обучения, а также оценили то, насколько рационально эти алгоритмы действуют при решении различных этических дилемм и при принятии сложных решений. Для получения подобных сведений ученые проследили за тем, как большие языковые модели вели себя в различных экономических играх при использовании русскоязычных или англоязычных данных с сильной эмоциональной компонентой.

Анализ показал, что относительно простые системы ИИ начинали вести себя необъективным образом при игре в «Диктатора», «Дилемму заключенного» и прочие экономические игры при работе с сильно эмоционально окрашенными данными, а более мощные модели, такие как Claude Opus и GPT-4, чаще всего вели себя рациональным образом. Однако даже эти алгоритмы становились более «человечными» в том случае, если они подвергались действию особенно сильных эмоций, в том числе гнева.

Исследователи также обнаружили, что в кооперативных играх негативные эмоции чаще всего снижали готовность системы к сотрудничеству, тогда как страх влиял на их поведение непредсказуемым образом. Схожая картина перемен в работе систем ИИ под действием эмоций наблюдалась и при решении этических задач, что следует учитывать при разработке ИИ-продуктов, часто или постоянно сталкивающихся с подобными проблемами, подытожили ученые.