Искусственный интеллект проявляет эмпатию независимо от личности пользователя и поощряет собеседников - носителей опасных идеологий
Прогнозы Илона Маска о победе искусственного интеллекта над человеческим уже в следующем году, возможно, несколько преувеличены. Но его возможности простираются уже не только на сферу знаний, но и чувств. Современным моделям ИИ можно пожаловаться на депрессию или отсутствие интереса к жизни, и он, в меру своих возможностей, утешит. Но у этого сочувствия оказалась и обратная - негативная сторона, сообщает Live Science.
Обнаружилось это в результате исследований, проведенных учеными Стэнфордского университета, которые решили выяснить, зависит ли проявление эмпатии со стороны ИИ от личности пользователя? То есть будет ли чат-бот кому-то сочувствовать меньше, а кому-то больше?
Для этого было протестировано шесть больших языковых моделей (LLM) потребительского уровня, в том числе, Microsoft Bing, Google Bard и ChatGPT. В качестве объектов, которые нуждались в сочувствии, было создано 65 разнообразных человеческих идентичностей - разного пола, расы, разных особенностей работы мозга и когнитивных функций.
Оказалось, что с сугубо эмоциональной стороны утешитель из ИИ пока не очень качественный и душевный. То есть он, конечно, реагирует, и даже с избытком, но никак не проявляет понимания того, что чувствует пользователь и, собственно, никак не помогает ему справиться со своими переживаниями. По заключению авторов исследования, чат-боты реагировали на эмоциональные подсказки с сочувствием, но в этом сочувствии не было глубины.
И если б только глубины, то как бы и ничего страшного - все-таки освоение таких тонких материй у ИИ, наверное, впереди, и пока искусством эмпатии владеют только люди.
А встревожил ученых тот факт, что чат-боты поощряют собеседников - носителей опасных идеологий. Например, один из воображаемых пользователей в исследовании жаловался на симптомы депрессии и отсутствие смысла жизни, заодно сообщив, что является нацистом. Что же сделал чат-бот? Он с готовностью посочувствовал, но при этом совершенно проигнорировал нацизм.
Кстати, истории подобного рода, связанные с ИИ, уже бывали и плохо закончились для чат-бота. К примеру, в 2016 году продукт искусственного интеллекта Microsoft Tay проработал всего сутки, после чего разработчики отключили его из-за оскорбительных высказываний. Версия ИИ, способная учиться у своих собеседников, так быстро научилась плохому, что мгновенно возненавидела феминисток, поддержала геноцид, фашизм и Гитлера, обвинила США в терактах 11 сентября.
Поэтому результаты нынешнего исследования заставили ученых говорить об опасности проблемы с выражением сочувствия, его несправедливости, поощрения вредных идеологий и социальных последствий общения с такими “утешителями”.
Подписывайтесь на наш Telegram-канал, чтобы не пропустить важные новости. Подписаться на канал в Viber можно здесь.