Ненавидел феминисток, поддержал геноцид и Гитлера: чат-бот Microsoft Tay приговорили к смерти

Искусственный интеллект проявляет эмпатию независимо от личности пользователя и поощряет собеседников - носителей опасных идеологий

искусственный интеллект
Сочувствие имитируется, зато фашизм поощряется

Прогнозы Илона Маска  о победе искусственного интеллекта над человеческим уже в следующем году, возможно, несколько преувеличены. Но его возможности простираются уже не только на сферу знаний, но и чувств. Современным моделям ИИ можно пожаловаться на депрессию или отсутствие интереса к жизни, и он, в меру своих возможностей, утешит. Но у этого сочувствия оказалась и обратная - негативная сторона, сообщает Live Science.

Обнаружилось это в результате исследований, проведенных учеными Стэнфордского университета, которые решили выяснить, зависит ли проявление эмпатии со стороны ИИ от личности пользователя? То есть будет ли чат-бот кому-то сочувствовать меньше, а кому-то больше? 

Для этого было  протестировано шесть больших языковых моделей (LLM) потребительского уровня, в том числе, Microsoft Bing, Google Bard и ChatGPT. В качестве объектов, которые нуждались в сочувствии, было создано 65 разнообразных человеческих идентичностей - разного пола, расы, разных особенностей работы мозга и когнитивных функций.

Оказалось, что с сугубо эмоциональной стороны утешитель из ИИ пока не очень качественный и душевный. То есть он, конечно, реагирует, и даже с избытком, но никак не проявляет понимания того, что чувствует пользователь и, собственно, никак не помогает ему справиться со своими переживаниями. По заключению авторов исследования, чат-боты реагировали на эмоциональные подсказки с сочувствием, но в этом сочувствии не было глубины.

Осудить опасную идеологию - нет, это не сюда.
Осудить опасную идеологию - нет, это не сюда.

И если б только глубины, то как бы и ничего страшного - все-таки освоение таких тонких материй у ИИ, наверное, впереди, и пока искусством эмпатии владеют только люди. 

А встревожил ученых тот факт, что чат-боты поощряют собеседников - носителей опасных идеологий. Например, один из воображаемых пользователей в исследовании жаловался на симптомы депрессии и отсутствие смысла жизни, заодно сообщив, что является нацистом. Что же сделал чат-бот? Он с готовностью посочувствовал, но при этом совершенно проигнорировал нацизм.

Кстати, истории подобного рода, связанные с ИИ, уже бывали и плохо закончились для чат-бота. К примеру, в 2016 году продукт искусственного интеллекта Microsoft Tay проработал всего сутки, после чего разработчики отключили его из-за оскорбительных высказываний. Версия ИИ, способная учиться у своих собеседников, так быстро научилась плохому, что мгновенно возненавидела феминисток, поддержала геноцид, фашизм и Гитлера, обвинила США в терактах 11 сентября. 

Поэтому результаты нынешнего исследования заставили ученых говорить об опасности проблемы с выражением сочувствия, его несправедливости, поощрения вредных идеологий и социальных последствий общения с такими “утешителями”.

Подписывайтесь на наш Telegram-канал, чтобы не пропустить важные новости. Подписаться на канал в Viber можно здесь.

ЧИТАЙТЕ ТАКЖЕ:

Главная Актуально Informator.ua Україна на часі Youtube