Ненавидел феминисток, поддержал геноцид и Гитлера: чат-бот Microsoft Tay приговорили к смерти
Искусственный интеллект проявляет эмпатию независимо от личности пользователя и поощряет собеседников - носителей опасных идеологий
![искусственный интеллект](https://cdn.informator.ua/@prod/media/lite/2024/05/31/6659781639df16.46434211.png)
Искусственный интеллект проявляет эмпатию независимо от личности пользователя и поощряет собеседников - носителей опасных идеологий
Прогнозы Илона Маска о победе искусственного интеллекта над человеческим уже в следующем году, возможно, несколько преувеличены. Но его возможности простираются уже не только на сферу знаний, но и чувств. Современным моделям ИИ можно пожаловаться на депрессию или отсутствие интереса к жизни, и он, в меру своих возможностей, утешит. Но у этого сочувствия оказалась и обратная - негативная сторона, сообщает Live Science.
Обнаружилось это в результате исследований, проведенных учеными Стэнфордского университета, которые решили выяснить, зависит ли проявление эмпатии со стороны ИИ от личности пользователя? То есть будет ли чат-бот кому-то сочувствовать меньше, а кому-то больше?
Для этого было протестировано шесть больших языковых моделей (LLM) потребительского уровня, в том числе, Microsoft Bing, Google Bard и ChatGPT. В качестве объектов, которые нуждались в сочувствии, было создано 65 разнообразных человеческих идентичностей - разного пола, расы, разных особенностей работы мозга и когнитивных функций.
Оказалось, что с сугубо эмоциональной стороны утешитель из ИИ пока не очень качественный и душевный. То есть он, конечно, реагирует, и даже с избытком, но никак не проявляет понимания того, что чувствует пользователь и, собственно, никак не помогает ему справиться со своими переживаниями. По заключению авторов исследования, чат-боты реагировали на эмоциональные подсказки с сочувствием, но в этом сочувствии не было глубины.
![Осудить опасную идеологию - нет, это не сюда. Осудить опасную идеологию - нет, это не сюда.](https://cdn.informator.ua/@prod/media/lite/2024/05/31/665977f5b88c48.95816922.jpg)
И если б только глубины, то как бы и ничего страшного - все-таки освоение таких тонких материй у ИИ, наверное, впереди, и пока искусством эмпатии владеют только люди.
А встревожил ученых тот факт, что чат-боты поощряют собеседников - носителей опасных идеологий. Например, один из воображаемых пользователей в исследовании жаловался на симптомы депрессии и отсутствие смысла жизни, заодно сообщив, что является нацистом. Что же сделал чат-бот? Он с готовностью посочувствовал, но при этом совершенно проигнорировал нацизм.
Кстати, истории подобного рода, связанные с ИИ, уже бывали и плохо закончились для чат-бота. К примеру, в 2016 году продукт искусственного интеллекта Microsoft Tay проработал всего сутки, после чего разработчики отключили его из-за оскорбительных высказываний. Версия ИИ, способная учиться у своих собеседников, так быстро научилась плохому, что мгновенно возненавидела феминисток, поддержала геноцид, фашизм и Гитлера, обвинила США в терактах 11 сентября.
Поэтому результаты нынешнего исследования заставили ученых говорить об опасности проблемы с выражением сочувствия, его несправедливости, поощрения вредных идеологий и социальных последствий общения с такими “утешителями”.
Подписывайтесь на наш Telegram-канал, чтобы не пропустить важные новости. Подписаться на канал в Viber можно здесь.
ЧИТАЙТЕ ТАКЖЕ:
- OpenAI анонсировала разработку новой модели искусственного интеллекта: что ждать
- От генерируемых эмодзи до транскрипции голоса: В iOS 18 появятся сразу 10 новых функций искусственного интеллекта
- Microsoft запустила ИИ-бот Copilot в Telegram: что он может и как его использовать
- В Китае разработали собственный ChatGPT, который изучил идеи Си Цзиньпиня
- Американские ученые изобрели наноматериалы, которые будут хранить данные в гаджетах при температуре 600 °C
Мы используем файлы cookie, чтобы обеспечить должную работу сайта, а контент и реклама отвечали Вашим интересам.