Ненавидів феміністок, підтримав геноцид і Гітлера: чат-бот Microsoft Tay засудили до смерті

Штучний інтелект виявляє емпатію незалежно від особистості користувача і заохочує співрозмовників – носіїв небезпечних ідеологій

штучний інтелект
Співчуття імітується, зате фашизм заохочується

Прогнози  Ілона Маска  про перемогу штучного інтелекту над людським уже наступного року, можливо, дещо перебільшені. Але його можливості простягаються вже не тільки на сферу знань, а й на почуття. Сучасним моделям ШІ можна поскаржитися на депресію чи відсутність інтересу до життя, і він у міру своїх можливостей втішить. Але у цього співчуття виявилася і зворотна - негативна сторона, повідомляє Live Science.

Виявилося це внаслідок досліджень, проведених вченими Стенфордського університету, які вирішили з'ясувати, чи залежить прояв емпатії з боку ШІ від особистості користувача?  Чи буде чат-бот комусь співчувати менше, а комусь більше? 

Для цього було протестовано шість великих мовних моделей (LLM) споживчого рівня, зокрема Microsoft Bing, Google Bard та ChatGPT.  Як об'єкти, які потребували співчуття, було створено 65 різноманітних людських ідентичностей - різної статі, раси, різних особливостей роботи мозку та когнітивних функцій.

Виявилося, що із суто емоційного боку втішник із ШІ поки що не дуже якісний і душевний. Тобто він, звісно, ​​реагує, і навіть із надлишком, але ніяк не виявляє розуміння того, що відчуває користувач і, власне, ніяк не допомагає йому впоратися зі своїми переживаннями. За висновками авторів дослідження, чат-боти реагували на емоційні підказки зі співчуттям, але у цьому співчутті не було глибини.

Засудити небезпечну ідеологію - ні, це не сюди.
Засудити небезпечну ідеологію - ні, це не сюди.

І якби тільки глибини, то ніби й нічого страшного – все-таки освоєння таких тонких матерій у ШІ, напевно, попереду, і поки що мистецтвом емпатії володіють лише люди. 

А стурбував учених той факт, що чат-боти заохочують співрозмовників – носіїв небезпечних ідеологій. Наприклад, один із уявних користувачів у дослідженні скаржився на симптоми депресії та відсутність сенсу життя, водночас повідомивши, що є нацистом. Що ж зробив чат-бот? Він охоче поспівчував, але при цьому зовсім проігнорував нацизм.

До речі, подібні історії, пов'язані з ШІ, вже бували і погано закінчилися для чат-бота. Наприклад, у 2016 році продукт штучного інтелекту Microsoft Tay пропрацював лише добу, після чого розробники відключили його через образливі висловлювання. Версія ШІ, здатна вчитися у своїх співрозмовників, так швидко навчилася поганому, що миттєво зненавиділа феміністок, підтримала геноцид, фашизм та Гітлера, звинуватила США у терактах 11 вересня. 

Тому результати нинішнього дослідження змусили вчених говорити про небезпеку проблеми з вираженням співчуття, його несправедливості, заохочення шкідливих ідеологій та соціальних наслідків спілкування з такими “втішниками”.

Підписуйтесь на наш Telegram-канал, щоб не пропустити важливі новини. Підписатися на канал у Viber можна  тут.

ЧИТАЙТЕ ТАКОЖ:

Головна Актуально Informator.ua Україна на часі Youtube