YouTube заполонили фейковые ИИ-видео с Илоном Маском: как это используют аферисты

Читати українською

В сети аферисты распространили ШИ-видео с Илоном Маском, чтобы заманить людей в криптовалюту

Читати українською
Злоумышленники опубликовали в YouTube фейковое видео с Илоном Маском
Илон Маск

В сети аферисты распространили ШИ-видео с Илоном Маском, чтобы заманить людей в криптовалюту

В YouTube произошел наплыв видео с Илоном Маском, основателем компаний Tesla и SpaceX. Эти видео сделали злоумышленники с помощью искусственного интеллекта. Аферисты пытались подделать трансляцию SpaceX для своих целей.

Как передает Mashable, за каждым фейковым роликом стоит компания, пытавшаяся подделать трансляцию SpaceX. Злоумышленники хотели завлечь неопытных пользователей в криптовалюту. Стримы воспроизводили заранее записанные видео с Илоном Маском, которое аферисты подделали с помощью искусственного интеллекта.

Все трансляции аферисты делали практически одинаково. Там транслировались видео с Илоном Маском, стоящим у экрана SpaceX, разговаривающим с толпой о возможностях инвестирования в криптовалюту. В роликах говорилось, что инвестирование якобы обязательно работает и удваивает инвестиции.

В частности, на этих фейковых трансляциях пользователям сети предлагалось сканировать QR-код. Он якобы должен был переносить на вебсайт, где люди смогут "инвестировать напрямую" в криптовалюты. Следует отметить, что эксперты часто советуют при покупке криптовалют делать это через большие и проверенные платформы.

Скандал с дипфейками реальных людей

Осенью 2023 года произошло скандал с онлайн-платформой для обмена моделями искусственного интеллекта Civitai. Там развернули функцию вознаграждений, позволяющих разместить объявление с просьбой создать то или иное ИИ-изображение. В результате недобросовестные пользователи начали делать дипфейки реальных людей, большинство из которых были женщинами в сценах с сексуальным подтекстом.

В основном просили воспроизвести сходство со знаменитостями и влиятельными в социальных сетях лицами. Однако журналисты обнаружили по крайней мере один дипфейк частного лица. То есть женщины, которая не имеет большого количества подписчиков и не является медийной личностью.

По данным исследовательской компании Andreessen Horowitz, Civitai является седьмой по популярности платформой генеративного ИИ. При этом ситуация с такими дипфейками сексуального характера, по мнению журналистов, усугубляет проблему так называемой порномести (когда люди генерируют поддельные фото или видео с лицами людей и распространяют их под видом реальных), и вообще злоупотребление изображениями любых людей – не только медийных, чьими фото переполнен интернет, но и кого угодно, кто ведет хотя бы небольшую социальную активность.

Подписывайтесь на наш Telegram-канал, чтобы не пропустить важные новости. За новостями в режиме онлайн прямо в мессенджере следите в нашем Telegram-канале Информатор Live. Подписаться на канал Viber можно здесь.

 

ЧИТАЙТЕ ТАКЖЕ:

Мы используем файлы cookie, чтобы обеспечить должную работу сайта, а контент и реклама отвечали Вашим интересам.