Многие от этого сильно пострадают: Google добавил искусственный интеллект в поиск

Читати українською

Отныне Google будет показывать полные ответы, сгенерированные искусственным интеллектом, на большинство поисковых запросов в верхней части страницы результатов

Читати українською
Google и ИИ
В настоящее время эта функция внедряется в США, а в ближайшие месяцы планируется ее дальнейшее внедрение по миру

Отныне Google будет показывать полные ответы, сгенерированные искусственным интеллектом, на большинство поисковых запросов в верхней части страницы результатов

Google переворачивает свою поисковую систему, обещая буквально новую эпоху. Год назад началось тестирование экспериментальных функций Search Generative Experience (SGE) на основе ИИ, а теперь они начинают внедряться в поисковую систему Google. Сначала Google будет вводить новые функции только для пользователей из США, но впоследствии они станут доступными и в других регионах.

Последним шагом стала публикация "обзоров ИИ" на темы, которые вы ищете. Вместо обычного списка веб-сайтов пользователи, начиная с США, могут видеть обзор темы с помощью ИИ в верхней части результатов поиска, кратко излагающего тему, пишет IFLScience. Но этот шаг не лишен споров. Не из-за опасений по поводу мошеннических ИИ или других спекуляций по поводу общего искусственного интеллекта (AGI) и т.п., а по тем же причинам, по которым творческие люди протестовали против больших языковых моделей и ИИ, генерирующих изображения, обученные человеческой работе.

То есть раньше, когда вы что-то гуглили, получали список алгоритмически выбранных веб-страниц, на которые вы нажимали, чтобы узнать больше. Эти статьи обычно написаны людьми, и нажатие на них и чтение контента позволяет этим людям зарабатывать деньги за свою работу, а также получать за это признание. Однако теперь вас могут встретить сводные данные ИИ (не исключая все галлюцинации и ошибки, которые они до сих пор производят), сделанные в результате обучения работе других людей.

"Обзоры ИИ показывают ссылки на ресурсы, которые поддерживают информацию, содержащуюся в снимке, и позволяют глубже изучить тему. Это позволяет людям копать глубже и находить разнообразный контент от издателей, авторов, розничных продавцов, предприятий и т.п., а также использовать эту информацию", - объясняет Google об обновлениях. "Системы Google автоматически определяют, какие ссылки появляются".

Конечно, ИИ предоставит вам ссылку, но есть опасения, что люди просто прочтут обзор и уйдут, лишив жизненно важного потока доходов для людей и компаний, пишущих на эти темы. Модели ИИ полагаются на текст, созданный человеком, для обучения. Предоставьте им слишком много контента, созданного ИИ, чтобы они могли учиться на нем, и вся модель может упасть.

"Наш основной вывод во всех сценариях состоит в том, что без достаточного количества свежих реальных данных в каждом поколении аутофагического цикла будущие генеративные модели обречены на постепенное снижение качества (точности) или разнообразия", - рассказала одна из команд, рассматривающая такой сценарий. "Мы называем это состояние модельным расстройством аутофагии (MAD), проводя аналогию с коровьим бешенством".

А с точки зрения пользователя, все, что вас может заинтересовать - это получение полезной информации. Но модели ИИ не совсем справляются и с этой задачей, поскольку по-прежнему регулярно "галюцинируют". Например, пользователи сообщили об обнаружении этих ошибок в обзоре искусственного интеллекта Google, в том числе ИИ предположил, что знаковая цитата из классического литературного произведения "О мышах и людях" была из эпизода телешоу о зомби "Ходячие мертвецы", утверждая, что рыбы откладывают свои яйца при температурах, которые могли бы их сварить, и предполагая, что рыбы сосут соски, попадающие в их аквариум как практику грудного вскармливания.

К сожалению, для всех пользователей Google, не являющихся его поклонниками, в настоящее время нет возможности отключить AI-помощника. Тем не менее, вы можете выбрать вкладку "Интернет" (иногда скрытую под "Дополнительно" в опциях), если хотите видеть только результаты от людей.

Подписывайтесь на наш Telegram-канал, чтобы не пропустить важные новости. Подписаться на канал в Viber можно здесь.

ЧИТАЙТЕ ТАКЖЕ:

Мы используем файлы cookie, чтобы обеспечить должную работу сайта, а контент и реклама отвечали Вашим интересам.