Компания обещала научить свой поиск отвечать на сложные вопросы с помощью ИИ

AI Overviews — это краткое резюме перед основными результатами поиска, которое генерирует искусственный интеллект. На презентации представители компании рассказывали, что функция создана в первую очередь для комплексных запросов, в которых нужно учитывать сразу несколько параметров. Например, в сопроводительном ролике поисковик просили составить план питания на неделю для студента, живущего в общежитии, с фокусом на бюджетных блюдах, которые можно готовить в микроволновке.

Предполагалось, что ИИ сможет проанализировать наиболее частые ответы, сопоставить их с заложенными в запросе параметрами, например местоположением пользователя, и предложить оптимальный вариант. В идеальном сценарии пользователю даже не пришлось бы переходить по ссылкам.

Оказалось, что искусственный интеллект не может отличить правду от троллинга — и дает максимально сомнительные советы

Быстро выяснилось, что как раз со сложными запросами новый поиск Google справляется хуже всего. Пользователи, которые опробовали новую функцию, пишут, что в разделе AI Overview можно встретить ложные, а иногда и опасные для жизни ответы. Одна из проблем заключается в том, что ИИ не может отличить серьезную информацию от шуток и троллинга. Один из наиболее популярных примеров — рекомендация добавить клей в пиццу, чтобы сыр держался лучше.

Искусственный интеллект взял этот ответ из старого поста на Reddit, опубликованного 11 лет назад. Кто-то из пользователей тогда в шутку предложил использовать нетоксичный клей для решения проблемы, а Google, не найдя более подходящего ответа на запрос, предложил его для блока AI Overview.

Журналистка Business Insider решила пойти дальше и последовать совету искусственного интеллекта. Она приготовила пиццу с использованием клея и написала про это тред в X (бывшем твиттере). И как оказалось, что проблема с сыром действительно решена!

По соцсетям разошелся и другой пример, когда ИИ якобы взял ответ с Reddit и выдал его за рекомендацию. Один из пользователей опубликовал скриншот с вопросом, что делать, если находишься в депресии; а Google в ответ якобы посоветовал прыгнуть с моста Золотые Ворота в Сан-Франциско. Однако позже The New York Times со ссылкой на представительницу Google Лару Левин сообщил, что система никогда не выдавала такой ответ.

Иногда Google советует пользователям есть камни, ссылаясь на рекомендации геологов из Калифорнийского университета в Беркли (ИИ уточняет, что это жизненно важный источник минералов и витаминов, полезных для пищеварения). Но не больше одного маленького камня в день! На самом деле эту информацию Google взял из заметки The Onion, сайта с вымышленными сатирическими новостями.

Другой вредный совет от ИИ: он „разрешает“ курить по 2–3 сигареты в день во время беременности, ссылаясь на некие рекомендации врачей, но не уточняя источник информации (конечно же, это неправда).

На вопрос, как долго можно смотреть на солнце, Google уверенно отвечает: от пяти до 15 минут. А если у вас темная кожа — то почему-то и все 30.

Google оправдывается тем, что запросы „очень необычные“. Но именно для них и создавали AI Overview

В Google уже отреагировали на претензии пользователей. Представительница компании Меган Фарнсворт в своем комментарии для The Verge отметила, что подобные ошибки возникают из-за „очень необычных запросов и не отражают опыт большинства людей“. Она добавила, что сотрудники компании не смогли воспроизвести некоторые из упомянутых запросов, а часть скриншотов оказалась подделкой.

Тем не менее компания уже приняла меры и использует упомянутые примеры для того, чтобы дальше совершенствовать свой продукт. Также разработчики отключили AI Overview (судя по всему, вручную) для определенных запросов. Пользователи соцсетей действительно заметили, что некоторые ответы ИИ уже невозможно воспроизвести.

Поделиться
Комментарии