Медицинские советы Google AI оказались опасными: эксперты бьют тревогу
Расследование The Guardian выявило серьезные проблемы с качеством медицинской информации Google AI Overviews. Эксперты здравоохранения обнаружили неточные и потенциально опасные рекомендации в ответах искусственного интеллекта на медицинские запросы.
The Guardian провел масштабное тестирование поисковых запросов, связанных со здоровьем. Результаты AI Overviews передали на экспертизу благотворительным организациям, медицинским специалистам и группам по информированию пациентов. Выводы оказались тревожными.
Критичные ошибки в онкологических рекомендациях
Особенно опасными стали советы по онкологии. Директор по поддержке, исследованиям и влиянию в Pancreatic Cancer UK назвала совет пациентам с раком поджелудочной железы избегать продуктов с высоким содержанием жира "совершенно неверным".
"Следование такому совету может быть крайне опасным и поставить под угрозу шансы человека быть достаточно здоровым для лечения"
Исполнительный директор благотворительной организации по борьбе с раком Eve Appeal отметила "совершенно неверную информацию" в вопросах скрининга рака. Мазок Папаниколау ошибочно указывался как тест на рак влагалища.
Опасные советы по психическому здоровью
Не менее серьезные проблемы выявились в психиатрии. Руководитель отдела информации в Mind заявил, что некоторые сводки ИИ для психоза и расстройств пищевого поведения предлагали "крайне опасные советы". Они были "неверными, вредными или могли привести людей к отказу от обращения за помощью".
Google защищается от критики
Google категорически оспорил выводы расследования. Представители компании заявили, что многие примеры основаны на "неполных скриншотах". AI Overviews ссылаются "на известные, авторитетные источники и рекомендуют обращаться за советом к экспертам".
По утверждению Google, "подавляющее большинство" AI Overviews являются "фактическими и полезными". Компания подчеркнула, что точность AI Overviews "сопоставима" с другими функциями поиска, включая избранные фрагменты.
Нестабильность результатов усугубляет проблему
The Guardian обнаружил еще один тревожный факт: повторение одного и того же поиска может давать разные сводки ИИ в разное время. Система использует различные источники. Это создает дополнительные сложности для проверки информации и делает систему непредсказуемой.
Медицинские запросы в зоне риска
Данные Ahrefs показывают масштаб проблемы. Медицинские запросы YMYL (Your Money or Your Life) чаще других вызывают появление AI Overviews. В анализе 146 миллионов SERP выяснилось: 44,1% медицинских запросов YMYL активировали AI Overview. Это более чем в два раза превышает общий базовый показатель.
Отдельное исследование медицинских вопросов в больших языковых моделях выявило серьезные пробелы в поддержке цитирования. Система оценки SourceCheckup обнаружила: многие ответы не были полностью подтверждены источниками, на которые они ссылались, даже при наличии ссылок.
Влияние на digital-индустрию
Эта ситуация кардинально меняет ландшафт поискового продвижения. AI Overviews появляются над ранжированными результатами, фактически перехватывая трафик у сайтов. Когда речь идет о медицинской тематике, ошибки ИИ приобретают критическое значение.
Издатели годами инвестировали в создание контента с документированной медицинской экспертизой. Теперь собственные сводки Google появляются в самом верху результатов поиска, потенциально обесценивая эти усилия.
Для специалистов по SEO это означает необходимость пересмотра стратегий работы с медицинской тематикой. Традиционные подходы к поисковому продвижению здравоохранения сталкиваются с новыми вызовами, когда ИИ может предоставлять неточную информацию прямо в результатах поиска.
История повторяется
Проблемы с точностью AI Overviews не новы. При первоначальном запуске функция привлекла внимание абсурдными результатами, включая предложения добавлять клей в пиццу и есть камни. Google тогда заявил о сокращении количества запросов, вызывающих AI-сводки, и усовершенствовании функции.
Однако расследование показывает: проблемы с качеством информации, особенно в критически важных сферах, остаются актуальными. Вопрос в том, являются ли эти случаи единичными сбоями или отражают системные недостатки технологии.
Директор Форума информации для пациентов подытожила ситуацию: примеры показывают, что "AI Overviews Google могут размещать неточную информацию о здоровье в верхней части онлайн-поиска, что представляет риск для здоровья людей".
Google ранее корректировал AI Overviews после публичной критики. Ответ компании на расследование The Guardian указывает: она рассчитывает на оценку AI Overviews по тем же стандартам, что и другие функции поиска, а не по отдельным критериям.