
Ведущие AI-ассистенты неверно представляли или неправильно обрабатывали новостной контент почти в половине случаев, согласно исследованию Европейского вещательного союза (EBU) и BBC.
Исследование оценивало бесплатные (потребительские) версии ChatGPT, Copilot, Gemini и Perplexity. Ассистенты отвечали на новостные вопросы на 14 языках при участии 22 организаций общественного вещания из 18 стран.
EBU в своём заявлении отметил:
«Системные искажения новостей со стороны ИИ проявляются последовательно во всех языках и регионах».
Основные результаты исследования
Всего было проанализировано 2 709 основных ответов, а также собраны качественные примеры на основе специально сформулированных вопросов.
- 45% ответов содержали хотя бы одну серьёзную ошибку.
- 81% ответов имели какие-либо проблемы.
- Наиболее частой проблемой была некорректная атрибуция источников — она присутствовала в 31% ответов на значимом уровне.
Сравнение по платформам
Результаты различались в зависимости от платформы:
- Google Gemini показал наибольшее количество проблем: 76% его ответов содержали серьёзные ошибки, из которых 72% связаны с источниками.
- Остальные ассистенты (ChatGPT, Copilot, Perplexity) имели не более 37% серьёзных ошибок в целом и менее 25% проблем с источниками.
Примеры ошибок
Среди проблем с точностью — устаревшая или неверная информация. Например:
- Несколько ассистентов по состоянию на конец мая называли Папу Франциска действующим Папой, несмотря на то, что он якобы умер в апреле (в исследовании использовалась гипотетическая ситуация).
- Gemini неверно описал изменения в законодательстве о одноразовых вейпах.
Методология
Ответы генерировались в период с 24 мая по 10 июня. Участники использовали общий набор из 30 основных вопросов, а также дополнительные локальные вопросы по желанию.
Исследование фокусировалось на бесплатных версиях ассистентов, чтобы отразить типичный пользовательский опыт.
Многие медиаорганизации временно отключали технические блокировки, мешающие ИИ-ассистентам получать доступ к их контенту, только на время генерации ответов, после чего блокировки были восстановлены.
Почему это важно
Эти результаты подчёркивают необходимость проверять любую информацию, полученную от ИИ-ассистентов, по первоисточникам — особенно при использовании для исследований или подготовки контента.
Для изданий это означает повышенный риск того, что их материалы будут неверно интерпретированы или использованы без надлежащей атрибуции в ответах ИИ.
Что дальше?
EBU и BBC опубликовали вместе с отчётом «Набор инструментов для обеспечения достоверности новостей в ИИ-ассистентах», содержащий рекомендации для технологических компаний, СМИ и исследователей.
По данным Reuters, EBU считает, что растущая зависимость от ИИ-ассистентов при получении новостей может подорвать доверие общества к информации.
Директор по медиа EBU Жан-Филипп Де Тендер заявил:
«Когда люди не знают, чему можно верить, они в итоге перестают верить чему-либо вообще, и это может ослабить демократическое участие».
Комментарии
Добавить коммментарий...Интересное исследование! 45% серьезных ошибок - это критично для SEO-специалистов, которые используют ИИ для генерации контента. Нужно обязательно перепроверять факты перед публикацией.
А я не удивлен) Gemini просто катастрофа - 76% ошибок! 🤯 Кто-то еще использует его для работы с новостным контентом?
Проблемы с атрибуцией источников в 31% случаев - это серьезный удар по доверию к ИИ. Для SEO это важно, ведь ссылки на источники влияют на ранжирование.
@SEO_Pro_RU полностью согласен! Я всегда даю готовый текст на вычитку копирайтеру. ИИ - инструмент, а не замена специалисту.
А кто для новостей использует ИИ без проверки? 😅 Это же базовые вещи - любой контент нужно верифицировать, особенно когда речь идет о системных искажениях новостей.
Исследование показало что некорректная атрибуция источников - основная проблема. Для медиа это важно, но для коммерческого SEO не так критично имхо
@Traffic_Guru не согласен! Любые ошибки в контенте бьют по доверию и поведенческим. А поведенческие факторы - важная часть SEO в 2024.
А я вот заметил что ChatGPT стабильнее других. Всего 37% ошибок против 76% у Gemini. Разница огромная! 🤔
Кстати, исследование охватило 2709 ответов - это солидная выборка. Результатам можно доверять. Системные искажения новостей действительно есть и их нужно учитывать.
Ребята, а как вы проверяете ИИ-контент? Я только начинаю в SEO, использую GPT для статей но теперь задумался...
@Newbie_SEO всегда проверяй факты по первоисточникам! Особенно цифры, даты, имена. И используй несколько ИИ для перекрестной проверки ✌️
Кстати, про "набор инструментов для обеспечения достоверности" от EBU и BBC - интересно где его найти? Может поможет бороться с искажениями новостей
Главный вывод - ИИ ассистенты не замена эксперту. Особенно в SEO где каждая деталь важна. 81% ответов имели проблемы - это провал 😬
@SEO_Pro_Ru насчет поведенческих - возможно ты прав. Но для коммерческих запросов пользователи редко проверяют каждую цифру в статье
Интересно что исследование проводилось на 14 языках - значит проблемы глобальные. Не только в русскоязычном сегменте есть искажения новостей
@Traffic_Guru даже в коммерческих текстах ошибки снижают конверсию. Доверие = деньги. Особенно когда речь о дорогих товарах/услугах 💰
Коллеги, а вы заметили что наиболее частой проблемой была некорректная атрибуция источников? Это прямое следствие того как ИИ обучается на разнородных данных
Спасибо за советы! Буду теперь тщательнее проверять. Кстати, а какие инструменты для проверки фактов используете?
Добавить комментарий: