Искусственный интеллект часто искажает новости — исследование EBU и BBC

Ведущие AI-ассистенты неверно представляли или неправильно обрабатывали новостной контент почти в половине случаев, согласно исследованию Европейского вещательного союза (EBU) и BBC.

Искусственный интеллект часто искажает новости  исследование EBU и BBC

Ведущие AI-ассистенты неверно представляли или неправильно обрабатывали новостной контент почти в половине случаев, согласно исследованию Европейского вещательного союза (EBU) и BBC.

Исследование оценивало бесплатные (потребительские) версии ChatGPT, Copilot, Gemini и Perplexity. Ассистенты отвечали на новостные вопросы на 14 языках при участии 22 организаций общественного вещания из 18 стран.

EBU в своём заявлении отметил:

«Системные искажения новостей со стороны ИИ проявляются последовательно во всех языках и регионах».

Основные результаты исследования

Всего было проанализировано 2 709 основных ответов, а также собраны качественные примеры на основе специально сформулированных вопросов.

Сравнение по платформам

Результаты различались в зависимости от платформы:

Примеры ошибок

Среди проблем с точностью — устаревшая или неверная информация. Например:

Методология

Ответы генерировались в период с 24 мая по 10 июня. Участники использовали общий набор из 30 основных вопросов, а также дополнительные локальные вопросы по желанию.

Исследование фокусировалось на бесплатных версиях ассистентов, чтобы отразить типичный пользовательский опыт.

Многие медиаорганизации временно отключали технические блокировки, мешающие ИИ-ассистентам получать доступ к их контенту, только на время генерации ответов, после чего блокировки были восстановлены.

Почему это важно

Эти результаты подчёркивают необходимость проверять любую информацию, полученную от ИИ-ассистентов, по первоисточникам — особенно при использовании для исследований или подготовки контента.

Для изданий это означает повышенный риск того, что их материалы будут неверно интерпретированы или использованы без надлежащей атрибуции в ответах ИИ.

Что дальше?

EBU и BBC опубликовали вместе с отчётом «Набор инструментов для обеспечения достоверности новостей в ИИ-ассистентах», содержащий рекомендации для технологических компаний, СМИ и исследователей.

По данным Reuters, EBU считает, что растущая зависимость от ИИ-ассистентов при получении новостей может подорвать доверие общества к информации.

Директор по медиа EBU Жан-Филипп Де Тендер заявил:

«Когда люди не знают, чему можно верить, они в итоге перестают верить чему-либо вообще, и это может ослабить демократическое участие».




Комментарии

Добавить коммментарий...
SEO_Pro_RU
2024-10-23 08:15

Интересное исследование! 45% серьезных ошибок - это критично для SEO-специалистов, которые используют ИИ для генерации контента. Нужно обязательно перепроверять факты перед публикацией.

Marketer_Alex
2024-10-23 08:32

А я не удивлен) Gemini просто катастрофа - 76% ошибок! 🤯 Кто-то еще использует его для работы с новостным контентом?

ContentMaster
2024-10-23 09:05

Проблемы с атрибуцией источников в 31% случаев - это серьезный удар по доверию к ИИ. Для SEO это важно, ведь ссылки на источники влияют на ранжирование.

Digital_Ninja
2024-10-23 09:18

@SEO_Pro_RU полностью согласен! Я всегда даю готовый текст на вычитку копирайтеру. ИИ - инструмент, а не замена специалисту.

SEM_Expert
2024-10-23 09:45

А кто для новостей использует ИИ без проверки? 😅 Это же базовые вещи - любой контент нужно верифицировать, особенно когда речь идет о системных искажениях новостей.

Traffic_Guru
2024-10-23 10:12

Исследование показало что некорректная атрибуция источников - основная проблема. Для медиа это важно, но для коммерческого SEO не так критично имхо

SEO_Pro_RU
2024-10-23 10:35

@Traffic_Guru не согласен! Любые ошибки в контенте бьют по доверию и поведенческим. А поведенческие факторы - важная часть SEO в 2024.

AI_Marketer
2024-10-23 11:02

А я вот заметил что ChatGPT стабильнее других. Всего 37% ошибок против 76% у Gemini. Разница огромная! 🤔

ContentMaster
2024-10-23 11:28

Кстати, исследование охватило 2709 ответов - это солидная выборка. Результатам можно доверять. Системные искажения новостей действительно есть и их нужно учитывать.

Newbie_SEO
2024-10-23 12:15

Ребята, а как вы проверяете ИИ-контент? Я только начинаю в SEO, использую GPT для статей но теперь задумался...

Marketer_Alex
2024-10-23 12:40

@Newbie_SEO всегда проверяй факты по первоисточникам! Особенно цифры, даты, имена. И используй несколько ИИ для перекрестной проверки ✌️

Digital_Ninja
2024-10-23 13:05

Кстати, про "набор инструментов для обеспечения достоверности" от EBU и BBC - интересно где его найти? Может поможет бороться с искажениями новостей

SEM_Expert
2024-10-23 13:30

Главный вывод - ИИ ассистенты не замена эксперту. Особенно в SEO где каждая деталь важна. 81% ответов имели проблемы - это провал 😬

Traffic_Guru
2024-10-23 14:15

@SEO_Pro_Ru насчет поведенческих - возможно ты прав. Но для коммерческих запросов пользователи редко проверяют каждую цифру в статье

AI_Marketer
2024-10-23 14:45

Интересно что исследование проводилось на 14 языках - значит проблемы глобальные. Не только в русскоязычном сегменте есть искажения новостей

SEO_Pro_RU
2024-10-23 15:20

@Traffic_Guru даже в коммерческих текстах ошибки снижают конверсию. Доверие = деньги. Особенно когда речь о дорогих товарах/услугах 💰

ContentMaster
2024-10-23 15:55

Коллеги, а вы заметили что наиболее частой проблемой была некорректная атрибуция источников? Это прямое следствие того как ИИ обучается на разнородных данных

Newbie_SEO
2024-10-23 16:10

Спасибо за советы! Буду теперь тщательнее проверять. Кстати, а какие инструменты для проверки фактов используете?




Добавить комментарий: