Статья
Согласно новому исследованию Европейского вещательного союза и BBC, системы искусственного интеллекта могут существенно искажать информацию. Аналитики проверили 3000 ответов нейросетей на новостные запросы на 14 языках, оценивая точность, умение работать с источниками и разграничивать факты и мнения. В исследовании участвовали модели ChatGPT, Microsoft Copilot, Gemini и Perplexity.
Результаты показали, что 45% ответов содержали как минимум одну существенную ошибку, а 81% имели более мелкие погрешности. Среди основных проблем были выделены некорректный подбор источников, предоставление вводящей в заблуждение информации и использование устаревших данных.
Специалисты объясняют такие ошибки принципиальными особенностями больших языковых моделей. Отмечается, что ИИ обучается на определенном массиве данных и не имеет информации за пределами этого корпуса. Например, если модель была обучена на текстах до ноября 2024 года, события после этой даты ей неизвестны. Вероятностная природа моделей также приводит к тому, что разные экземпляры одной системы могут давать противоречивые ответы на идентичные запросы.
Эксперты подчеркивают, что для минимизации ошибок необходимо использовать не просто языковую модель, а искусственного когнитивного агента, построенного на ее основе. Ключевым механизмом является фактчекинг выходных данных, который проверяет текст на наличие недостоверной информации. Использование базовой языковой модели в таких сферах, как журналистика, считается недопустимым без дополнительных систем контроля. Это мощный инструмент для обработки информации, но применять его требуется с учетом существующих ограничений.
Наихудшие результаты в исследовании продемонстрировала нейросеть Gemini: три четверти ее ответов содержали серьезные ошибки, связанные с подбором источников и интерпретацией информации. В частности, система некорректно трактовала законодательные изменения и ссылалась на несуществующие первоисточники. Другим примером недостоверности стали ответы ChatGPT, который спустя несколько месяцев после кончины папы Франциска продолжал указывать его как действующего понтифика.
По мнению экспертов, на текущий момент полностью полагаться на нейросети, включая браузеры со встроенными ИИ-ассистентами, не следует. Специалисты отмечают, что при использовании больших языковых моделей невозможно гарантировать абсолютную точность результата — всегда сохраняется вероятность ошибки. Рекомендуется не применять генеративный ИИ для создания контента, который пользователь не способен самостоятельно проверить. Это неизбежное ограничение технологии, которое требует осознанного подхода к ее применению.
Отдельной проблемой остается кибербезопасность ИИ-браузеров. По словам экспертов, до сих пор не решена базовая задача защиты от промпт-инъекций — ситуаций, когда система не может различить команды пользователя и скрытые инструкции в обрабатываемом контенте. Злоумышленники научились использовать эту уязвимость для выполнения несанкционированных команд.
Проблема фейкового контента, генерируемого ИИ, уже получила практическое подтверждение в медиасреде. Ярким примером стал инцидент, отмеченный газетой The Guardian в августе текущего года. Крупные онлайн-издания, включая Wired и Business Insider, были вынуждены удалить со своих платформ новостные материалы, автором которых значилась некая Марго Бланшар. Последующее расследование установило, что такого человека попросту не существует, а все статьи, выпущенные под этим именем оказались сгенерированы нейросетью и содержали вымышленную информацию. Аналогичные публикации под тем же псевдонимом были обнаружены и в других изданиях, большая часть которых к настоящему моменту удалена. Невероятно, но факт: фальсифицированный контент, созданный искусственным интеллектом, смог миновать традиционные системы верификации и был опубликован в авторитетных СМИ.
Выявленные уязвимости нейросетей создают прямые операционные и репутационные риски для бизнеса. В условиях, когда предприниматели, управленцы и линейные сотрудники все активнее интегрируют ИИ-инструменты в повседневные процессы — от анализа рынков и подготовки отчетов до генерации коммерческих предложений и юридических заключений, — высока вероятность принятия стратегических решений на основе недостоверных данных. Безусловное доверие к сгенерированным ответам, содержащим скрытые ошибки или «галлюцинации», может привести к неверным выводам, финансовым потерям и ущербу для деловой репутации.