Логотип

Статья

Доверяй, но проверяй: нейросети врут вам через раз

Согласно новому исследованию Европейского вещательного союза и BBC, системы искусственного интеллекта могут существенно искажать информацию. Аналитики проверили 3000 ответов нейросетей на новостные запросы на 14 языках, оценивая точность, умение работать с источниками и разграничивать факты и мнения. В исследовании участвовали модели ChatGPT, Microsoft Copilot, Gemini и Perplexity.

Результаты показали, что 45% ответов содержали как минимум одну существенную ошибку, а 81% имели более мелкие погрешности. Среди основных проблем были выделены некорректный подбор источников, предоставление вводящей в заблуждение информации и использование устаревших данных.

Природа ошибок больших языковых моделей

Специалисты объясняют такие ошибки принципиальными особенностями больших языковых моделей. Отмечается, что ИИ обучается на определенном массиве данных и не имеет информации за пределами этого корпуса. Например, если модель была обучена на текстах до ноября 2024 года, события после этой даты ей неизвестны. Вероятностная природа моделей также приводит к тому, что разные экземпляры одной системы могут давать противоречивые ответы на идентичные запросы.

Эксперты подчеркивают, что для минимизации ошибок необходимо использовать не просто языковую модель, а искусственного когнитивного агента, построенного на ее основе. Ключевым механизмом является фактчекинг выходных данных, который проверяет текст на наличие недостоверной информации. Использование базовой языковой модели в таких сферах, как журналистика, считается недопустимым без дополнительных систем контроля. Это мощный инструмент для обработки информации, но применять его требуется с учетом существующих ограничений.

Наихудшие результаты в исследовании продемонстрировала нейросеть Gemini: три четверти ее ответов содержали серьезные ошибки, связанные с подбором источников и интерпретацией информации. В частности, система некорректно трактовала законодательные изменения и ссылалась на несуществующие первоисточники. Другим примером недостоверности стали ответы ChatGPT, который спустя несколько месяцев после кончины папы Франциска продолжал указывать его как действующего понтифика.

Неизбежные ограничения ИИ-систем

По мнению экспертов, на текущий момент полностью полагаться на нейросети, включая браузеры со встроенными ИИ-ассистентами, не следует. Специалисты отмечают, что при использовании больших языковых моделей невозможно гарантировать абсолютную точность результата — всегда сохраняется вероятность ошибки. Рекомендуется не применять генеративный ИИ для создания контента, который пользователь не способен самостоятельно проверить. Это неизбежное ограничение технологии, которое требует осознанного подхода к ее применению.

Отдельной проблемой остается кибербезопасность ИИ-браузеров. По словам экспертов, до сих пор не решена базовая задача защиты от промпт-инъекций — ситуаций, когда система не может различить команды пользователя и скрытые инструкции в обрабатываемом контенте. Злоумышленники научились использовать эту уязвимость для выполнения несанкционированных команд.

Реальные последствия

Проблема фейкового контента, генерируемого ИИ, уже получила практическое подтверждение в медиасреде. Ярким примером стал инцидент, отмеченный газетой The Guardian в августе текущего года. Крупные онлайн-издания, включая Wired и Business Insider, были вынуждены удалить со своих платформ новостные материалы, автором которых значилась некая Марго Бланшар. Последующее расследование установило, что такого человека попросту не существует, а все статьи, выпущенные под этим именем оказались сгенерированы нейросетью и содержали вымышленную информацию. Аналогичные публикации под тем же псевдонимом были обнаружены и в других изданиях, большая часть которых к настоящему моменту удалена. Невероятно, но факт: фальсифицированный контент, созданный искусственным интеллектом, смог миновать традиционные системы верификации и был опубликован в авторитетных СМИ.

Выявленные уязвимости нейросетей создают прямые операционные и репутационные риски для бизнеса. В условиях, когда предприниматели, управленцы и линейные сотрудники все активнее интегрируют ИИ-инструменты в повседневные процессы — от анализа рынков и подготовки отчетов до генерации коммерческих предложений и юридических заключений, — высока вероятность принятия стратегических решений на основе недостоверных данных. Безусловное доверие к сгенерированным ответам, содержащим скрытые ошибки или «галлюцинации», может привести к неверным выводам, финансовым потерям и ущербу для деловой репутации.