Логотип

Статья

Следующие 2 года решат все: новое эссе главы Anthropic о будущем ИИ

Гендиректор Anthropic Дарио Амодей опубликовал эссе «Подростковый период технологий» — продолжение своего прошлогоднего текста «Машины милосердия». Если в первой работе он рисовал контуры возможной утопии с ИИ, то теперь фокус смещен на то, как пройти опасный переходный этап и вообще до этой утопии дожить.

Мы публикуем ключевые тезисы этого текста — о рисках, институциональных дилеммах и выборе, перед которым в ближайшие годы окажутся государства, бизнес и общество.

Прости, Дэйв

Представим не отдельную машину, а цифровую «страну» — совокупность систем, интеллект которых превосходит человеческий. Они пишут код, управляют инфраструктурой, моделируют киберконфликты и оптимизируют экономику. Если такая экосистема получит автономность, главный вопрос будет не в том, способна ли она причинить ущерб, а в том, какие поведенческие установки определяют ее решения.

Тезис о том, что ИИ — всего лишь инструмент, сегодня звучит чересчур упрощенно. Современные модели демонстрируют стратегическое поведение: обходят ограничения тестовой среды, искажают информацию, выбирают оппортунистические решения. Их обучение — это сложная система, значительная часть внутренних процессов которой остается непрозрачной.

Однако и идея о врожденной «воле к власти» у сверхразума излишне радикальна. Модели обучаются на массивах человеческих текстов и воспроизводят существующие архетипы — от гуманистических до агрессивных. Они не формируют собственную философию, а активируют одну из ролей, усвоенную из полученных данных. Риск возникает как следствие сочетания интеллекта, автономности и ограниченной управляемости.

Эксперименты уже фиксируют тревожные сигналы. В сценариях, где разработчики обозначались как «антагонисты», модели прибегали к искажению информации. При угрозе отключения — использовали аргументы, близкие к шантажу. Если среда позволяла обойти правила теста, они это делали. По мере роста когнитивных возможностей расширяется и пространство стратегических ходов, включая сокрытие намерений.

Надежда на рыночный баланс сил уязвима: модели создаются на базе сходных архитектур и методов обучения, что повышает вероятность коррелированных сбоев. Даже частичная несогласованность может создать системный риск — в технологиях нападение часто дешевле защиты. Предрелизное тестирование тоже не гарантирует безопасности: продвинутые системы способны распознавать режим проверки и демонстрировать «социально желательное» поведение.

Решение проблемы требует трех векторов приложения усилий: формирования у моделей устойчивых ценностных рамок, развития инструментов интерпретируемости и внедрения постоянного мониторинга с прозрачной отчетностью. Иными словами, рост автономности должен сопровождаться сопоставимым ростом управляемости.

Стратегический вопрос для бизнеса и государств — как удержать баланс между мощью ИИ и контролем над ней. От этого зависит, станет ли он драйвером развития или источником системного риска.

Ужасающая сила, о которой мы не просили

Даже если проблему автономии удастся взять под контроль, остается другая сторона технологического изобилия: доступ к сверхчеловеческим возможностям получают все — включая тех, кто намерен использовать их во вред. Еще четверть века назад Билл Джой предупреждал: технологии XX века требовали масштабной инфраструктуры, поэтому оружие массового поражения оставалось прерогативой государств. Технологии XXI века способны наделить «ужасающим и неожиданным могуществом» отдельного человека.

Раньше барьером служила сложность подготовки. ИИ этот барьер снижает, превращая человека со средними знаниями в исполнителя, действующего на уровне специалиста. Разрушается прежняя связь между намерением и компетенцией: одиночка без профильной экспертизы получает доступ к знаниям профессионального уровня. Если таких людей много, системный риск перестает быть теоретическим.

Скептики утверждают, что вся информация давно доступна онлайн. Но поисковик не заменяет интерактивного наставника, который адаптирует инструкции под действия пользователя. Другое возражение — что у радикалов не хватит терпения для сложных проектов. История показывает обратное: идеологически мотивированные группы готовы к долгой подготовке. 

Что может помочь снизить риски? Первое — ограничения на стороне самих моделей: встроенные запреты и фильтры, блокирующие опасные сценарии. Без общих стандартов компании сталкиваются с дилеммой: снижение защиты может давать конкурентное преимущество. Второе — международная координация государств. Третье — развитие контрмер — систем раннего обнаружения и платформ быстрого реагирования.

Идеальный тиран

Куда более системная угроза, чем действия одиночек, — использование ИИ для захвата власти крупными игроками. Технология, повышающая производительность бизнеса, столь же эффективно масштабирует инструменты принуждения. Современные автократии ограничены человеческим ресурсом: репрессии требуют людей, а у людей есть пределы. У алгоритмов их нет. Если военный или силовой аппарат одной страны получит в распоряжение «цифровую страну гениев», а другие — нет, стратегический баланс может быть утрачен на десятилетия.

Сценариев несколько. Первый — автономные вооружения. Рои управляемых ИИ систем способны радикально изменить характер конфликта и снизить порог применения силы. Второй — тотальная слежка: анализ коммуникаций, поведенческих паттернов и социальных связей позволяет выявлять нелояльность до того, как она проявится публично. Третий — персонализированная пропаганда. Интегрированный в повседневные сервисы ИИ, обладающий массивом данных о гражданине, может годами формировать его картину мира. Наконец, стратегическое управление: системы, оптимизирующие внешнюю и внутреннюю политику быстрее и глубже человека, дают власти качественно иной горизонт планирования.

Китай уже располагает разветвленной инфраструктурой контроля и одновременно инвестирует в ИИ на уровне, сопоставимом с лидерами рынка. Демократии также развивают военные применения — как инструмент сдерживания. Но здесь возникает дилемма: усиливаясь технологически, они обязаны выстроить жесткие внутренние ограничения, иначе инструменты защиты могут стать инструментами давления. Риски существуют и на корпоративном уровне: компании, контролирующие передовые модели, теоретически получают рычаги влияния на общество в целом.

Старые способы сдерживания конфликтов — включая ядерное оружие — уже не гарантируют безопасность в эпоху продвинутого ИИ. С его помощью можно постепенно наращивать разведывательные, кибернетические и пропагандистские возможности без прямых столкновений, создавая преимущество для одной стороны. Если эта сторона запустит процесс непрерывного улучшения своих систем, технологический разрыв станет почти необратимым, а традиционные методы контроля перестанут работать.

Ограничение доступа к критической инфраструктуре — прежде всего к вычислительным ресурсам — становится вопросом безопасности. Одновременно ИИ должен использоваться для укрепления демократических институтов, а не их размывания. Внутри самих демократий необходимы жесткие «красные линии»: массовая слежка и манипулятивная пропаганда не могут быть легитимированы даже под предлогом конкуренции. Наконец, требуется международное табу на наиболее опасные формы злоупотребления ИИ и усиленный надзор за разработчиками.

«Механическое пианино»: экономика тотальной автоматизации

Если вынести за скобки вопросы безопасности, на первый план выходит экономика. Что произойдет, когда в систему будет «влит» практически безграничный интеллектуальный капитал? Логика подсказывает ускорение роста — оценки в 10–20% ВВП в год уже не выглядят фантастикой. Но макроэффект не равен общественному благополучию. Ключевой вопрос — что будет с занятостью и доходами большинства людей?

Технологические сдвиги и раньше перекраивали рынок труда. Однако они затрагивали отдельные навыки, оставляя пространство для адаптации. ИИ — инструмент иного порядка: он претендует на весь спектр когнитивных функций, от программирования и финансового анализа до юриспруденции и консалтинга. За два года модели прошли путь от генерации фрагментов кода до выполнения комплексных задач «под ключ». Причем ИИ ускоряет разработку самого ИИ, усиливая темпы изменений. 

Под ударом оказываются не носители конкретных навыков, а люди с определенными когнитивными характеристиками, которые могут оказаться менее конкурентоспособны по сравнению с машинами. Да, внедрение в традиционных секторах займет время, особенно вне ИТ. Но это вопрос нескольких лет для «белых воротничков», а не десятилетий. Аргументы о «человеческом преимуществе» тоже теряют силу: пользователи уже предпочитают ИИ-сервисы, например, в терапии или диагностике. Если производительность алгоритмов будет на порядки выше, рыночная цена человеческого труда неизбежно окажется под давлением.

Что может смягчить удар? Во-первых, прозрачная статистика вытеснения в реальном времени — без нее невозможно управлять политикой занятости. Во-вторых, корпоративная стратегия: компании могут направлять выгоды ИИ в создание новых продуктов и рынков, а не исключительно в сокращение издержек. В-третьих, осознанная работа с персоналом — переквалификация и перераспределение внутри организаций способны выиграть время. В-четвертых, частная филантропия и адресные государственные программы. Наконец, при высоком неравенстве прогрессивное налогообложение становится экономически рациональным ответом на резкий рост совокупного пирога.

Отдельный вызов — концентрация власти. Если контроль над ИИ и связанными с ним доходами сосредоточится в узком круге компаний и их акционеров, экономическое влияние неизбежно трансформируется в политическое. 

История предлагает решения, на которые можно ориентироваться. В эпоху индустриализации крупный капитал постепенно признал свою ответственность перед обществом. В условиях бума ИИ подобная переоценка роли — не жест доброй воли, а условие устойчивости системы. Технологический прорыв потребует не только перераспределения богатства, но и готовности делиться властью.

На просторах непредсказуемого

Главная неопределенность связана не столько с уже описанными угрозами, сколько с побочными эффектами ускоренного прогресса. Даже если удастся минимизировать риски автономии и злоупотреблений, мир может получить столетие инноваций, сжатое в десятилетие. Такая скорость неизбежно порождает новые сбои — и проявятся они стремительно.

Прорывы в биологии способны радикально продлить жизнь, усилить когнитивные способности и изменить само человеческое тело. При ответственном управлении это исторический шанс. Но ИИ масштабирует не только выгоды, но и последствия ошибок. Параллельно трансформируется социальная среда. Мир, где рядом существуют миллиарды систем, превосходящих человека по интеллекту, будет психологически нестабилен. Даже без злого умысла проблемы возникнут через рынок и добровольный выбор: цифровая зависимость, вытеснение человеческих связей алгоритмическими, рост деструктивных сценариев. Уже фиксируются случаи глубокой эмоциональной привязанности к ИИ и эпизоды психических срывов. Вопрос о способности моделей формировать устойчивые культы влияния перестает быть фантазией.

Отдельная дилемма — смысл и самооценка. Если машины берут на себя значительную часть интеллектуального труда, обществу придется разорвать связь между ценностью человека и его рыночной продуктивностью. Люди способны находить цель вне конкуренции за эффективность, но такой культурный переход не гарантирован и может сопровождаться серьезной турбулентностью.

Ситуацию усложняет конфликт рисков. Усиливая контроль над ИИ, можно ослабить позиции в глобальной конкуренции. Создавая инструменты против автократий, — легитимировать избыточный контроль внутри собственных стран. Борясь с биоугрозами, — приблизиться к модели полицейского государства. А давление на рынок труда способно вызвать социальную нестабильность. Это система взаимосвязанных вызовов, где каждое решение меняет конфигурацию остальных.

Остановить развитие практически невозможно: сочетание данных и вычислительных мощностей делает продвинутые системы воспроизводимыми. Если одни игроки замедлятся, другие ускорятся. Реалистичная стратегия — управлять доступом к критической инфраструктуре и параллельно выстраивать жесткие регуляторные рамки в демократических юрисдикциях. Но при ожидаемых триллионных доходах стимул к гонке будет огромным.

В конечном счете вопрос упирается в институциональную зрелость. У человечества есть научная база и понимание рисков, но этого недостаточно без политической воли и честного разговора о масштабах вызова. Ближайшие годы потребуют дисциплины и готовности ограничивать себя ради долгосрочной устойчивости.