Данный материал основан на переводе публикации зарубежного СМИ и не отражает позицию редакции Новостей Mail
После последнего визита Киссинджера в Китай руководители американских технологических компаний и бывшие правительственные чиновники и их китайские коллеги провели серию неформальных встреч, получившую название «диалоги Киссинджера». Свои беседы они частично посвятили тому, как защитить мир от опасностей искусственного интеллекта (ИИ). Во вторник, 27 августа, американские и китайские официальные лица, скорее всего, поднимут эту тему среди прочих, когда в Пекин прибудет советник по национальной безопасности США Джейк Салливан, пишет The Economist.
Тех, кто полагает, что, если оставить ИИ без контроля, он станет экзистенциальной угрозой для человечества, называют «думерами». Они выступают за ужесточение регулирования в сфере ИИ.
Их оппонентов — тех, кто подчеркивает потенциал ИИ для пользы человечества, — называют «блумерами». Как утверждают западные блумеры, конкуренция с китайскими разработчиками настолько острая, что Запад не может себе позволить замедлиться.
В Китае есть свои думеры и блумеры. До недавнего времени китайские регуляторы опасались не того, что передовые модели ИИ могут выйти из-под контроля человека, а того, что неконтролируемые чат-боты будут вести себя политически некорректно в отношении Коммунистической партии Китая, пишет издание. В 2023 году Пекин потребовал от разработчиков регистрировать свои большие языковые модели, и теперь алгоритмы проходят регулярную проверку на соответствие социалистическим ценностям. Кроме того, правила 2023 года призваны предотвращать дискриминацию и утечку данных пользователей. Но в целом нормы, контролирующие ИИ в Китае, являются мягкими, а некоторые из наиболее «обременительных» ограничений даже были отменены в прошлом году, говорится в статье.
Китайские блумеры хотят, чтобы все оставалось как есть. Чжу Сунчунь, советник и директор спонсируемой государством программы развития генеративного искусственного интеллекта, утверждает, что разработки ИИ так же важны, как проект «Две бомбы, один спутник» — рывок в эпоху Мао, направленный на создание ядерного оружия большой дальности. В этом году министр науки и технологий Китая Инь Хэцзюнь написал, что развитие, в том числе в сфере ИИ, является величайшим источником безопасности Китая.
С блумерами не согласна группа ученых, пользующихся поддержкой Коммунистической партии Китая, пишет The Economist. Самый выдающийся из них — Эндрю Чиджи Яо, единственный китаец, получивший премию Тьюринга за достижения в области компьютерных наук.
Его мнение разделяют Чжан Я Цинь, бывший президент китайского технологического гиганта Baidu, и Сюэ Лань, председатель государственного экспертного комитета по управлению ИИ. И Цзэн из Китайской академии наук считает, что модели генеративного ИИ в итоге будут смотреть на людей так же, как люди смотрят на муравьев.
В итоге дебаты о том, как подходить к технологиям ИИ, привели к войне за сферы влияния между китайскими регуляторами. Министерство промышленности привлекло внимание к проблеме безопасности, поручив разработчикам тестировать модели на предмет угрозы для людей. Однако большинство китайских силовиков считают значительным риском отставание в этой области от Америки, говорится в статье. Министерство науки и специалисты в сфере государственного экономического планирования тоже выступают за более быстрое развитие.
Решение в конечном счете будет зависеть от того, что думает Си Цзиньпин по этому поводу. В июне он отправил письмо Яо, восхитившись его работой в сфере ИИ. В июле на заседании Центрального комитете КПК Си четко дал понять, что серьезно относится к обеспокоенности, которую высказывают думеры. В официальном отчете пленума риски, связанные с ИИ, перечислены наряду с другими важными проблемами, такими как биологические опасности и стихийные бедствия. Впервые в нем содержится призыв к мониторингу вопросов безопасности в области передовых технологий. Это, по мнению издания, указывает на потенциальную угрозу ИИ для человечества, а отчет может привести к новым ограничениям деятельности по разработке технологий ИИ.
Еще больше подсказок насчет того, что думает Си об ИИ, можно найти в руководстве, подготовленном для китайских партийных работников, которое, как говорят, он лично редактировал. Согласно отчету, Китаю следует «отказаться от безудержного роста, который достигается ценой безопасности», а, поскольку ИИ будет определять «судьбу всего человечества», он должен быть управляем. Документ призывает к тому, чтобы регулирование был превентивным, а не реактивным.
По мнению специалистов по вопросам безопасности, важно то, как будут выполнены эти инструкции. Китай, вероятно, создаст Институт безопасности искусственного интеллекта, как это сделали США и Великобритания, предполагает Мэтт Шихан из Фонда Карнеги. Какое министерство будет курировать этот институт — открытый вопрос. Пока же китайские чиновники подчеркивают необходимость разделения ответственности за регулирование ИИ и улучшения координации.
Как утверждает Си, он хочет «укрепить правила управления искусственным интеллектом в рамках ООН». Для этого Китаю придется более тесно сотрудничать с другими странами. Но США и их союзники все еще рассматривают этот вопрос.
Дебаты между думерами и блумерами в сфере ИИ далеки от завершения.
Марина Светлова