Когда появится сверхумный ИИ и угрожает ли он людям. Объясняют эксперты

Почему такому контенту необходима маркировка — в материале РБК Life.

ИИ может невероятно поумнеть уже в ближайшее десятилетие, допустили некоторые из специалистов, опрошенных РБК Life. Такая версия технологии будет способна находить решения различных задач быстрее и лучше самых умных людей.

О том, как может выглядеть такой ИИ и стоит ли опасаться худшего сценария для человечества, — в нашем материале.

Когда появится сверхумный ИИ.

Есть определенный список задач, которые системы искусственного интеллекта уже сейчас решают быстрее и лучше экспертов в этих задачах, рассказал РБК Life директор лаборатории «Когнитивные системы ИИ» Института AIRI, директор центра когнитивного моделирования МФТИ Александр Панов.

«Самый примитивный пример — это распознавание каких-то образов, картинок, выделение речи из шума в некоторых условиях или классификация больших объемов данных», — отметил он.

При этом, по словам специалиста, есть определенные интеллектуальные функции, когнитивные способности, в которых ИИ пока, наоборот, полностью уступает людям. Например, прогнозирование в неопределенных ситуациях, планирование поведения, выполнение последовательностей действий в физическом мире.

«Проблема сознания — очень философская, и самые современные версии чат-ботов на основе языковых моделей уже активно стараются распознавать эмоции и адаптировать реплики к ним, но чувствует ли их система на самом деле? Конечно же, нет», — добавил Панов.

Он заверил, что ИИ как термин объединяет в себе множество разных технологий, которые не «умеют» выполнять задачи друг друга. Например, один алгоритм идеально распознает картинки, а второй — обыгрывает в го любого человека.

«Может быть, некоторые из описанных функций в течение двух-трех лет тоже войдут в арсенал систем ИИ, но если мы говорим про “сильный искусственный интеллект”, который решает все задачи одновременно, да еще и лучше человека, то он может и не появиться даже в ближайшие десятилетия», — спрогнозировал Панов.

Технический директор DIS Group Олег Гиацинтов рассказал РБК Life, что сверхумный ИИ, по его мнению, — это ИИ, который принимает решения не на основе заложенных в него моделей, а вне их, придумывая нечто, ранее не изобретенное человеком.

«Думаю, что он может появиться в ближайшие десять лет», — сделал прогноз специалист.

Появление ИИ, который будет превосходить человека по всем направлениям его деятельности, вопрос пока что больше философский, отметил в беседе с РБК Life коммерческий директор «Кода Безопасности» Федор Дбар.

«Даже в среде тех, кто занимается нейросетями, есть несколько лагерей, один из которых уверен, что подобных ИИ-моделей не будет никогда. Это весьма вероятно, потому что нынешние нейросети — это не точная калька работы человеческого мозга», — уточнил он.

По словам эксперта, пока что как бы ни совершенствовался ИИ, на нынешнем этапе развития он никогда не сможет того, что может человеческий мозг.

Директор департамента по развитию продуктов «EdgeЦентр» Сергей Сженов заявил РБК Life, что в ближайшие годы человечество станет свидетелем взрывного развития в области искусственного интеллекта.

«Это факт. И это неизбежно. Но загадывать наперед сильно в будущее и представлять себе картину, как в фантастических фильмах, неоправданно», — уверен он.

Как будет выглядеть сверхумный ИИ.

Внешняя оболочка может быть любой: и человекоподобной (так людям удобнее воспринимать), и абсолютно другой визуально — все будет зависеть от решаемых задач, считает Олег Гиацинтов из DIS Group. По его мнению, в конце концов сверхумный ИИ сможет сам себе придумать визуальную форму, если понадобится.

Визуальный облик для ИИ, на самом деле, не имеет большого значения, отметил Александр Панов из AIRI.

«Естественно, что мы живем в эпоху классических вычислительных компьютеров и нужны мощные серверы для запуска таких больших моделей», — отметил специалист.

Он констатировал, что запускать гипотетически существующую систему «сильного ИИ» тоже придется где-то на большом компьютере, в специальном вычислительном центре. При этом интерфейс взаимодействия с ней может выглядеть как угодно, уверен Панов.

«Это может быть смартфон, компьютер, телевизор, можно сделать специальный проектор или попытаться внедрить алгоритм в инженерную оболочку робота. Выбор будет зависеть от объема необходимых вычислительных мощностей и характеристик процессора такого устройства», — добавил эксперт из AIRI.

По мнению Федора Дбара из «Кода Безопасности», для достижения целей, которые человечество ставит перед ИИ, его физическая интерпретация не так важна и в принципе необязательно делать гуманоида.

Специалист выразил сомнение в том, что вершина искусственного интеллекта — это создание второго человека, который будет мудрее во сто крат.

«На самом деле вершина ИИ — это передача определенных задач, которые для человека трудны или неудобны. Яркий пример — перевод иностранных языков с ходу. Так ли важно, как такие нейросети будут выглядеть? Вряд ли. Поэтому, скорее всего, мы не увидим, как улицы городов Земли заполоняют роботы — картину, которую часто рисуют в фильмах про будущее», — констатировал Дбар.

Сергей Сженов из «EdgeЦентр» пояснил, что внешняя реализация ИИ не отражает его внутреннюю сложность.

«То есть внешняя составляющая, по сути, дело выбора разработчиков и их предпочтений по использованию конкретной технологии взаимодействия. Думаю, будут представлены разные варианты. Как говорится, на вкус и цвет…» — заметил он.

Оправданны ли опасения критиков ИИ.

Бесконтрольное развитие технологий и опасения на этот счет больше ориентированы на конкуренцию внутри исследовательского сообщества и сообщества разработчиков, где различные игроки стараются занять свою нишу первенства и опередить конкурентов, уверен Александр Панов из AIRI.

«На данном этапе технологической зрелости ИИ больше внимания нужно уделять не опасениям о бесконтрольном развитии, а этике использования достижений современных систем искусственного интеллекта», — заметил специалист.

Панов добавил, что нужно искать пути применения таких систем во благо, разрабатывать правила работы с ними для конечных пользователей и этические кодексы для разработчиков, а также вести масштабную просветительскую и образовательную деятельность.

«Это касается любых технологических решений. В конце концов, даже используя кисть и краски, можно написать шедевр, а можно испортить бумагу», — уточнил он.

Олег Гиацинтов из DIS Group высказался о том, что улучшение ИИ в текущих рамках может привести к бесконтрольному распространению и использованию критичных данных, что может ухудшить ситуацию с безопасностью.

«Что же касается рисков всего человечества, то это возможно в случае изобретения ИИ, способного придумывать вне рамок поставленных задач», — допустил эксперт.

Мнение Илона Маска о рисках неконтролируемого развития ИИ частично разделяет общественность, рассказал Сергей Сженов из «EdgeЦентр».

По его словам, мощные ИИ действительно потенциально могут принимать решения, которые мы не сможем предвидеть и контролировать.

При этом Сженов также обратил внимание на то, что Маск может создавать панику вокруг ИИ, чтобы привлечь внимание к своей компании, которая занимается разработкой безопасных алгоритмов ИИ.

Пока не видно, как бесконтрольное развитие может привести человечество к сценарию из фильма «Терминатор», где ИИ захватывает власть, запускает ядерные ракеты и управляет миром, уверен Дбар из «Кода безопасности».

«Более того, этот сценарий предполагает высокую, практически стопроцентную автоматизацию всего мира, когда некая централизованная система управляет, например, каким-то сегментом инфраструктуры. Но этого нет и близко, причем даже в развитых с точки зрения технологий странах», — пояснил специалист.

По версии Джеффри Хинтона, которого называют крестным отцом ИИ, угроза состоит в том, что, обучившись на всей мировой литературе, ИИ будет обладать фантастической способностью убеждать и сможет принудить человека выполнять свою волю. Но это тоже кажется мало реализуемым, заметил Дбар.

Он высказался за контроль над ИИ, чтобы описать и ограничить случаи использования технологии в неблагих целях. Например, для создания дипфейков, для написания дипломных работ и иного контента, где предполагается работа непосредственно человека.

«Особенно регуляторика актуальна в плане общедоступных материалов в интернете: весь созданный искусственным интеллектом контент должен иметь определенную маркировку, чтобы пользователи могли сразу видеть, что сделал человек, а что — нейросети», — заключил эксперт.