
В докладе «ИИ 2027» прописан сценарий, в котором оцениваются риски в случае, если системы искусственного интеллекта перерастут интеллектуальный уровень человека. Авторы работы — исследователи OpenAI Даниэль Кокотайло (покинул компанию в прошлом году) и Илай Лифланд уверены, что это может произойти в ближайшие годы.
В докладе экспертов представлен сценарий, когда вымышленной компании удалось создать мощную ИИ-систему «Агент-1». По мере своего совершенствования в области кодирования система автоматизирует все больше инженерных задач компании. Это, в свою очередь, приводит к созданию новой, еще более совершенной системы искусственного интеллекта «Агент-2». К 2027 году компания выводит в мир «Агента-4», который каждую неделю демонстрирует все новые прорывные достижения, но при этом появляется угроза его неконтролируемого развития.
Доклад «ИИ 2027» вызвал критику со стороны ряда экспертов. В частности, Али Фархади, исполнительный директор Института искусственного интеллекта Аллена, выразил свое разочарование, отметив, что прогноз, представленный в документе, не подкреплен научными данными и не отражает текущие тенденции в развитии искусственного интеллекта. При этом известно, что A.I. Futures Project потратила около года на подготовку данного доклада.
The New York Times пишет, что взгляды Кокотайло на ИИ можно назвать экстремальными. Они связаны с философией эффективного альтруизма, которая сегодня популярна среди ученых, предупреждающих о негативных последствиях развития ИИ. В 2024 году исследователь заявил, что вероятность того, что искусственный интеллект уничтожит или нанесет катастрофический вред человечеству, составляет 70%. Однако, отмечает The New York Times, некоторые из казалось бы невероятных прогнозов, касающихся ИИ, сбылись. Например, прохождение машинами теста Тьюринга. Кроме того, за год до появления ChatGPT, в 2021 году, Даниель Кокотайло в своем блоге изложил прогноз развития ИИ, часть заявлений эксперта впоследствии подтвердилась.