Кроме того, разработчики хотят минимизировать риски, связанные с безопасностью персональных данных. Нередки случаи, когда в корыстных целях его использовали мошенники. Между тем, искусственный интеллект активно проникает в жизнь казахстанцев. О перспективах правового регулирования сферы корреспондент BaigeNews.kz поговорил не только с депутатом мажилиса, но и порассуждал на эту тему с экспертом. Подробнее — в нашем эксклюзивном материале.
Искусственный интеллект незаметно, но очень настойчиво входит в нашу повседневную жизнь, считает депутат мажилиса Екатерина Смышляева. А перспективы этой технологии, уверена она, в будущем трудно переоценить. Поэтому парламентарии и решили разработать законопроект, направленный на нормативное регулирование сферы..
«Даже то, что мы видим сегодня уже поражает воображение. Ну, а если искусственный интеллект становится полноправным участником социально-экономических процессов и общественных отношений, необходимо его правильное правовое регулирование. Мы видим, что первые регуляторные инструменты принимаются в мировых юрисдикциях», — рассказывает представитель законодательного органа.
При этом в нашей республике, по ее словам, все регуляторные стандарты по работе технологий искусственного интеллекта принимаются в основном на уровне подзаконных нормативно-правовых актов.
«В части развития самой технологии все происходит по пути роста инноваций. Здесь особенностей мало. А вот использование решений в повседневной отраслевой жизни — это уже задача из будущего. Именно здесь можно сказать, что на уровне законов регулирование пока минимальное. Сейчас в рамках проекта закона об управлении большими данными мажилис работает над первыми нормами. При этом нужно отметить, что мы придерживаемся подходов “мягкого права”, поскольку технология достаточно новая и чувствительная к регуляторному воздействию», — отмечает депутат.
Екатерина Смышляева выделяет несколько задач, которые планируют решить в этом законопроекте мажилисмены. Во-первых, это маркировка контента, созданного искусственным интеллектом. По словам депутата, подобное обязательство для автоматизированных систем уже есть в действующем законодательстве, однако учитывая новые реалии, над ним необходимо поработать..
«Почему это важно? Потому что потребитель контента имеет право знать, кто работал над текстом, произведением искусства, решением задачи. От этого будет формироваться справедливая оплата за услугу, распределяться ответственность, определяться ее мера. Это также формируют культуру авторов алгоритмов и постановщиков задач для искусственного интеллекта. Непростая функция, нужно сказать. Обязательства по маркировке, безусловно, важны для системы интеллектуального права», — считает Екатерина Смышляева.
При этом, если речь идет о так называемых дипфейках, то маркировка позволит иметь представление даже о самых безобидных розыгрышах.
«Ведь дипфейки не всегда связаны с криминалом и мошенничеством, но само по себе вольное использование биометрических (чувствительных персональных) данных уже вызывает вопросы», — поясняет мажилисвумен.
Следующая задача, продолжает представитель депутатского корпуса, управление политикой в области искусственного интеллекта. Учитывая, что технология новая, применять к ней классические регуляторные инструменты, уверена Екатерина Смышляева, не представляется возможным.
«Многие вещи невозможно оперативно менять на уровне законов. Вместе с тем, оценка рисков, прогнозирование эффекта от внедрения, в том числе экономического, должны быть постоянными. Особенно в части отраслевых решений. Например, искусственный интеллект уже активно используется в системе здравоохранения, ЧС, образовании и других. Однако границы этих внедрений необходимо выставлять оперативно и объективно. Поэтому на уровне законов обсуждается возможность наделения уполномоченного органа компетенциями по разработке политики в области ИИ», — делится депутат.
Однако для полноценного развития технологий искусственного интеллекта, отмечает она, очень важно навести порядок с большими данными.
Важно систематизировать их сбор и хранение, а после и обеспечить регламентированный доступ к ним компаний, работающих с технологией..
«И здесь в нормотворчестве есть оперативные задачи, а есть фундаментальные, связанные с рождением новых цифровых категорий и сущностей. Например, нужно определиться с правовой природой самих данных и собственностью на них», — рассказывает Екатерина Смышляева.
С этим предстоит определятся не только депутатам и правительству, но и ученым-правоведам.
К слову, с развитием искусственного интеллекта обнажились и проблемы безопасности больших данных. И речь, по словам депутата, не только об алгоритмах хранения, передачи и их обработки, но и работе информационных систем в целом. То есть об информационной безопасности.
«Это отдельная ветка обсуждения. В этом направлении уже многое сделано, но этого недостаточно», — отмечает представитель депутатского корпуса.
Законотворцы намерены и предотвратить использование технологий в преступных и корыстных целях.
«Мы все являемся свидетелями того, как преступники заговорили голосами наших близких или проходят биометрическую идентификацию по поддельным лицам. Мошеннические схемы значительно обогатились за счет новой технологии. Это уже предмет уголовного права. Вопрос в контексте киберпреступлений недавно обсуждали в мажилисе. В самое ближайшее время нам предстоит работать над изменениями в законодательстве. С появлением первых регуляторных норм в законах, появится ответственность за их нарушение», — говорит депутат.
Будут ли это отдельные составы или общие нормы, какими они будут, пока обсуждается.
К слову, само регулирование искусственного интеллекта, отмечает Екатерина Смышляева, по сути правовые эксперименты. Причем они еще не завершены. Поэтому универсальной регуляторной модели, которую можно было перенять, пока нет.
А парламентариям уже в ближайшее время все же предстоит выработать национальную регуляторную модель для работы искусственного интеллекта в Казахстане. От того, какой она будет с одной стороны зависит прогресс развития, с другой — безопасность. Поэтому депутаты готовы искать оптимальные решения, заключила парламентарий.
Недавно министерство цифрового развития, инноваций и аэрокосмической промышленности разработало концепцию развития искусственного интеллекта на 2024−2029 годы. Это в своем роде первый документ, который описывает стратегическое видение сферы в нашей стране. Кроме того, отраслевое ведомство работает над дорожной картой. Пока над ними продолжают работать.
«Эти документы предусматривают подходы использования искусственного интеллекта, развития человеческого капитала и технологической инфраструктуры. На текущем этапе в части нормотворческой деятельности министерством совместно с представителями академического сообщества, индустрии, государственных органов и общественности проводится изучение международного опыта и лучших практик в области регулирования ИИ, в целях разработки и внедрения наиболее эффективных и сбалансированных нормативных актов», — сообщили в МЦРИАП.
В профильном ведомстве пояснили, что анализируют потенциальные риски и возможности, которые будут способствовать развитию и эффективному использованию искусственного интеллекта в Казахстане. А еще соответствовать стандартам информационной безопасности, защиты персональных данных, этики и прав человека.
Медиаменеджер Алёна Горбачёва уже несколько лет активно изучает и экспериментирует с нейросетями. В частности, с чат-ботом GPT. Мы решили адресовать ей вопрос о том, нужно ли регулировать развитие сферы искусственного интеллекта. Эксперт также отмечает, что сейчас в мире активно идет дискуссия о том, насколько вообще необходимо регулирование на этом этапе.
Она приводит в пример один из принципов, который заявлен в том же проекте Концепции развития ИИ в Казахстане. Так, в документе говорится, «сначала технология, потом регулирование». Авторы, продолжает эксперт, считают, что низкий уровень регулирования дает технологическое преимущество.
«С этим не поспоришь, но есть ведь и другая сторона. Без регулирования технология, которая на самом-то деле ещё не получила широкого распространения, уже привела к валу фейков, дезинформации и манипуляций, которые не раз порождали панику. Вспомните сгенерированное ИИ-фото якобы атаки на Пентагон в мае прошлого года, оно тогда обрушило финансовые рынки. Поэтому, думается, что регулировать ИИ надо уже сейчас», — уверена Алёна Горбачёва.
По ее мнению, необходимо найти тонкий баланс между защитой прав общества и поддержкой технологического прогресса. А это трудно. Она приводит в пример, принятый недавно первый в мире закон, регулирующий искусственный интеллект. Он, по словам медиаэксперта, предусматривает различные меры защиты общества от последствий использования технологии — от маркировки изображений, созданных нейросетями, до полного запрета некоторого контента.
«И всё вроде бы отлично, но европейские технокомпании, например, этим законом отчасти разочарованы, потому что считают, что он может ограничить их развитие на мировом рынке. Поэтому при регулировании важно разработать гибкие нормативные рамки. Например, ввести дифференцированное регулирование по уровню риска. Более строгие меры применяются к ИИ системам с высоким уровнем риска, а менее строгие — к системам, потенциально несущим меньшую угрозу. Также крайне важно определить рамки для обеспечения прозрачности и этичности в разработке и использовании ИИ», — отмечает Алёна Горбачёва.
По её мнению, маркировать контент, созданный искусственным интеллектом нужно обязательно. Причем делать это необходимо, подробно описывая, какой конкретно объём работы был им выполнен.
«Возьмём, к примеру, текст. Вы можете сами его написать, а ИИ выступит лишь в качестве редактора, корректора, генератора идей. Или этот же текст может быть полностью написан ИИ, а участие человека будет ограничено лишь созданием промпта (запроса). И это сильно разные истории. Поэтому уточнение очень важно. Знаю одно казахстанское издание, которое уже практикует такую маркировку. У них выходят тексты, полностью написанные ИИ, но с подробными дисклеймерами, какой инструмент был использован, какой промпт вводил редактор, сколько раз его уточнял. Отличный пример для рынка», — считает медиаменджер.
По её мнению, маркировка поможет не только укрепить доверие и повысить прозрачность, но и дает основу для более информированного восприятия и критического анализа контента со стороны аудитории.
Что касается возможных рисков и важности защиты персональных данных пользователей, то, как правило, отмечает Алёна Горбачева, большинство казахстанцев не владеют даже азами кибергигиены. Поэтому в условиях не всегда адекватно работающей системы защиты данных это порой приводит к трагедиям, когда личная информация утекает в сети и попадает в руки мошенников.
«Надо повышать осведомленность пользователей о практиках по защите данных. Ну и опять же, нужны четкие правила и нормы, регулирующие сбор, использование и хранение данных. Эти нормы могли бы стать частью профильного закона», — уверена она.
Мы также попросили её поделиться своим мнением о проекте Концепции по развитию искусственного интеллекта, разработанном профильным министерством. И здесь медиаэксперт обратила внимание на то, что в перечне отраслей экономики для внедрения ИИ в Казахстане, например, нет медиа. При этом, подчеркивает Алёна Горбачёва, это одна из динамично развивающихся сфер в плане внедрения технологии.
«Я не вижу в проекте концепции планов по массовому информированию и просвещению населения по теме ИИ. В ожидаемых результатах заложено “прохождение не менее 80 тысячами человек общедоступного обучающего курса по искусственному интеллекту к 2029 году”, но что такое 80 тысяч, обученных за 5 лет? Это ничтожно мало. Возможно, имеет смысл включить тему повышения осведомленности об ИИ в государственную информационную политику. Это вопрос не только цифровой грамотности населения, но и национальной безопасности. Чтобы критически осмыслять информацию аудитория должна быть информирована о том, как работают алгоритмы ИИ, какие потенциальные риски они несут, как можно защитить себя», — продолжает эксперт.
В целом, во всём мире всё ещё продолжают искать возможные пути регулирования искусственного интеллекта. При этом мало в каких странах разработаны полноценные стратегии и законы. Так, по словам Алёны Горбачёвой, США все еще работают над своим подходом к регулированию. А некоторые штаты уже приняли законы, ограничивающие использование ИИ в работе полицейских при расследовании дел. А также в работе менеджеров по подбору персонала.
В той же Поднебесной в прошлом году ввели правила по маркировке контента, созданного ИИ. Он не должен нарушать конфиденциальность данных и права на интеллектуальную собственность.
Принять же один универсальный свод правил и потом просто контролировать, как он исполняется, не получится, заключает медиаэксперт. Поскольку эта сфера активно развивается. Поэтому придётся и далее адаптировать, а еще совершенствовать методы регулирования.