МОСКВА, 11 декабря. /ТАСС/. Российские разработчики создали инструменты, которые защитят от «отравления» базы данных, используемые для обучения систем на основе искусственного интеллекта (ИИ). Это сократит риски нарушения работы таких решений и повысит устойчивость к кибератакам, сообщил ТАСС академик Арутюн Аветисян, директор Института системного программирования им. В. П. Иванникова (ИСП) РАН.
«Отравление» обучающих данных используется киберпреступниками для нарушения работы ИИ-систем. Это, к примеру, приводит к тому, что сервис начинает выдавать ложные положительные или отрицательные результаты.
«В Исследовательском центре доверенного искусственного интеллекта ИСП РАН с привлечением сотрудников РАНХиГС разработан набор тестовых данных SLAVA для оценки корректности алгоритмов ценностного анализа и созданы инструменты для защиты от “отравления” обучающих данных и противодействия состязательным атакам. Сотрудники центра также создали доверенные версии базовых фреймворков для работы с ИИ», — сказал Аветисян корреспонденту ТАСС в кулуарах открытой конференции ИСП РАН, которая проходит в Москве 11−12 декабря.
Говоря о проблеме ошибок ИИ, академик указал на то, что генеративные модели будут применяться все шире, поэтому актуальность поиска инструментов защиты подобных систем также будет расти.
«Безусловно, опасны и ошибки ИИ, и его зловредное применение. Уже сейчас известны примеры мошенничества с использованием фейковых видео, принесших ущерб на миллионы долларов, а также судебные решения, написанные ИИ на основе не существовавших прецедентов. Отказаться от искусственного интеллекта нельзя — это только приведет к отставанию. Надо строить доверенные ИИ-системы, опираясь на передовые научные разработки», — добавил он.