
«Один из самых тревожных аспектов — уязвимость личных данных пациентов. Так, самые сокровенные переживания, страхи и травматические ситуации человека, доверенные алгоритму, могут оказаться в руках злоумышленников или даже недобросовестных корпораций. Даже обезличенная информация порой может поддаваться деанонимизации, превращаясь в инструмент манипуляции или дискриминации», — отметила Орлова.
Помимо этого, эксперт подчеркнула, что ИИ не способен оценить невербальные проявления и не обладает эмпатией, что может привести к неверной интерпретации эмоционального состояния пациента и, как следствие, к неадекватным советам. Психолог также обратила внимание на возможную предвзятость алгоритмов, основанных на данных, созданных людьми, и, следовательно, подверженных стереотипам и дискриминации.
«Человек может начать воспринимать искусственный интеллект как панацею, откладывая визит к живому специалисту даже в серьёзных случаях… Возможно, оптимальный путь — не противопоставление, а гармоничное сочетание искусственного интеллекта и профессионализма специалистов психологов и психотерапевтов, где технологии служат инструментом, но не заменяют живое участие», — заключила психолог.
Специалисты рекомендуют ответственно подходить к выбору методов психологической помощи и учитывать потенциальные риски, связанные с использованием ИИ.
Ранее Правительство Российской Федерации приняло решение о создании Центра развития искусственного интеллекта. Вице-премьер Дмитрий Григоренко сообщил, что новая структура будет заниматься внедрением технологий искусственного интеллекта в различные сферы экономики и государственного управления. В задачи Центра войдут отбор и распространение лучших ИИ-решений, координация усилий государственных органов, регионов и бизнеса, а также методологическая поддержка и развитие международного сотрудничества.