Mail.ruПочтаМой МирОдноклассникиИгрыЗнакомстваНовостиПоискВсе проекты
Источник: Фотоархив ИД «Коммерсантъ»

Deepfake — технология обработки видео, аудио или фотоматериалов с помощью искусственного интеллекта, который способен имитировать мимику и голос реального человека. Согласно недавнему исследованию Deeptrace, с декабря 2018 года количество фейковых видеороликов, созданных при помощи технологии deepfake, выросло с 8 тыс. до 14,7 тыс. Deepfake может оказаться реальной проблемой уже на ближайших политических выборах, ведь с ее помощью злоумышленники смогут заставить фальшивых кандидатов говорить на видео все что угодно. Потому власти, технологические корпорации и ученые объединяют усилия, чтобы бороться с новой угрозой. И у каждого из них свой подход.

Первый вариант борьбы с чем-то опасным и негативным — это запретить его.

В мире уже есть прецеденты создания законов против deepfake — таковыми отметились власти американских штатов Калифорния и Техас. Причем губернатор Калифорнии Гэвин Ньюсом подписал в начале октября сразу два закона в этой сфере. Первый из них запрещает создание и распространение фейковых видео-, аудио- или фотоматериалов с политиками в период за 60 дней до любых выборов. Второй призван защитить рядовых граждан и дает им возможность подавать судебные иски на создателей фейковых материалов, если их изображения были использованы на порносайтах без их ведома.

По данным Deeptrace, 96% фейковых роликов с использованием технологии deepfake приходятся на порнографические материалы.

А жертвами таких роликов могут оказаться как знаменитости, так и обычные люди.

Второй подход — технологический, подразумевающий создание некоей контртехнологии, способной остановить эпидемию deepfake-материалов. Безусловно, Facebook, Twitter, Google и другие интернет-компании могли бы, как и сейчас, стараться просто удалять фейковые видео- и фотоматериалы. Но учитывая стремительное развитие самой технологии и увеличивающееся количество таких материалов, делать это со временем будет все сложнее и в конце концов превратится в невыполнимую задачу. Только на YouTube ежедневно просматриваются около 5 млрд видеороликов. Потому корпорации объединяют свои усилия с учеными.

Так, Google опубликовала примеры использования технологии deepfake, чтобы помочь исследователям с разработкой технологий, способных уловить монтаж на фото или видео. А Facebook, Microsoft и Amazon учредили программу выдачи грантов ученым, работающим над решением этой проблемы. «Если Google или Facebook разработают технологию распознавания deepfake и она будет работать в 95% случаев, то это уже будет лучше, чем-то, что мы имеем сейчас», — цитирует Financial Times профессора Университета Мюнхена Маттиаса Ниснера.— Однако если эта технология в определенный момент перестанет работать, то у них будут огромные проблемы. На месте технологической компании я бы остерегался от выкладывания чего-то, что не работает в 100% случаев.

Наконец, на прошедшей недавно в Лондоне конференции ученых, посвященной изучению поведения людей, профессор психологии Кембриджского университета Сандер ван дер Линден заявил, что лучшим способом справиться с проблемой распространения deepfake будет выработка у людей «мыслительных антител» против дезинформации и выработка «стадного иммунитета». Профессор полагает, что людей стоит обучать созданию фейковых новостей и различного рода материалов, используя для этого обучающие онлайн-игры. «Если вы приходите на шоу фокусов, то в первый раз вас удается обмануть. Но когда люди сами проделывают фокус, то они знают, как это работает», — заявил профессор. Правда, как отмечают другие ученые, при массовом распространении фейковых новостей по ходу такого обучения населения может возникнуть другая проблема — люди перестанут верить в правду вовсе.

Кирилл Сарханянц.