Дипфейки — убедительные фальшивые видео — могут испортить жизнь отдельным людям и даже спровоцировать политический кризис.
Для их создания используется искусственный интеллект, так что логично применить ИИ и для борьбы с подделками. Программу разработки алгоритмов-разоблачителей запустило исследовательское подразделение Минобороны США.
Эксперты по ИИ-технологиям обеспокоены ростом количества дипфейков — убедительных фальшивых видео, созданных алгоритмами машинного обучения. Злоумышленники могут использовать их для распространения дезинформации или травли людей в интернете, а при худшем сценарии такая фальшивка способна спровоцировать мировой политический кризис.
В борьбу с дипфейками включилось Управление перспективных исследовательских проектов Министерства обороны США (DARPA). Ведомство запустило программу по созданию детектора фальшивых видеозаписей.
При создании большинства дипфейков нейросеть меняет лицо человека на реальной видеозаписи на лицо политика или другой знаменитости. Особенно эффективны алгоритмы, известные как генеративные состязательные сети — они учатся на реальных данных и конкурируют между собой, производя все более достоверные подделки. Созданные ими видео могут быть такими убедительными, что редактору остается внести лишь несколько правок, чтобы фальшивка в глазах массовой аудитории сошла за подлинник, сообщает Technology Review,
Однако экспертам удалось обнаружить у дипфейков ряд существенных недостатков. Например, оказалось, что люди на таких видео моргают очень редко и неестественно или не моргают вовсе. Причина в том, что нейросеть учится на статичных изображениях, которые показывают человека с открытыми глазами.
Среди других меток, указывающих на фальшивку, — странные движения головы, необычный цвет глаз и другие физиологические сигналы. Специалисты DARPA намерены создать ИИ, который будет учитывать такие метки и выявлять видеофейки.
Пентагон привлек к разработке ученых их различных университетов США. Так, исследователи из Университета штата Нью-Йорк уже создали алгоритм, который выявляет фальшивки по морганию.
К сожалению, создатели подделок могут дополнить свои технологии в попытке сделать их неуязвимыми для ИИ-разоблачителей. Например, скормив нейросети изображения людей с закрытыми глазами, можно создать видео, где они будут убедительно моргать. В любом случае, говорить о скорой окончательной победе над дипфейками не приходится — скорее, о начале гонки информационных ИИ-вооружений.
Источник: hightech.plus
Подписывайтесь на канал «Хвилі» в Telegram, страницу «Хвилі» в Facebook.