Danycom

В России научили нейросеть определять фейки на видео с точностью более 90%

отметили
47
человек

МОСКВА, 21 ноября. /ТАСС/. Российские разработчики, участвующие в программно-образовательном интенсиве «Архипелаг 20.35» для специалистов в области искусственного интеллекта, создали сервис распознавания технологий «фальшивых» лиц (deepfake) на видео при помощи нейросетей. Об этом ТАСС сообщили в субботу в пресс-службе Национальной технологической инициативы.

Технологии deepfake («глубинное обучение» и «подделка»), используемые, к примеру, в мобильных приложениях, позволяют отредактировать видео, изменив внешность людей в кадре. Это может быть замена лица автора видео на лицо знаменитости или, наоборот, добавление лица пользователя в сцену из какого-либо знаменитого фильма. Развитие подобных технологий сопряжено с появлением «фейковых» материалов, поэтому ученые сейчас ищут эффективные методы выявления «фальшивых» лиц. Авторы работы смогли создать технологию анализа подобных видео при помощи нейросети.

«В рамках интенсива „Архипелаг 20.35“ представили разработку на основе нейросети, которая позволяет быстро определять признаки технологий deepfake с точностью более 90%. Проект создает российская компания VIEN. В перспективе сервисом смогут пользоваться медиакомпании, новостные и PR-агентства, которые нуждаются в проверке (фактчекинге) информации, а также обычные пользователи, сомневающиеся в подлинности видеороликов», — сказали ТАСС в Платформе НТИ.

Технология Fake Video Detection Service (FVDS, «сервис распознавания видеофейков») основана на моделях компьютерного зрения для покадровой оценки и классификации объектов. С помощью нейронной сети система оценивает характеристики лиц на видео и определяет признаки синтетической генерации образов. В случае обнаружения таковых, лицо на экране будет выделено красной рамкой как «фальшивое».

«Технологически наше решение представляет из себя настроенный процесс поточной загрузки видеоконтента, разделения на кадры, блока применения моделей для Fake Video Detection и последующей сборки в итоговое видео», — приводит пресс-служба Платформы НТИ слова технического директора VIEN Максима Попилина.

Авторы технологии создали и испытали прототип системы анализа видео. В случае объединения с инвестором и технологическими партнерами разработчики планируют вывести сервис на рынок в течение следующих двух дет.

Об интенсиве

Проектно-образовательный интенсив «Архипелаг 20.35» проходит с 7 по 21 ноября в режиме онлайн. Цель события — формирование и акселерация команд, способных создавать и коммерциализировать проекты в области искусственного интеллекта и анализа данных.

По подсчетам организаторов, в акселераторе примут участие почти 4 тыс. человек. Для них организаторы подготовили образовательные программы по 26 направлениям развития технологий ИИ. Пятерку городов по наибольшему количеству представителей на интенсиве составляют Москва, Томск и Санкт-Петербург, а также Новосибирск и Ростов-на-Дону.

В число организаторов события входят АНО «Платформа НТИ», Агентство стратегических инициатив, Фонд содействия инновациям, фонд «Сколково» и Университет НТИ «20.35». Партнерами интенсива выступают Минобрнауки и Минэкономразвития, правительство Москвы, Фонд инфраструктурных и образовательных программ (ФИОП) группы «Роснано», Российский квантовый центр, а также ряд вузов и компаний. По итогам программы 100 команд могут получить ускоренную финансовую поддержку Фонда содействия инновациям по программе «Старт-ЦТ» — до 3 млн рублей на проведение НИОКР, претендовать на упрощенное оформление заявки на резидентство фонда «Сколково».

Добавил waplaw waplaw 21 Ноября
Комментарии участников:
condrat
+3
condrat, 22 Ноября , url

Неужели применение заимствования «фейк» вместо «фальшивка», повышает солидность информации? Сообщение интересно само по себе, это действительно мощное применение математической теории распознавания образов.

waplaw
-1
waplaw, 22 Ноября , url

Согласен с вами по поводу терминов. Но считаю, что 90% это не тот уровень достоверности, который позволяет использовать данную программу в качестве инструмента в судебной экспертизе. Вот когда будет 100% научно подтверждённых данных исследования, признанных научным сообществом, можно будет праздновать победу. И только тогда данная технология может быть использована в экспертных исследованиях подлинности видео для судебной экспертизы.

Ребятам успехов и пожелание довести технологию до результата 100%.

Occ
-2
Occ, 22 Ноября , url

Да там простой алгоритм. ИИ смотрит в угол видео, и если там значок тв канала, типо Рен ТВ или первого канала — точно фейк))



Войдите или станьте участником, чтобы комментировать