Фейковые Путин и Том Круз: кто и для чего создает дипфейки, и как они могут навредить

ТехнологииПрокомментируйте новость
Фейковые Путин и Том Круз: кто и для чего создает дипфейки, и как они могут навредить

«Блокнот» рассказывает о современных технологиях и предупреждает, что использовать их могут мошенники.

В современном мире никого не удивишь фотографией, обработанной с помощью фотошопа, — политики таким образом убирают дорогие часы, а звезды — лишние килограммы. А вот видео с цифровым двойником — новый тренд, «Блокнот» рассказывает, кто и зачем использует подобные технологии.

Дипфейк — это технология, позволяющая с помощью машинного обучения моделировать поведение и внешность человека на видеозаписи. Имя технология получила от сочетания deep learning («глубокое обучение») и fake («подделка»).

Фейковые видео могут быть вполне легальными. Лондонский стартап Synthesia занимается созданием видеоаватаров реальных людей. В основном — для корпоративных видеороликов, а также для общения с клиентами и внутреннего обучения. Например, британская компания Ernst & Young (EY) уже использует видеоаватары для общения сотрудников с клиентами вместо личных встреч.

 Дипфейк  — это технология, позволяющая с помощью машинного обучения моделировать поведение и внешность человека на видеозаписи. Фото: pixabay.com
Дипфейк — это технология, позволяющая с помощью машинного обучения моделировать поведение и внешность человека на видеозаписи. Фото: pixabay.com

Видео создаются на основе записи человека, где он запечатлен с разных ракурсов — алгоритмы учатся на данных о мимике и голосе человека, чтобы затем их скопировать. Цифровая копия может воспроизвести текст любого объема, а также на разных языках — это помогает в общении с иностранными партнерами. В Ernst & Young делают копии только тех сотрудников, которые дали на это согласие.

А что закон?

Эксперты уверены, что через 10-15 лет сгенерированные нейросетями видео станут повседневными. Правда, есть опасность, что такие ролики будут использовать мошенники. В фантастических фильмах уже показано такое — в блокбастере Федора Бондарчука «Вторжение» дипфейки использовали инопланетяне, чтобы натравить землян на главную героиню картины.

В большинстве стран мира не существует четкого регулирования дипфейков, хотя об их опасности говорят повсеместно.

В Китае с 2020 года запрещено публиковать дипфейки без специальных пометок, это считается уголовным преступлением. Похожий закон принят в штате Калифорния — он запрещает публиковать аудио, видео и изображения, которые могут повлиять на восприятие слов или действий политиков.

В ряде стран за дипфейк без пометки могут наказать. Фото: pixabay.com
В ряде стран за дипфейк без пометки могут наказать. Фото: pixabay.com

В России есть закон о фейках, теоретически он может быть распространен и на фейковые видео, но только в том случае, если информация, распространяемая с его помощью, угрожает жизни, здоровью, безопасности, общественному порядку, а также работе важных объектов (например, транспорта, больниц и банков).

В Японии наказывают за дипфейки — в октябре 2021 года там возбудили уголовное дело за создание дипфейк-порно. Мужчина с помощью технологий заменял размытые гениталии (такое требование есть в японском законодательстве) на неразмытые, а получившиеся видео продавал. Японец заработал почти $100 тыс., но теперь у него проблемы с законом.

Дипфейки уже ближе, чем кажется

Дипфейки активно используют во всем мире во время презентаций, а также в индустрии развлечений. Например, компания Nvidia во время одной из презентаций использовала технологии подмены образа генерального директора Дженсена Хуанга. Его заменили на 14 секунд и зрители так и не узнали бы об этом, если бы компания сама не рассказала.

В TikTok стали популярными ролики с цифровой копией Тома Круза, созданной искусственным интеллектом. Их разработал бельгийский специалист по визуальным эффектам Кристофер Уме, который основал собственную студию дипфейк-технологий Metaphysic. Студия создает различные визуальные эффекты для крупных заказчиков.

В августе этого года в рунете стал вирусным ролик о выборах с министром иностранных дел РФ Сергеем Лавровым, главврачом больницы №40 в Еоммунарке Денисом Проценко и министром обороны РФ Сергеем Шойгу. В действительности в съемках ролика они не участвовали, использовались их цифровые копии.

В 2020 году в Великобритании жителей страны с новым годом поздравляли сразу две королевы. Настоящая произнесла речь на BBC, а фейковая — на канале Channel 4. Руководство канала заявило, что их акция призвана проинформировать людей о том, как далеко вперед продвинулись современные технологии, и как широки стали их возможности для дезинформации.

Американская компания RepresentUS выпустила в 2020 году два ролика с цифровыми копиями двух мировых лидеров - президента РФ Владимира Путина и главы КНДР Ким Чен Ына. В роликах политические деятели критикуют демократический строй США и заявляют, что они не будут вмешиваться в президентские выборы. Правда, голос фейкового Путина не похож на настоящий.

В 2018 году в интернете появилось поддельное видео с Бараком Обамой, который критиковал действующего на тот момент президента США Дональда Трампа. Роль Обамы в действительности исполнил комик и режиссер Джордан Пил.

Как выявить дипфейк

Но кроме развлечений, такие видео могут быть использованы мошенниками — например, для шантажа или введения в заблуждение.

«Пока технология не идеальна. Искусственный интеллект не умеет создавать 3D-модели лиц, а лишь работает с двухмерными изображениями — пытается их повернуть, изменить размер или исказить и так далее, — отметил Павел Коростелев, эксперт компании «Код безопасности». — Стоит обращать внимание на различные артефакты изображения: мерцания, слишком гладкую кожу, явное искажение границ. Microsoft представила для этого инструмент Video Authenticator».

В «Лаборатории Касперского» также советуют обращать внимание на характерные признаки подделки: неровные движения, перемены в освещении соседних кадров, различия в оттенках кожи. Если человек на видео моргает странно или не моргает вообще, то велика вероятность того, что это фейк. Также признаками дипфейка являются плохая синхронизация движения губ с речью и цифровые артефакты в изображении — например, излишняя пикселизация.

Ранее «Блокнот» рассказывал о том, что власти определились с фейками о коронавирусе, за которые будут карать россиян. Среди них — искажение статистики, ложь о смертях после прививки, а также теории заговора и чипизация населения с помощью вакцин. За распространение такой информации физическим лицам и СМИ будет грозить уголовная ответственность и административные штрафы. Мониторингом соцсетей и мессенджеров сейчас занимается Росздравнадзор — посты антипрививочников ищут в популярных соцсетях.

Два стула, глобальная прослушка и критика Штатов: главное из интервью Дурова Такеру Карлсону

Все регионы России подключились к мобильному приложению «Заступник»

В Санкт-Петербурге задержали доцента вуза с флагом Украины на аватарке

Комментировать
Эту новость прокомментировали раз

Как закончится СВО: шесть сценариев завершения конфликта

В МИРЕ

Чем может завершиться специальная военная операция.

Плохая примета: Зеленский посетил Часов Яр

ОБЩЕСТВО

Нелегитимный президент Украины побывал на командном пункте обороняющей город бригады ВСУ.

Тайна стамбульских соглашений: Украина должна была вступить в НАТО

В МИРЕ

О гарантиях безопасности, которые содержал проект соглашения между Россией и Украиной, представленный в Стамбуле, рассказал глава МИД РФ Сергей Лавров.

Нанесены удары баллистическими ракетами по Одессе

В МИРЕ

Предварительно была проведена разведка с помощью БПЛА.

На фоне скандалов с мигрантами уволили ректора Института им.Пушкина, где приезжие сдавали экзамены по русскому языку

ОБЩЕСТВО

Министерство образование и науки РФ сообщило, что с должности руководителя вуза снята Наталья Трухановская, исполняющим обязанности назначен Никита Гусев.

Прыгнул в толпу и приземлился на лицо девушке: на концерте Гуфа произошел скандал

КУЛЬТУРА

Неадекватный поклонник едва не спровоцировал массовую драку

array(10) { [0]=> string(7) "1281301" [1]=> string(7) "1281847" [2]=> string(7) "1281897" [3]=> string(7) "1280238" [4]=> string(7) "1281741" [5]=> string(7) "1280789" [6]=> string(7) "1280434" [7]=> string(7) "1281527" [8]=> string(7) "1280962" [9]=> string(7) "1281376" }