Всюду обман: депутат призвал маркировать созданный ИИ контент

НАУКАОбсудить в телеграм
Всюду обман: депутат призвал маркировать созданный ИИ контент

Это нужно для того, чтобы пользователи сразу понимали, что иллюстрация, видео или аудио сгенерированы нейросетью.

Российский депутат Андрей Свинцов призвал маркировать созданный искусственным интеллектом (ИИ) контент в интернете. По его словам, это нужно для того, чтобы пользователи сразу понимали, что иллюстрация, видео или аудио созданы нейросетью.

«Интернет заполонил контент в виде deepfake — это подмена лиц на видео- и фотоизображениях. Этот контент иногда может быть очень негативным, потому что может компрометировать кого-то», — цитирует депутата портал «Лента.ру».

То же самое касается и различных голосовых помощников с тембрами, созданными нейросетями, так как такие технологии активно развиваются, а через какое-то время человек будет не в состоянии отличить то, чей голос — компьютерной программы или нет.

Ранее представители Российской православной церкви (РПЦ) призвали запретить ИИ с человеческим лицом и призвали обязательно помечать нейросети. По мнению церкви, человек должен понимать, что общается с искусственным интеллектом.

Фото: pixabay.com

Помимо этого, должны быть введены и другие запреты. Так, доступа к нейросетям не должно быть у несовершеннолетних, так как это может повлиять на детскую психику. Также нужна локализация западных нейросетей под российскую инфраструктуру и телекоммуникационные сети, а также адаптация их под российскую этику, ведь она часто отличается от западной.

В Госдуме считают, что эти вопросы как минимум нужно обсудить, а уже потом принимать решения.

Нейросети и всё, что с ними связано пользуются в последнее время популярностью. Современные технологии помогают создавать изображения, видео, музыку, писать коды, управлять целыми системами. Однако помимо этого возникают и этические и правовые вопросы — например, по поводу создания дипфейков.

Дипфейк — это технология, позволяющая с помощью машинного обучения моделировать поведение и внешность человека на видеозаписи. Имя технология получила от сочетания deep learning («глубокое обучение») и fake («подделка»).

Фото: pixabay.com

Фейковые видео могут быть вполне легальными. Лондонский стартап Synthesia занимается созданием видеоаватаров реальных людей. В основном — для корпоративных видеороликов, а также для общения с клиентами и внутреннего обучения. Например, британская компания Ernst & Young (EY) уже использует видеоаватары для общения сотрудников с клиентами вместо личных встреч. При этом компания делает видеоаватары людей, которые дали на это согласие.

В большинстве стран мира четкого регулирования дипфейков не существует, хотя разговоры об их опасности не утихают. В России специального законодательства, связанного с созданными ИИ аудио, фото и видео ещё нет.

А вот в Китае при публикации дипфейков надо ставить специальные пометки, а если этого не сделано, то это уже уголовное преступление.

Есть похожий закон и в штате Калифорния, США — он запрещает публикацию изображений, аудио или видео, которые могут повлиять на восприятие слов или действий политиков и публичных личностей.

В Японии наказывают за дипфейки с порно. В 2021 году там осудили мужчину, который с помощью технологий заменил размытые гениталии (требования японского законодательства) на неразмытые. Это видео он потом продавал.

Между тем, дипфейки уже прочно входят в нашу жизнь. Недавно дипфейковый ролик с Путиным, пытающимся разбудить спящего Байдена, взорвал соцсети. Создано было видео при помощи нейросетей, в кадре — Путин будит «сонного Джо» разными способами, и тот просыпается в весьма неожиданный момент.

Недавно украинский телеканал СТБ с помощью нейросети заменил лицо российского актера, снявшегося в сериале «Последнее письмо любимого». Прохор Дубравин сильно удивился такому повороту событий: его лицо заменили лицом украинского актера Дмитрия Саранскова.

В августе 2021 года в рунете стал вирусным ролик о выборах с министром иностранных дел РФ Сергеем Лавровым, главврачом больницы №40 в Коммунарке Денисом Проценко и министром обороны РФ Сергеем Шойгу. В действительности в съемках ролика они не участвовали, использовались их цифровые копии.

А в 2020 году американская компания RepresentUS выпустила в 2020 году два ролика с цифровыми копиями президента России Владимира Путина и главы КНДР Ким Чен Ына. На видео они демократический строй США и заявляют, что они не будут вмешиваться в президентские выборы. Правда, голос фейкового Путина не похож на настоящий.

Пока технологии не идеальны и выявить дипфейк достаточно просто — где-то лица совсем не похожи, где-то есть размытия и странные движения, а где-то не похож голос.

Ранее «Блокнот» сообщал, что сербский доброволец откровенно рассказал об издевательствах ВСУ над русскими.

В Китае загадочным образом скончались несколько ученых в сфере ИИ: кто избавляется от конкурентов, и почему мир в опасности

«Путину понадобится огромное количество шампанского»: экс-министр иностранных дел Литвы оставил странный пост в соцсетях

Добивают выживших: в Сирии отключили интернет, предсказывают новую резню на побережье

Комментировать
Эту новость прокомментировали раз

Охлобыстин высказался о возвращении Пугачевой в Россию

КУЛЬТУРА

Артистка продолжает жить за границей со своим супругом и детьми.

«Вот и повод есть»: политолог предсказал, когда и где вновь применят устрашающий «Орешник»

В МИРЕ

Эксперт уверен: если Запад пересечёт красную черту, «Орешник» полетит в другую сторону — и это может быть не Киев.

Во Франции установят памятник советским партизанам: как российскому МИДу удалось невозможное

В МИРЕ

После начала СВО Европа ввела по отношению к России санкции и ведет себя крайне недружественно.

«Всё случится очень быстро»: Чан Томас предсказал конец света. Многие считают, что его пророчества уже сбываются

ОБЩЕСТВО

Американец предсказал конец света, а многие считают, что описанное им реально и может сбыться.