Что нужно знать о выявлении Deepfakes (синтез подделок с использованием ИИ)

топ 100 блогов erd_sol15.08.2021 Что нужно знать о выявлении Deepfakes (синтез подделок с использованием ИИ)
У каждой новой технологии есть темная сторона.

Однако не вся истерия, связанная с технологией deepfake, является незаслуженной, согласно недавнему исследованию, опубликованному в блоге UCL, в котором утверждается, что deepfakes представляют самую серьезную угрозу для общества с использованием искусственного интеллекта.

И они могли бы стать особенностью, а не ошибкой современного мира.

Технология Deepfake становится все более доступной

Недавно ФБР предупредило лидеров отрасли, что синтетические медиа, созданные с помощью искусственного интеллекта, представляют серьезную угрозу, считая deepfakes заманчивым средством для плохих игроков, склонных к фишингу или запуску кампаний социальной инженерии. Нина Шик, эксперт по глубоким подделкам, считает, что гиперреалистичные видео, аудиофайлы и изображения, отображаемые в синтетических медиа, созданных искусственным интеллектом, станут общими чертами мира, а это означает, что нашим слабым человеческим способностям нужно лучше отличать подделки от реальной сделки.

Это звучит правдоподобно в свете продолжающейся коммерциализации всего (например, deepfakes), в которой такие приложения, как FaceSwap, FaceApp, Avatarify и Zao, распространяются по всему миру, достигая глаз и ушей потребителей и плохих игроков, одинаково. На момент написания статьи весь контент в этих и аналогичных приложениях защищен Первой поправкой Соединенных Штатов, но, возможно, самая определяющая особенность этой страны (поправки к конституции), возможно, не предполагала потенциальной опасности подделок, которые атаковали политиков, организации и даже обычных граждан. В марте 2019 года киберпреступники обманом заставили генерального директора энергетической компании Великобритании перевести 243 000 долларов венгерскому поставщику с помощью поддельного аудиофайла.

В 2020 году юрист из Филадельфии стал жертвой атаки с подменой звука, а в 2021 году российские шутники одурачили европейских политиков атакой, которая якобы началась с видео deepfake. Хотя автоматическое обвинение старых соперничающих наций является самым простым средством, оно также является наиболее ошибочным: вам не нужно работать на иностранное правительство, чтобы хотеть усилить недоверие к медиа-контенту. И по мере того, как синтетические медиа станут более доступными (и убедительными) для всех, будет только труднее понять, какой контент является подлинным, а какой ведет нас в другое место. В любом случае, долгосрочные последствия повсеместных фейков в средствах массовой информации могут усугубить социальный ущерб, уже причиненный за последние несколько лет социально-политическими бедствиями, которые, хотите верьте, хотите нет, коренным образом изменили общество, каким мы его знаем.

Deepfakes может стать особенностью медиаконтента

Многие потребители интернет-контента уже практикуют то, что вы могли бы описать как "неверие по умолчанию", когда скептицизм растет, затмевая саму возможность доверия в умах обычных людей. С одной стороны, это может сработать в пользу нечестных или коррумпированных политиков и корпоративных лидеров с социальными амбициями. С таким количеством дезинформации в наших временных рамках те, у кого есть хоть капля известности, могут отклонить информацию, которая им не нравится, объявив ее "фальшивыми новостями" или, в качестве альтернативы, двусмысленной информацией, которая им не нравится, с помощью какого-то другого, более знакомого социального антагонизма, который сам по себе может быть или не быть реальным. Это особенно тревожно, когда политики отклоняют обоснованную критику, ложно утверждая, что она проистекает из другого (опять же, потенциально вымышленного) антагонизма или может быть субъективно связана с ним, что может привести общественность к скептическому отношению к другим, абсолютно опасным и очень реальным социальным антагонизмам. Например, изменение климата.

К счастью, по данным ФБР, у нас не совсем нет вариантов. Глубокие подделки могут быть обнаружены по искажениям, окружающим зрачки или мочки ушей лица. Вы также можете заметить причудливые движения головы и туловища, в дополнение к синхронизации различий между звуком и связанными с ним движениями губ. Фон также может подвергаться искажениям, таким как нечеткие или размытые фигуры. Наконец, профили в социальных сетях с почти одинаковым расстоянием между глазами на широком спектре разрозненных изображений, вероятно, вызывают подозрение. Но первое правило о deepfakes таково: не существует единого набора типов, потому что они всегда меняются. Но со временем мы, возможно, сможем мысленно "фильтровать" старые фейки, как это уже делают некоторые из нас при использовании обычных носителей. Это может включать в себя взятие в скобки повторяющихся фраз и настроений, а также рассмотрение возможности мотивации, которая, вероятно, лежит в основе содержания. И, как всегда, мы можем не забыть спросить себя: кому это выгодно?

Источник: https://interestingengineering.com/what-you-need-to-know-about-identifying-deepfakes

Оставить комментарий

Архив записей в блогах:
Попробую объяснить буквально на уровне элементарной арифметики начальных классов школы, почему именно как минимум европейские страны НАТО находятся сейчас в "энергетическом цугцванге" -- за пределами обычной волны в инфополе о "планах стран НАТО по наращиванию производства вооружений" ...
#мышь #сапог #рыба #кукушка #змея #тест #старение #мозг #япония ...
Вчера на фронтах, несмотря на довольно мощную попытку прорыва нашей обороны на Ореховском участке, было относительно затишье. А вот утром мы нанесли небольшой, но очень чувствительный удар несколькими «шахидами» по порту Измаила и временно вывели его из строя. ...
Я красивая. У меня пышные женственные формы. Эти формы колышутся и колыхаются, когда я хихикаю, и доставляют массу восхитительных эстетических моментов, когда бегу. Глаза окружающих в момент пробежки неотрывно прикованы к D, который ближе к E. Они (глаза) взмывают вослед его колыханиям ...
Приехала поддержать жертв урагана. ...