» » Приведет ли технология «DEEPFAKE» на совершенно новый антихистский уровень обмана?

Приведет ли технология «DEEPFAKE» на совершенно новый антихистский уровень обмана?

43


Приведет ли технология «DEEPFAKE» на совершенно новый антихистский уровень обмана?


Перевод и редактирование: http:///

Недавно журнал Forbes подробно описал «важное и опасное новое явление в искусственном интеллекте: дипфейки. Технология Deepfake позволяет любому, у кого есть компьютер и подключение к Интернету, создавать реалистичные фотографии и видеоролики, на которых люди говорят и делают то, чего они на самом деле не говорили или не делали ». [я]


В Deepfakes часто фигурируют известные люди, такие как знаменитости или политики, которые создаются путем отображения нейронных сетей на лице и последующего использования этих точек изображения для обмена лицами между двумя людьми, в результате чего человек, которого на самом деле никогда не было, появляется в конечном продукте. [ii]

Подобная уловка когда-то была доступна только лучшим студиям в Голливуде с оборудованием и программным обеспечением, к которым имели доступ только кинематографисты. Тем не менее, благодаря новым успехам в разработке программного обеспечения, супер подделка теперь легко доступна в Интернете для всех с помощью множества загружаемых приложений. Кроме того, цифровой реализм, достижимый с помощью этого типа программного обеспечения, более убедителен и прост в использовании, чем когда-либо, а это означает, что тип обучения и опыта (не говоря уже о времени и деньгах), которые когда-то требовались для получения таких высококачественных результатов, теперь можно получить. кем угодно, у кого есть подключение к Интернету. [iii]


В то время как новейшие дипфейки часто включают фактическую смену лиц различных актеров и «целью» (ничего не подозревающий человек, который, без их ведома, собирается сыграть главную роль в постановке без их собственного ведома или согласия), искажение изображений с целью исказить людей. Представления о личности не обязательно новы и не всегда предполагают обмен фактическими лицами людей. Это может быть так же просто, как легкое изменение освещения или скорости - как показано в недавно отредактированном видео спикера Палаты представителей Нэнси Пелоси, в котором скорость была снижена настолько, чтобы казалось, что она находилась под влиянием какого-то вещества, невнятно ее слова, когда ее взгляд тупо скользил по экрану. [iv]В течение нескольких недель после выпуска этого измененного видео заголовки и утверждения в социальных сетях относительно ее умственных способностей во время выступления вызвали вопросы о ее компетенции в целом. [v]


Неповрежденное видео, воспроизводимое на обычной скорости, показало, что выступающий дает простой ответ на вопрос. [vi]

Другие шутники использовали ту же технологию, чтобы наложить лицо Николаса Кейджа в фильмах, в которых он не снимался, таких как «Художник-катастрофа», «Звуки музыки» и целую сцену из « Друзей» [vii], в которой каждый из шести актеров, игравших там, их лица были видоизменены в его. Другие попытки зашли так далеко, что втянули его лицо в роль Лоис Лейн в фильме про Супермена « Человек из стали» . [viii]

Reddit - это социальный веб-сайт, на котором пользователи публикуют материалы, обычно через гиперссылки, которые другие могут просматривать и оценивать на основе их собственного мнения. Термин «deepfakes» первоначально появилось на этом сайте, где пользователь с тем же именем начал создавать и публиковать порнографические видеоролики , в которых были введены лица некоторых знаменитостей над теми из актеров в фильмах Reddit в. [ix]Вскоре эта идея прижилась, и многие внештатные авторы программного обеспечения начали создавать аналогичные версии программ. Вскоре они были представлены в Интернете, многие из них были бесплатными. Несмотря на ранние попытки ограничить и исключить производство таких фильмов, эта тенденция набрала силу. Теперь почти ежедневно появляются новые, часто безобидные или глупые версии таких дипфейк-творений - обычно нацеленные на знаменитостей или политиков, - и технологии никуда не денутся. [Икс]


Как работает дипфейк?


Многие люди знакомы с причудливыми веб-сайтами, такими как JibJab, которые позволяют пользователям загружать и вставлять изображение чьего-либо лица в анимацию - обычно это танец. Это (теперь уже устаревшее) программное обеспечение часто не достигает цели, когда дело доходит до аутентичности; Результат обычно выглядит глупо, с видимым разрывом между головой и телом изображения, что создает эффект карикатуры. Но технология, доступная сегодня для создания высококачественного дипфейка, далеко продвинулась за пределы этой простой техники вырезания и вставки.


Чтобы понять, как компьютерная программа может убедительно обмениваться изображениями человеческих лиц, необходимо получить базовое представление о том, как технологии в этой области развивались за последние годы. Программное обеспечение, генерирующее дипфейки, широко доступно; осознаете ли вы это или нет, вы, вероятно, сами с ним взаимодействовали. Например, вы или кто-то из ваших знакомых могли сделать селфи, в котором лицо человека трансформируется, скажем, в лицо щенка, или заставляет его выглядеть намного старше или моложе. Или вы, возможно, экспериментировали с фильтрами, которые добавляют такие детали, как рога, нимбы или красивые светящиеся цветы на макушку головы человека. Если вы это сделали, значит, вы повозились с самой технологией, которая делает возможными эти порой отклоняющиеся от нормы видео с дипфейком. [xi]

Вспомните, когда вы впервые увидели этот тип приложения, вероятно, на своем смартфоне или в учетной записи в социальной сети: вполне вероятно, что интерфейс в качестве первого шага в настройке сказал, что необходимо создать «маску» или цифровое изображение вашего лица. Это проистекает из технологий распознавания лиц, которые использовались с конца 1990-х годов в различных технологиях распознавания лиц. [xii] Однако с момента первоначальной разработки эффективность технологии значительно повысилась, благодаря гораздо более точному отображению наложенных лиц. [xiii]По сути, это новое и улучшенное программное обеспечение не только считывает все лицо, как его предшественники, но теперь оно способно определять ключевые, точные места на лице, из которых генерируются выражения, такие как границы губ, области вокруг глаз и нос, границы челюсти и непрерывная линия, обозначающая форму обеих бровей. [xiv] Затем, используя текстуры, цвета и измерения структуры лица, система создает «точечную маску» [xv], похожую на цифровую трехмерную карту лица. Отслеживая эти взаимосвязи между движениями, пользователь может перемещать изображение своего лица на камеру, в то время как программа отслеживает движения лица и удерживает точечную маску на месте. [xvi]Это приводит к тому, что цифровые «надстройки» (например, цветы и т.д.) кажутся прикрепленными к изображению, даже когда человек находится в движении.


Понимая эту базовую технику, становится более очевидным, как компьютер может эффективно накладывать одно лицо на другое. Все, что требуется, - это создать точечную маску для обоих лиц (что можно эффективно сделать с помощью нескольких неподвижных изображений, если видео в реальном времени недоступно), а затем объединить ключевые точки одного человека с соответствующими местоположениями на изображение другого человека. Вот почему результат не выглядит устаревшим, вырезанным и вставленным, скорее, одно лицо буквально становится другим. Аналогичным образом, вот почему при совмещении изображений лиц двух людей, чьи костные структуры сильно различаются, результатом, несомненно, является лицо цели, с чем-то, кажущимся «неправильным».


Многие из распространенных в настоящее время дипфейков созданы добродушно, как, например, сборник смешных фильмов Николаса Кейджа. Тем не менее, кто-то, желающий создать убедительный дипфейк для злонамеренных целей, должен начать с создания живого видео с желаемым контентом, а затем соединить лицо цели, просто загрузив различные изображения ничего не подозревающего человека в нужное программное обеспечение.

Вот почему знаменитости и политики могут быть особенно уязвимы для этого типа подделки: их фотографии легко доступны, и чем больше изображений человека можно загрузить, тем убедительнее будет обмен, благодаря точечной маске, имеющей множество углов лица для картирования. Поскольку программное обеспечение отображает особенности во время движения, оно отслеживает точки движения во время речи,заставляя входящее лицо следовать за выражением лица первоначально снятого человека. После того, как замена лица произведена, компьютер затем проверяет и перепроверяет себя, исправляя признаки подделки, пока он не перестанет обнаруживать недостатки в видео.[xvii] Все, что для этого требуется, - это простое приложение и актер / актриса «аналогичного телосложения [и языка тела], и большая часть работы выполняется за вас с помощью алгоритмов». [xviii]


Кроме того, голос цели также может быть скопирован с помощью программного обеспечения, которое использует адаптивный алгоритм для анализа колебаний и высоты голоса человека, а также его голосовых тонов. После завершения этого анализа все, что вам нужно сделать, это ввести желаемую фразу в компьютер, и звук «произнесет» слова, в цифровом виде совпадая с голосом анализируемого мужчины или женщины. [xix] Опять же, это одна из причин, по которой знаменитости и политики становятся более легкой мишенью для попыток дипфейка; легко доступны многочисленные аудиоклипы.


Современное программное обеспечение, в отличие от старой технологии вырезания и вставки, представляет собой цифровой эквивалент прикрепления кожи и мягких тканей одного человека к скелету другого. При этом понятно, что одни дипфейки легче идентифицировать, чем другие. Как упоминалось ранее, если два соединяемых изображения лица не имеют схожей структуры костей, результатом будет изображение лица, которое почти идентично объекту, но все равно выглядит немного нечетким.


Возьмем, к примеру, дипфейк, превративший лицо Джеймса Франко в лицо Николаса Кейджа, сделав его «заменой» звездой поддельной версии The Disaster Artist. Поскольку лицо Франко имеет более широкую костную структуру, чем у Кейджа, довольно легко увидеть, что, несмотря на то, что это лицо Кейджа , что-то не так: скулы посажены шире, а челюсть шире, чем у Кейджа. [xx] Однако изображение лица Киану Ривза после того, как оно помещено поверх лица Тома Хэнкса Форреста Гампа, является абсолютно убедительной заменой. [xxi] С другой стороны, в другом примере легко увидеть, что лицо президента Трампа было наложено на лицо Алека Болдуина в творческой переработке Подражание в субботу вечером в прямом эфире . [xxii]

Еще один способ распознать дипфейк - это язык тела и структура. Поскольку изображения сначала воспроизводятся имитатором, ошибки в имитации языка тела цели или даже различия в телосложении иногда действуют как раздача переключателя. Однако, как упоминалось ранее, хороший имитатор / двойник может преодолеть большую часть этих различий. Кроме того, искусственный интеллект используется для выполнения проверок и повторных проверок с помощью техники совершенствования, называемой генеративными состязательными сетями (GAN), которая вскоре сделает практически невозможным даже для компьютера отличить реальное от подделки. Используя GAN, компьютерные программы «соревнуются сами с собой» [xxiii], по сути проверяя подделку на наличие явных недостатков, а затем исправляя их до тех пор, пока не обманут само программное обеспечение. [xxiv]Об этой технике сказано: «Программное обеспечение для создания изображений будет продолжать совершенствоваться, пока не найдет способ победить сеть, выявляющую подделки, создавая изображения, которые являются статистически точными, чистыми вычислительными галлюцинациями». [xxv]


Кто может или хотел бы сделать дипфейк?


Помните, в конце 1990-х годов производство фотографий вышло за рамки проявки рулонов пленки и стало цифровым? Возможно, вы помните те первые дни массовой цифровой фотографии, когда Photoshop недавно стал доступен широкой публике, и это была захватывающая новая возможность редактировать свои собственные изображения. Женщинам удалось легко «сбросить» лишние килограммы, мужские волосы стали подозрительно гуще, а причудливые проекты - например, наклеить лицо вашей тети Салли на статую Свободы - стали приятным времяпрепровождением для тех, кто хотел добавить невинную пикантность к своим отпускным изображениям. Такие изменения легко заметить невооруженным глазом, и теперь их называют «мелкими подделками». [xxvi]


Это определенно казалось невинным развлечением, пока можно было рассчитывать на три элемента: (1) изменения были легко обнаружены из-за элементарного программного обеспечения, (2) дополнения были безвредными или дополнительными (например, обрезка нескольких дюймов от бедер) или (3) изменения были внесены в неподвижный кадр. Почему это? Ответ прост: люди не видят вреда в невинных корректировках изображений, и даже если корректировка действительно кажется злонамеренной или сомнительной, людям нравится верить, что они всегда могут обратиться к движущимся кадрам, чтобы получить достоверную документацию о реальных событиях . Но с дипфейком у публики больше нет такой возможности.


В телесериале 1990-х годов « Вавилон 5» капитан Шеридан космической станции, в честь которой был назван этот сериал, был в политической стычке предан другом и передан противоборствующим силам. Эти похитители пытали, морили голодом, запугивали и пытались подкупить стойкого капитана, чтобы заставить его признаться в ложных обвинениях, но он стоял на своем. Перед лицом надвигающейся казни похититель Шеридана объяснил, что даже если он откажется удовлетворить их просьбы о признании до смерти , он все равно признается, но посмертно:


«Лучший выход для всех - это признаться… правда ли… [признание] правдиво или нет, это не имеет значения. Правда несущественна, они могут ее продать, и [если вы будете сотрудничать] они позволят вам жить. Примечание: я сказал, что это [признание] было лучшим способом; Я не сказал, что это единственный способ . Другой способ, капитан, - это посмертное признание. Ваша подпись не проблема. У них есть изображение в файле-они могут создать вам прочитав исповедь ... Я сказал , что, как сегодня утром ... [посмертное признание] является приемлемым вариантом «. [xxvii]


Когда эта сцена была снята и показана в 1997 году, среднестатистический зритель и представить себе не мог, что уже существующее программное обеспечение быстро превратится в элементы, необходимые для того, чтобы сделать такую ​​угрозу возможной. Эта сцена, изображающая футуристическую научную фантастику в ее лучшем виде, вызвала захватывающее ожидание, потому что последствия предложения следователя были полным нарушением кодекса этики, поведения и права человека делать свой собственный выбор в отношении того, что он мог участвовать( или не) участвовать в чем-то. Тем не менее, оставалось определенное чувство безопасности из-за (в то время) знания о том, что никто на самом деле никогда не будет подвергнут такому нарушению. Нельзя было просто создать кадры из других людей , которые делают то , что они никогда не делали, не так ли?


Однако достижения в области технологий (например, Photoshop), которые, как уже отмечалось, в прежние времена можно было легко идентифицировать и в основном использовались для невинных забав, приняли злобный и потенциально катастрофический оборот. По мере того, как эти цифровые возможности улучшаются как для технологии неподвижных кадров, так и для видео, быстро становится проще создавать поддельные изображения и видео, которые почти или полностью невозможно обнаружить невооруженным глазом. «До дипфейков для создания реалистичного фальшивого видео с кем-то требовались мощный компьютер и неплохой диплом с высшим образованием по компьютерным технологиям. Теперь все, что требуется, - это несколько фотографий и подключение к Интернету ». [xxviii]В настоящее время существует программное обеспечение, которое буквально декодирует движение губ человека относительно его или ее слов, а затем помогает создать изображение, которое делает правдоподобным, что вставленные слова на самом деле исходят от лица данного человека. [xxix] Это новое лицо затем можно легко закрепить на лице другого человека, чтобы оно выглядело как часть движущегося тела нового человека. [xxx] Чрезвычайно пугающий элемент этого типа технологий заключается в том, что человека можно (и многие уже видели) изобразить участвующим в деятельности, которая, по крайней мере, является очень личной, а в худшем случае - развратной и даже отвратительной. - и, что хуже всего, без его согласия.


Повлияет ли Deepfakes на выборы 2024 года?


Официальные лица правительства США все больше обеспокоены тем, что эта тенденция может повлиять на выборы 2024 года, а также на выборы в последующие годы. Поскольку эти работы могут быть настолько убедительными, остается опасение, что даже те, кто тщательно исследует источники новостей на предмет подделок, не смогут их обнаружить - и это ничего не говорит о тех, кто не знает о многих типах обмана, которые пронизывают средства массовой информации. Настойчивый вопрос со стороны всех, кто ожидает следующих выборов, заключается в том, что произойдет, если разрушительный дипфейк будет выпущен как раз вовремя, чтобы повлиять на исход выборов, но не будет выявлен как мошенничество до тех пор, пока не будут подсчитаны голоса.

По мнению экспертов, Deepfake-видео может даже «вызвать мировой хаос и расколоть общество». [xxxi]

Аналитик технической политики ЕС из Центра инноваций в данных Элин Чевиот предупредила, что существует растущий дисбаланс между технологиями обнаружения и создания дипфейков, а это означает, что не хватает инструментов, необходимых для эффективного решения проблемы.

И она предупредила, что люди больше не могут заметить разницу между дипфейками и реальными вещами, и поэтому не могут остановить распространение фейковых новостей в виде оружия. [xxxii]


В недавней статье, в которой обсуждается такая возможность, Карл Стефан из Техасского государственного университета заявил: «Требуются время и опыт, чтобы определить, была ли подделана видео- или аудиозапись… к тому времени, когда видео, влияющее на выборы, будет обнаружено как подделка. , выборы могут закончиться ». [xxxiii] Несомненно, даже несмотря на то, что предпринимаются усилия по совершенствованию программного обеспечения, которое могло бы идентифицировать подделки, мошенники совершенствуют свою собственную игру, противодействие, которое приводит к странной игре в кошки-мышки, которую многие авторитеты по-прежнему не уверены в своей победе. Даже в нынешнем виде недавняя подделка с изображением Обамы была воспринята как реальная даже теми, кто знает его лично. [xxxiv]


С другой стороны, некоторые выразили обеспокоенность тем, что дипфейки только укрепят убеждения тех, кто уже принял решение, правильное или неправильное. Объясняя далее, некоторые люди слышат или видят то, что они хотят, и приветствуется все, что укрепляет их позицию, - фальшивка или нет. [xxxv] И, к сожалению, после того, как видео было просмотрено и одобрено публикой, эксперты говорят, что многие сопротивляются новым истинам, касающимся подделки: «После того, как были посеяны сомнения… [подробности, которые позже выяснились как дезинформированные] нетривиальная часть зрителей никогда не забудет эту деталь и заподозрит, что это может быть правдой ». [xxxvi]


Особенно уязвимы для таких фальсификаций избиратели, которые остаются в стороне в последние дни, предшествующие выборам. Некоторым избирателям достаточно просто знать, что фальшивые видеоролики действительно распространяются, чтобы их голоса двигались в правильном направлении. Эти люди проведут расследование перед тем, как изменить свое решение (однако, это все еще не решает проблему того, что дипфейк практически невозможно проверить). Тем не менее, те, кто случайно наблюдает за предвыборными провалами и не вкладывает все свои силы в какого-либо одного кандидата, станут более легкой мишенью для запоздалого инкриминирующего дипфейка, чтобы убедить их обманом [xxxvii], по сути, украсть их голоса.


Угроза для нашей страны со стороны этих девиантных постановок идет дальше, чем возможность несправедливо повлиять на исход выборов. Сенатор-республиканец от Флориды Марко Рубио объяснил, что, если раньше национальной безопасности, скорее всего, угрожала только физическая атака, современные технологии сделали нас уязвимыми для удара по нашей «интернет-системе… банковским системам… электросетям и инфраструктуре, и все чаще… возможность создавать очень реалистичное поддельное видео » [xxxviii] добавляет к этой проблеме. Например, представьте себе кризис, который может возникнуть, если кто-то создаст фальшивку, предупреждающую общественность о чрезвычайном положении в стране, объявлении войны, объявлении пандемии или о худшем. [xxxix]


По этим причинам правительство США в настоящее время работает с экспертами по искусственному интеллекту (ИИ) по всей стране, чтобы усилить безопасность в отношении этих подделок и расширить программное обеспечение, которое существует для обнаружения мошеннических релизов. Комитет по разведке палаты представителей проводил слушания с экспертами по ИИ, чтобы выработать стратегию того, что можно сделать, чтобы остановить ситуацию, в то время как Конгресс обсуждает, как разработать законодательство, которое могло бы аналогичным образом регулировать создание и распространение такой продукции - явление, происходящее в таких объемах, что тех, кто пытается их остановить, в подавляющем большинстве меньше. В ответ на грандиозность задачи профессор компьютерных наук Генри Фарид из Калифорнийского университета категорически заявил: «Мы превосходим по вооружению». [xl]Создание законодательства против дипфейков сложнее, чем может показаться на первый взгляд: правительственные чиновники сталкиваются с препятствиями, исключающими «злоупотребление властью и предполагаемую угрозу Первой поправке». [xli]


В предотвращении нарушений на выборах из-за фейков участвует DARPA (Агентство перспективных оборонных исследовательских проектов), которое недавно объявило, что будет работать над созданием ресурсов для выявления и сдерживания вредоносных дипфейков. В настоящее время агентство работает над созданием новых инструментов для проверки видео, поскольку старых «быстро становится недостаточно». [xlii] В

В настоящее время принимаются меры предосторожности для защиты предстоящих выборов от фальшивых видеороликов, которые могут ввести избирателей в заблуждение, включая предоставление безвозмездно предоставленных банками съемок ключевых фигур, которые, как ожидается, будут задействованы в выборах 2024 года, с целью зашифровать четкое цифровое исследование того, как их лица и тела движутся во времени, как они разговаривают - это фирменный набор уникальных движений, включающих в себя индивидуальный язык тела и выражение лица, которые они называют «снятием отпечатков пальцев».[xliii] По сути, DARPA и правительство работают вместе, используя эти персонализированные банки данных с характеристиками для создания веб-сайта, на который можно загружать новые видео с участием этих людей и проверять их как истинные или ложные, прежде чем они будут опубликованы в основных средствах массовой информации. Цель состоит в том, чтобы у всех ключевых игроков на выборах 2024 года были эффективно взяты отпечатки пальцев для защиты от подделок. [xliv]


Однако это не снимает опасений, что хороший имитатор будет имитировать выражение лица и язык тела человека. Кроме того, эксперты заявляют, что «методы обнаружения, основанные на статистических отпечатках пальцев, часто можно обмануть с помощью ограниченных дополнительных ресурсов». [xlv] После загрузки рассматриваемое видео сначала будет отсортировано ИИ на предмет того, что DARPA называет «семантическими ошибками» [xlvi], такими как потенциальные недостатки, указывающие на ошибки при редактировании, в том числе «несовпадающие серьги». [xlvii] Затем они будут упорядочены по категориям: было ли производство произведено по злонамеренным причинам или иным образом. На основе этих результатов видео будет помечено для «проверки человеком». [xlviii]


Надежды, стоящие за усилиями DARPA, заключаются в том, что представители СМИ будут загружать видеоролики для проверки подлинности, прежде чем запускать истории, основанные на них. Однако следует задаться вопросом, будет ли этот подход успешным. Прежде всего, следует ли пометить видео для «проверки человеком», каковы будут временные рамки для такой проверки? Несомненно, те представители СМИ, которые натолкнулись на подобную историю, захотят первыми ее опубликовать.

Трудно представить, чтобы представители прессы были готовы дождаться проверки подачи видео, прежде чем опубликовать статью. Конечно, по крайней мере, для некоторых будет слишком сильным страх, что другое информационное агентство может «ухватиться» за новость, пока они ожидают дополнительного исследования. И, к сожалению, для успеха такого начинания потребуется сотрудничество всех желающих.

В нынешнем виде истории часто рассказываются в средствах массовой информации до того, как агентства или отдельные лица нашли время, чтобы убедиться, что все их факты правдивы. И, это касается только тех сообщений из информационных агентств, без участия отдельных лиц в государственных СМИ, которые делятся статьями и информацией без учета какой-либо ответственности. Человек, который действительно хочет навредить репутации кандидата, может просто опубликовать дипфейк в социальных сетях, полностью минуя информационные агентства.

Все, что требуется, - это одна своевременная, убедительная фальшивка, и все выборы могут развернуться в том направлении, в котором они иначе не могли бы развиваться. Более того, для совершенствования программного обеспечения часто требуется время. Можем ли мы действительно верить в то, что «проверено» - даже такими агентствами, как DARPA, - действительно подлинно? Что могло бы случиться, если бы дипфейк-видео было ошибочно (или не так ошибочно…) подтверждено как настоящее? Сколько карьер будет разрушено злонамеренными элементами в мошенническом выпуске, или - что не менее пугающе - сколько людей, которые поступили неправильно, могут получить компенсацию с помощью фальшивых видеороликов, которые каким-то образом служат доказательством их благородства?

Поскольку эксперты упорно работают над созданием системы проверки с использованием ИИ, вышеупомянутый метод GAN (генеративные состязательные сети) может так же быстро саботировать эти усилия по определению подлинности. Без надежного способа цифровой проверки видео выборы 2024 года будут носить подтекст «Покупатель, берегись».

Чтобы понять, насколько разрушительными могут быть дипфейки для нашего современного общества, полезно понять концепцию, известную как газлайтинг. Газлайтинг - это техника манипуляции, при которой один человек заставляет другого сомневаться в своей реальности до тех пор, пока этот человек не станет легко управляемым, потому что он или она потеряли доверие к своим собственным чувствам. Этот термин возник из фильма 1944 года « Газовый свет» , в котором муж, пытаясь заставить жену усомниться в ее рассудке, продолжал изменять уровень освещенности в своем доме, делая вид, что не заметил никакой разницы. Это заставляет жену сомневаться в собственных чувствах, пока истинные намерения мужчины не будут подвергнуты тщательной проверке. На современных аренах эта тактика, по словам Psychology Today , обычно используется «обидчиками, диктаторами, нарциссами и лидерами культов». [xlix]


Проблема, связанная с дипфейками заключается в том, что по мере того, как люди теряют доверие к собственному восприятию, они часто теряют решимость внимательно следить за действиями окружающих. Это нежелание прилагать усилия для привлечения других к ответственности является побочным продуктом лежащих в основе подозрений, что они только вот-вот - снова - обнаружат, что их обманули. Определенная опасность связана с деморализацией общества, которое больше не знает, что реально, а что нет, каким источникам верить, а каким нельзя доверять.

По большому счету, люди начинают поддаваться некоторой усталости от мысленных американских горок, связанных с постоянным увеличением, а затем и исчезновением надежды. Достаточно деморализующий, без дипфейков,чтобы население доверяло политическим деятелям, которые не выполняют предвыборные обещания. Подумайте, насколько было бы хуже, если бы в условиях предвыборной и поствыборной политической адаптации кандидаты начали категорически отрицать само содержание видео, на котором люди основывали свои решения о голосовании. Это не только будет иметь разрушительные последствия для выборов 2024 года, но и, скорее всего, серьезно подорвет интерес и явку избирателей в будущем.

Не только может deepfakes использоваться , чтобы уничтожить хорошую репутацию невинных людей, но они могут также быть оправданием для того, кто, совершив преступление,
будет доказывать, что видеодоказательства - это фальшивка. Другими словами, кого поймают - с помощью видеосвидетельств - за совершением инкриминирующего действия с юридической или моральной точки зрения, может попытаться избежать порицания, заявив, что доказательства являются подделкой. А поскольку их становится все труднее проверить, утверждение о подделке вскоре может быть так же трудно подтвердить, как и опровергнуть.

Эта потеря уверенности в том, что человек видит и слышит собственными глазами и ушами, равносильна окончательному «газлайтингу» населения. С таким сомнением в том, что мы ощущаем своими собственными чувствами (зрением и звуком), как мы можем доверять результатам наших собственных выборов или знать, как голосовать? Многие СМИ и политические обозреватели соглашаются, что это вызывает беспокойство. Клэр Уордл - эксперт в области онлайн-манипуляций, социальных сетей и отслеживания ложной и дезинформации, а также соучредитель First Draft.[l] заявила: «По мере того, как общественное доверие к таким учреждениям, как СМИ, образование и выборы падает, сама демократия становится неустойчивой». [ли]


Что действительно страшного в Deepfakes


Что касается дипфейков, то особую озабоченность вызывает их способность отменять согласие человека. Это уже упоминались, что бесчисленное видео было сделано изображая некоторые знаменитости в порнографических ситуациях. Мстительные бывшие иногда берут на себя инициативу, чтобы создать разрушительные образы в отместку за то, что они считают удовлетворительной местью. Те, кто может захотеть подорвать авторитет высокопоставленных руководителей или людей, чья работа окажется под угрозой, если они окажутся в компрометирующей ситуации - например, министры, тренеры или учителя - могут принять решение предпринять такие девиантные действия против этих ничего не подозревающих людей.


Когда люди предпочитают не заниматься определенными видами деятельности, а затем их изображают участвующими в этих действиях, эффект может быть очень разрушительным. Например, если кто-то публично изображен в сексуально компрометирующей ситуации без его согласия, это будет похоже на нарушение, которое можно было бы почувствовать, если бы его собственное тело подверглось этой отмене согласия. Кроме того, репутация, которая может быть разрушена видео, которое становится вирусным, не может быть легко восстановлена ​​после раскрытия правды о дипфейке, если его фальшивка когда-либо будет проверена и раскрыта.


Кроме того, вызывает тревогу способность этой технологии подорвать невинность в культуре в целом. Подумайте о прекрасных и полезных делах былых времен, которые могли быть испорчены. Ранее уже упоминалось, что лицо Николаса Кейджа было заменено на лицо многих ведущих актеров и актрис в различных фильмах - не менее причудливым является лицо Джули Эндрюс в «Звуках музыки».- пример использования этой технологии для безобидных и глупых забав.

Но рассмотрите другие подобные возможности, использующие эти типы смены лиц: какой вид коррупции можно было бы привнести в старый фильм с Дорис Дэй в главной роли с Роком Хадсоном, Вивьен Ли с Кларком Гейблом или Одри Хепберн с Грегори Пеком? Потенциальная угроза ранее невинным произведениям, создаваемая этой новой технологией, усугубляет общее негативное влияние, которое эти подделки могут оказать на современное общество.


В дополнение к необходимости в новых законодательных органах и системах проверки изображений для противодействия возникающей угрозе, создаваемой технологией дипфейка, некоторые агентства, такие как Центр исследований в области социальных наук, наряду с другими органами предлагают новый тип предосторожности: то, что они называют «Неизменные журналы жизни». [lii] Что это такое? Это цифровой след перемещений, местоположений и действий человека, позволяющий «жертве дипфейка представить сертифицированное алиби, достоверно доказывающее, что он или она не делали или не говорили то, что изображено». [liii]


Давайте проясним это прямо: чтобы предотвратить хищническое цифровое насилие над собой, мы должны принять круглосуточное отслеживание цифрового контр-хулигана, чтобы действовать как страж над нашими реальными обстоятельствами. Для вас это звучит как прелюдия к клейму зверя? Даже для умов менее заговорщицких, масштабное вторжение в частную жизнь является зловещим. Кроме того, как только мы откажемся от одиночества и дадим согласие на мониторинг вторжений, чтобы каждый момент нашей жизни записывался в цифровом виде, у нас нет гарантии того, где будут храниться данные, у кого будет к ним доступ, как они могут быть использованы против нас, или каким сторонним агентствам эти данные могут быть проданы. [liv]Кроме того, есть предположение, что соединение такого материала с технологией геолокации, вероятно, будет очень точным при прогнозном отслеживании. Это означает, что любой, у кого есть доступ к такой личной информации, не только будет знать, где мы были, но и, вероятно, проанализирует алгоритмы в данных, которые также покажут, куда мы идем. [lv] Другими словами, мы больше никогда не будем одни и не уединимся.


Как нам не дать себя обмануть?


Исследователь данных и общества Бритт Пэрис объясняет, что, хотя законодательство и программное обеспечение для проверки изображений - хорошее начало, борьба с дипфейками должна вестись на общественном форуме; платформы, которые распространяют или допускают распространение дипфейков, должны нести ответственность. [lvi] Эти сущности должны быть разоблачены, а жертвы оправданы - публично. Кроме того, Пэрис рекомендует, чтобы информационные агентства, которые скрываются за предлогом, что объем таких подделок слишком велик, чтобы их можно было рассмотреть, уменьшили их объем и наняли больше сотрудников, пока они не смогут эффективно управлять своим контентом. [lvii]

Конечно, многие компании не согласятся с таким предложенным решением, но Пэрис утверждает, что это часть процесса комплексной проверки, который должен требоваться от любой организации.


Клэр Уордл, упомянутая ранее, имеет в виду другой метод противодействия дипфейкам, метод, который, если его использовать, будет лучшим решением: проверьте факты, прежде чем действовать, голосовать или размещать видео в социальных сетях. [lviii] Она заявляет, что ответственность в равной степени лежит на торговых точках и на отдельных лицах. По словам Уордла, социальные сети и пресс-центры должны нести ответственность за свой контент, но широкая общественность обязана проверять, чем они делятся: «То, как мы реагируем на эту серьезную проблему, имеет решающее значение ... если вы не знаете 100% ... не делитесь, потому что это не стоит риска ». [lix]



https://www.forbes.com/sites/robtoews/2020/05/25/deepfakes-are-going-to-wreak-havoc-on-society-we-are-not-prepared/?sh= 4b9c04ab7494

[ii] ColdFusion. «Дипфейки - реальные последствия». 28 апреля 2018 г. Видео на YouTube, 13:12. По состоянию на 6 сентября 2019 г. https://www.youtube.com/watch?v=dMF2i3A9Lzw.

[iii] Стефан, Карл. «Видеть - значит не поверить: искусственный интеллект - дипфейки и доверие к СМИ». Mercatornet. 15 октября 2018 г. По состоянию на 6 сентября 2019 г. https://www.mercatornet.com/connecting/view/seeing-may-not-be-believe-ai-deepfakes-and-trust-in-media/21827.

[iv] Кили, Кэти. «Отказ Facebook обуздать фальшивое пьяное видео Нэнси Пелоси подчеркивает необходимость ответственности». USA Today . 28 мая 2019 г. По состоянию на 10 сентября 2019 г. https://www.usatoday.com/story/opinion/2019/05/28/facebook-fake-video-nancy-pelosi-drunk-responsibility-column/1249830001/.

[v] Харвелл, Дрю. «Фейковые видео Пелоси, замедленные, чтобы она выглядела пьяной, распространились по социальным сетям». 24 мая 2019 г. По состоянию на 10 сентября 2019 г. https://www.washingtonpost.com/technology/2019/05/23/faked-pelosi-videos-slowed-make-her-appear-drunk-spread-across-social -средства массовой информации/.

[vi] «Почему становится все труднее обнаружить дипфейк-видео». CNN Online, доступ осуществлен 7 сентября 2019 г. https://www.cnn.com/videos/business/2019/06/11/deepfake-videos-2020-election.cnn.

[vii] Derpfakes. «Николас Кейдж: Mega Mix Two». 2 февраля 2019 г. YouTube: 2:05. По состоянию на 10 сентября 2019 г. https://www.youtube.com/watch?v=_Kuf1DLcXeo.

[viii] Usersub. «Сборник фильмов о DeepFakes Ника Кейджа». 31 января 2018 г. YouTube: 2:17. По состоянию на 10 сентября 2019 г. https://www.youtube.com/watch?v=BU9YAHigNx8.

[ix] «Что такое дипфейк?» Экономист . 7 августа 2019 г. По состоянию на 6 сентября 2019 г. https://www.economist.com/the-economist-explains/2019/08/07/what-is-a-deepfake.

[x] Там же.

[xi] ColdFusion. «Дипфейки - реальные последствия». 28 апреля 2018 г. Видео на YouTube, 13:12. По состоянию на 6 сентября 2019 г. https://www.youtube.com/watch?v=dMF2i3A9Lzw.

[xii] Там же.

[xiii] Там же.

[xiv] Там же.

[xv] Там же.

[xvi] Там же.

[xvii] Там же.

[xviii] Там же.

[xix] Там же.

[xx] Usersub. «Сборник фильмов о DeepFakes Ника Кейджа». 31 января 2018 г. Видео на YouTube: 2:17. По состоянию на 10 сентября 2019 г. https://www.youtube.com/watch?v=BU9YAHigNx8&t=33s .

[xxi] Обман. «Киану Ривз в роли Форест Гамп Дипфейк - захватывает дух!» 24 июля 2019 г. YouTube: 3:12. По состоянию на 10 сентября 2019 г. https://www.youtube.com/watch?v=cVljNVV5VPw&t=72s.

[XXII] Fakening. «Президент Дональд Трамп об Алеке Болдуине Дипфейке». 19 февраля 2019 г. YouTube: 0:42. По состоянию на 10 сентября 2019 г. https://www.youtube.com/watch?v=XdBDouKV828.

[xxiii] «Что такое дипфейк?» Экономист . 7 августа 2019 г. По состоянию на 6 сентября 2019 г. https://www.economist.com/the-economist-explains/2019/08/07/what-is-a-deepfake.

[xxiv] Там же.

[xxv] Там же.

[xxvi] Нью-Йорк Таймс. «Deepfakes: это видео вообще реально? Мнение NYT ». 14 августа 2019 г. Видео на YouTube: 3:38. По состоянию на 10 сентября 2019 г. https://www.youtube.com/watch?v=1OqFY_2JE1c.

[xxvii] ЛаФия, Джон. «Перекрестки в реальном времени». Вавилон 5: Сезон 4, Эпизод 18. 1997; Бербанк, Калифорния: Warner Brothers, 1997. DVD.

[xxviii] «Что такое дипфейк?» Экономист . 7 августа 2019 г. По состоянию на 6 сентября 2019 г. https://www.economist.com/the-economist-explains/2019/08/07/what-is-a-deepfake.

[xxix] Там же.

[xxx] Там же.

[xxxi] https://www.dailystar.co.uk/news/world-news/deepfake-videos-will-cause-worldwide-20574174.

[xxxii] Там же.

[xxxiii] Стефан, Карл. «Видеть - значит не поверить: искусственный интеллект - дипфейки и доверие к СМИ». 15 октября 2018 г. По состоянию на 10 сентября 2019 г. https://www.mercatornet.com/mobile/view/seeing-may-not-be-believe-ai-deepfakes-and-trust-in-media/21827.

[xxxiv] Там же.

[xxxv] Там же.

[xxxvi] Поруп, Дж. М. «Как и почему работают дипфейк-видео - и что подвергается риску». CSO US Online. 10 апреля 2019 г. По состоянию на 10 сентября 2019 г. https://www.csoonline.com/article/3293002/deepfake-videos-how-and-why-they-work.html.

[xxxvii] Стефан, Карл. «Видеть - значит не поверить: искусственный интеллект - дипфейки и доверие к СМИ». 15 октября 2018 г. По состоянию на 10 сентября 2019 г. https://www.mercatornet.com/mobile/view/seeing-may-not-be-believe-ai-deepfakes-and-trust-in-media/21827.

[xxxviii] Поруп, Дж. М. «Как и почему работают дипфейк-видео - и что подвергается риску». CSO US Online. 10 апреля 2019 г. По состоянию на 10 сентября 2019 г. https://www.csoonline.com/article/3293002/deepfake-videos-how-and-why-they-work.html.

[xxxix] Там же.

[xl] Тангерманн, Виктор. «Конгресс официально беспокоит дипфейки». Футуризм онлайн . 13 июня 2019 г. По состоянию на 10 сентября 2019 г. https://futurism.com/congress-deepfakes-threat.

[xli] Там же.

[xlii] Корриган, Джек. «DARPA решает проблему Deepfake». Nextgov . 6 августа 2019 г. По состоянию на 10 сентября 2019 г. https://www.nextgov.com/emerging-tech/2019/08/darpa-taking-deepfake-problem/158980/.

[xliii] CNN Business. «Почему становится все труднее обнаружить видео Deepfake». 12 июня 2019 г. YouTube: 2:45. По состоянию на 10 сентября 2019 г. https://www.youtube.com/watch?v=wCZSMIwOG-o.

[xliv] Там же.

[xlv] Корриган, Джек. «DARPA решает проблему Deepfake». Nextgov . 6 августа 2019 г. По состоянию на 10 сентября 2019 г. https://www.nextgov.com/emerging-tech/2019/08/darpa-taking-deepfake-problem/158980/.

[xlvi] Там же.

[xlvii] Там же.

[xlviii] Там же.

[xlix] Саркис, Стефани. «11 предупреждающих знаков газлайтинга». Психология сегодня . 22 января 2017 г. По состоянию на 10 сентября 2019 г. https://www.psychologytoday.com/us/blog/here-there-and-everywhere/201701/11-warning-signs-gaslighting.

[l] «Доктор. Клэр Уордл: соучредитель и руководитель First Draft ». Cyber ​​Harvard . 25 сентября 2018 г. По состоянию на 10 сентября 2019 г. https://cyber.harvard.edu/people/dr-claire-wardle.

[li] Нью-Йорк Таймс . «Deepfakes: это видео вообще реально? Мнение NYT ». 14 августа 2019 г. Видео на YouTube: 3:38. По состоянию на 10 сентября 2019 г. https://www.youtube.com/watch?v=1OqFY_2JE1c.

[lii] Пауэрс, Бенджамин. «Видео« Deep fake »может испортить репутацию. Могут ли журналы жизни предотвратить это? » Общественная безопасность сегодня в сети . 28 ноября 2018 г. По состоянию на 10 сентября 2019 г. https://publicsecurity.today/deep-fake-video-can-ruin-reputations-can-life-logs-prevent-that/.

[liii] Там же.

[liv] Там же.

[lv] Там же.

[lvi] Там же.

[lvii] Там же.

[lviii] Нью-Йорк Таймс . «Deepfakes: это видео вообще реально? Мнение NYT ». 14 августа 2019 г. Видео на YouTube: 3:38. По состоянию на 10 сентября 2019 г. https://www.youtube.com/watch?v=1OqFY_2JE1c.

[lix] Там же.

[lx] https://en.wikipedia.org/wiki/Year_Zero_(political_notion).

[lxi] https://www.good.is/articles/george-washington-racist-mural.

[lxii] https://www.foxnews.com/us/which-confederate-statues-were-removed-a-running-list.

[lxiii] Гэри Лахман, Политика и оккультизм: левые, правые и радикально невидимое , (Книги квестов; издание 1-го издания Quest Ed, 1 ноября 2008 г.), 97–98.

[lxiv] https://www.christianheadlines.com/contributors/mikaela-matthews/california-lawmakers-want-to-control-what-pastors-preach-about-lgbt-beliefs.html.

https://www.skywatchtv.com/



новости | Ошибка? Суббота,12:55 0 Просмотров:47
Другие новости по теме:
Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь.
Мы рекомендуем Вам зарегистрироваться либо войти на сайт под своим именем.
Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.