В то время как дипфейки процветают, страны борются с ответом

Технологию Deepfake — программное обеспечение, позволяющее людям менять лица, голоса и другие характеристики для создания цифровых подделок — в последние годы использовали для создания синтетического заменителя Илона Маска, раскрывшего мошенничество с криптовалютой, чтобы цифрово «раздеть» более 100 000 женщин на Telegram и воровать миллионы долларов у компаний, имитируя голоса их руководителей по телефону.

В большинстве стран мира власти ничего не могут с этим поделать. Несмотря на то, что программное обеспечение становится все более сложным и доступным, существует несколько законов, контролирующих его распространение.

Китай надеется быть исключением. В этом месяце страна приняла широкие правила, требующие, чтобы манипулируемый материал имел согласие субъекта и содержал цифровые подписи или водяные знаки, а также чтобы поставщики услуг deepfake предлагали способы опровержения слухов.

Но Китай сталкивается с теми же препятствиями, которые помешали другим усилиям управлять дипфейками: худших злоупотребителей технологией, как правило, тяжелее всего поймать, они действуют анонимно, быстро адаптируются и делятся своими синтетическими творениями через безграничные онлайн-платформы. Этот шаг Китая также подчеркнул еще одну причину того, что некоторые страны приняли правила: многие волнуются, что правительство может использовать правила для ограничения свободы слова.

Но, как говорят технические эксперты, просто выполняя свои мандаты, Пекин мог бы повлиять на то, как другие правительства справляются с машинным обучением и искусственным интеллектом, обеспечивающим технологию deepfake. Имея ограниченный прецедент в этой области, законодатели по всему миру ищут тестовые примеры, чтобы имитировать или отклонить.

“Сцена искусственного интеллекта является интересным местом для глобальной политики, поскольку страны соревнуются друг с другом в том, кто будет задавать тон”, – сказал Равит Дотан, докторант, руководящий Лабораторией общей ответственности искусственного интеллекта в Университете Питтсбурга. «Мы знаем, что появятся законы, но мы еще не знаем, какие они, поэтому есть много непредсказуемости».

Deepfakes имеют большие перспективы во многих отраслях. В прошлом году нидерландская полиция возобновила дело в 2003 году, создав цифровой аватар 13-летней жертвы убийства и обнародовав кадры, на которых он проходит сквозь группу своей семьи и друзей в наше время.

Технология также используется для пародий и сатиры, для онлайн-покупателей, примеряющих одежду в виртуальных примерочных, для динамических музейных диоров и для актеров, надеющихся говорить на нескольких языках в международных фильмах. Исследователи из медиа-лаборатории Массачусетского технологического института и ЮНИСЕФ использовали подобные методы для изучения эмпатии, превращая изображения североамериканских и европейских городов в пейзажи, раненые битвами, вызванные сирийской войной.

Но проблемных приложений тоже достаточно. Юридические эксперты обеспокоены тем, что дипфейки могут быть использованы для подрыва доверия к видео с камер наблюдения, нательных камер и других доказательств. (По словам адвоката отца, поддельная запись, представленная по британскому делу об опеке над детьми в 2019 году, показывает, как отец угрожает насилием.)

Цифровые подделки могут дискредитировать или подстрекать к насилию против полицейских или отправлять их в погоню. Министерство внутренней безопасности также выявило риски, включая киберзапугивание, шантаж, манипулирование акциями и политическую нестабильность.

Некоторые эксперты прогнозируют, что до 90% онлайн контента можно будет создать синтетически в течение нескольких лет.

Растущее количество дипфейков может привести к ситуации, когда «граждане больше не имеют общей реальности, или может создать общество путаницы относительно того, какие источники информации надежны; Ситуация, которую иногда называют “информационным апокалипсисом” или “апатией реальности”, – написало европейское правоохранительное агентство Европол в отчете прошлого года.

В прошлом году британские чиновники ссылались на такие угрозы, как веб-сайт, «фактически раздевающий женщин догола» и посетивший 38 миллионов раз за первые восемь месяцев 2021 года. Но там и в Европейском Союзе предложения по установке ограждений для этой технологии еще не поступили. стать законом.

Попытки в Соединенных Штатах создать федеральную рабочую группу для изучения технологии deepfake застопорились. Представитель Иветт Д. Кларк, DNY, предложила законопроект в 2019 году и снова в 2021 году — Закон о защите каждого человека от ложной видимости путем привлечения к ответственности за эксплуатацию — еще не прошедшего голосование. Она сказала, что планирует повторно подать законопроект в текущем году.

Кларк сказала, что ее законопроект, который потребует, чтобы дипфейки имели водяные знаки или идентификационные этикетки, является «защитной мерой». Напротив, она описала новые китайские правила как “больше механизм контроля”.

«Многие опытные гражданские общества осознают, как это может быть оружием и разрушительным», – сказала она, добавив, что Соединенные Штаты должны быть смелее в установлении собственных стандартов, а не отставать от другого лидера.

“Мы совсем не хотим, чтобы китайцы ели наш обед в технологическом пространстве”, – сказал Кларк. «Мы хотим иметь возможность установить основу для наших ожиданий относительно индустрии технологий, защиты потребителей в этом пространстве».

Но представители правоохранительных органов заявили, что отрасль все еще не в состоянии выявлять глубокие фейки и пытается контролировать злонамеренное использование технологии. Адвокат из Калифорнии написал в юридическом журнале в 2021 году, что определенные правила deepfake имеют «почти непреодолимую проблему осуществимости» и «функционально невыполнимые», поскольку злоумышленники (обычно анонимные) могут легко замести следы.

Правила, существующие в Соединенных Штатах, в основном направлены на политические или порнографические дипфейки. Марк Берман, демократ в Ассамблее штата Калифорния, представляющий часть Кремниевой долины и выступающий инициатором такого закона, сказал, что ему неизвестно о каких-либо попытках обеспечить соблюдение его законов через судебные иски или штрафы. Но он сказал, что в знак уважения к одному из его законов приложение для глубокого подлога отменило возможность имитировать президента Дональда Трампа перед выборами 2020 года.

Лишь несколько других штатов, включая Нью-Йорк, ограничивают поддельную порнографию. Во время перевыборов в 2019 году мэр Хьюстона заявил, что критическая реклама от другого кандидата нарушает закон Техаса, запрещающий определенные обманчивые политические дипфейки.

«Половина ценности заставляет больше людей быть несколько более скептическими по поводу того, что они видят на платформах социальных сетей, и поощряет людей не воспринимать все чистую монету», — сказал Берман.

Но, несмотря на то, что технологические эксперты, законодатели и жертвы призывают к усилению защиты, они также призывают быть осторожными. Они сказали, что законы Deepfeke рискуют оказаться не только чрезмерными, но и беззубыми. Они добавили, что навязывание ярлыков или оговорок на дипфейках, разработанных как действительный комментарий относительно политики или культуры, может сделать содержимое менее надежным.

Группы цифровых прав, такие как Electronic Frontier Foundation, подталкивают законодателей отказаться от контроля за глубоким фейком для технологических компаний или использовать существующую правовую базу, касающуюся таких вопросов, как мошенничество, нарушение авторских прав, непристойность и клевета.

«Это лучшее средство против вреда, а не государственное вмешательство, которое почти всегда собирается захватить материал, не вредный, отпугивающий людей от законного, продуктивного языка», — сказал Дэвид Грин, юрист по вопросам гражданских свобод. Electronic Frontier Foundation.

Несколько месяцев назад Google начал запрещать людям использовать его платформу Colaboratory, инструмент анализа данных, чтобы обучать системы ИИ генерировать глубокие фейки. Осенью компания, стоящая за Stable Diffusion, инструментом для создания изображений, запустила обновление, запрещающее пользователям создавать обнаженный и порнографический контент, сообщает The Verge. Meta, TikTok, YouTube и Reddit запрещают дипфейки, которые имеют целью ввести в заблуждение.

Но законы или запреты могут сдерживать технологию, разработанную для постоянной адаптации и совершенствования. В прошлом году исследователи из RAND Corp. продемонстрировали, насколько трудно идентифицировать дипфейки, когда они показали набор видео более 3000 субъектам тестирования и попросили их идентифицировать те, которыми манипулировали (например, дипфейк климатической активистки Греты Тунберг). отрицание существования изменения климата).

Группа ошибалась более чем в трети случаев. Даже несколько десятков студентов, изучающих машинную учебу в Университете Карнеги-Меллона, ошибались более чем в 20% случаев.

Инициативы таких компаний, как Microsoft и Adobe, теперь пытаются аутентифицировать медиа и научить технологию модерации распознавать несоответствия, обозначающие синтетическое содержимое. Но они постоянно борются за то, чтобы опередить создателей deepfake, которые часто находят новые способы устранения дефектов, удаления водяных знаков и изменения метаданных, чтобы замести следы.

“Существует гонка технологических вооружений между создателями глубоких фейков и детекторами глубоких фейков”, – сказал Джаред Мондшайн, ученый-физик из RAND. “Пока мы не начнем придумывать способы лучшего выявления дипфейков, любому законодательству будет очень тяжело иметь зубы”.

Эта статья изначально была опубликована в The New York Times.

Мы будем рады и вашему мнению

Оставить отзыв

Наука и Факты
Logo