Эми Клобушар: Что я не сказала о Сидни Суини

Существует многовековое выражение о том, что «ложь может обойти полмира, пока правда надевает ботинки». Сегодня реалистичный дипфейк — сгенерированное искусственным интеллектом видео, на котором кто-то делает или говорит то, чего он никогда не делал, — может обогнуть земной шар и оказаться в телефонах миллионов людей, пока правда все еще застревает на проводном телефоне. Вот почему для Конгресса крайне важно немедленно принять новые законы для защиты американцев, предотвращая использование их подобия для причинения вреда. Я усвоила этот урок на собственном опыте за последний месяц, когда поддельное видео со мной — рассуждающей, о чем бы вы думали, о джинсах актрисы Сидни Свини — стало вирусным. 30 июля мы с сенатором Маршей Блэкберн провели слушания в подкомитете Сената по судебным вопросам, посвященные конфиденциальности данных. Мы обе были лидерами в сфере технологий и конфиденциальности, и у нас есть законодательные шрамы, чтобы доказать это. На слушаниях состоялась широкая дискуссия с пятью экспертами о необходимости принятия надежного федерального закона о конфиденциальности данных. Все было корректно и сдержанно, без партийных вспышек. Поэтому я была удивлена позже на той неделе, когда заметила, что клип с моим участием с тех слушаний широко распространяется в X, набрав более миллиона просмотров. Я нажала, чтобы посмотреть, что привлекает так много внимания. Тогда я услышала свой голос — но точно не себя — изрыгающую вульгарную и абсурдную критику рекламной кампании джинсов с Сидни Свини. В дипфейке с использованием ИИ я использовала фразу «идеальные сисечки» и сокрушалась, что демократы «слишком толстые, чтобы носить джинсы, или слишком уродливые, чтобы выходить на улицу». Хотя я сразу поняла, что кто-то использовал кадры со слушаний, чтобы сделать дипфейк, нельзя было отрицать, что это выглядело и звучало очень реалистично. Как и любой человек, я хотела, чтобы видео удалили или хотя бы пометили как «цифровое измененное содержимое». Оно использовало мое подобие, чтобы раздуть противоречия там, где их не существовало. Оно заставляло меня говорить мерзкие вещи. И хотя мне хочется верить, что большинство людей смогут распознать в этом подделку, некоторые явно подумали, что это реально. Исследования показали, что люди, видящие такой контент, вырабатывают устойчивые негативные взгляды на человека на видео, даже когда знают, что это подделка. X отказался удалять его или маркировать, хотя его собственная политика гласит, что пользователям запрещено делиться «неаутентичным контентом в X, который может вводить людей в заблуждение», включая «манипулируемые или вырванные из контекста медиа, которые могут привести к широкому распространению путаницы в общественных вопросах». По мере распространения видео на другие платформы, TikTok удалил его, а Meta пометила как созданное ИИ. Однако ответ X заключался в том, что я должна попытаться получить «Примечание сообщества», чтобы указать, что это подделка, — то, что компания не поможет добавить. Годами я борюсь с растущей проблемой, заключающейся в том, что у американцев крайне ограниченные возможности добиться удаления несанкционированных дипфейков. Но этот опыт, когда пришлось потратить часы времени и ресурсов на ограничение распространения одного-единственного видео, ясно показал, насколько мы бессильны в данный момент. Почему прибыль технологических компаний должна главенствовать над нашими правами на собственные изображения и голоса? Почему их акционеры и генеральные директора получают возможность зарабатывать больше денег на распространении вирусного контента за счет нашей конфиденциальности и репутации? И почему нет никаких последствий для людей, которые фактически создают несанкционированные дипфейки и распространяют ложь? Это конкретное видео никоим образом не представляет собой самую серьезную угрозу, исходящую от дипфейков. В июле выяснилось, что самозванец использовал ИИ, чтобы притвориться государственным секретарем Марко Рубио и связаться по крайней мере с тремя министрами иностранных дел, членом Конгресса и губернатором. И эта технология может перевернуть с ног на голову жизнь практически любого человека. В прошлом году кто-то использовал ИИ, чтобы клонировать голос директора средней школы в Мэриленде и создать аудиозапись, на которой он произносит расистские и антисемитские комментарии. К тому времени, когда аудио было доказано, что оно поддельное, директор уже был отстранен от должности, а семьи и ученики были глубоко ранены. Невозможно quantify хаос, который может произойти в будущем без правовых ограничений. Представьте себе дипфейк генерального директора банка, который спровоцирует набег на банк; дипфейк влиятельного лица, призывающего детей употреблять наркотики; или дипфейк президента США, начинающего войну, которая спровоцирует нападения на наши войска. Возможности бесконечны. С ИИ технология опередила закон, и мы не можем позволить ей идти дальше без правил игры. Какой бы сложной ни была эта технология, некоторые решения находятся within reach. Ранее в этом году президент Трамп подписал закон TAKE IT DOWN Act, в разработке которого мы с сенатором Тедом Крузом pushed для создания правовой защиты для жертв, когда интимные изображения, включая дипфейки, распространяются без их согласия. Этот закон касается роста числа случаев, когда хищники используют инструменты ИИ для создания обнаженных изображений жертв, чтобы унизить или шантажировать их. Мы знаем, что последствия этого могут быть смертельными — недавно по крайней мере 20 детей покончили жизнь самоубийством из-за угрозы распространения откровенных изображений без их согласия. Этот законопроект был только первым шагом. Именно поэтому я снова работаю across the aisle над законопроектом, который даст всем американцам больше контроля над тем, как используются дипфейки наших голосов и визуальных образов. Предлагаемый двухпартийный закон NO FAKES Act, соавторами которого являются сенаторы Крис Кунс, Марша Блэкберн, Том Тилллис и я, даст людям право требовать от компаний социальных сетей удаления дипфейков их голоса и внешности, делая исключения для высказываний, защищенных Первой поправкой. Соединенные Штаты не одиноки в решении этой задачи. Принятый в 2024 году Закон об искусственном интеллекте Европейского союза обязывает четко маркировать и наносить водяные знаки на контент, созданный искусственным интеллектом. А в Дании рассматривается законодательство, которое предоставит каждому гражданину авторские права на его лицо и голос, заставляя платформы удалять несанкционированные дипфейки так же, как они удаляли бы защищенную авторским правом музыку. В Соединенных Штатах и в рамках нашей Конституции мы должны установить разумные safeguards для искусственного интеллекта. Они должны как минимум включать требования к маркировке контента, который substantially сгенерирован ИИ. Мы явно находимся лишь на вершине айсберга. Дипфейки, подобные тому, что был сделан со мной на тех слушаниях, станут более распространенными, а не менее — и их будет труднее идентифицировать как созданные ИИ. У интернета бесконечный аппетит к яркому, спорному контенту, который разжигает гнев. Люди, которые создают эти видео, не остановятся на джинсах Сидни Свини. Мы можем любить технологию и мы можем использовать технологию, но мы не можем уступать всю власть над нашими собственными изображениями и нашей конфиденциальностью. Пришло время членам Конгресса постоять за своих избирателей, перестать заискивать перед технологическими компаниями и внести ясность. В демократии мы делаем это, принимая законы. И давно пора принять такой закон.

Вернуться к списку