Глубокая ложь угрожает раздувать «дивиденды лжеца»
Обновления AI
Подпишитесь на myFT Daily Digest, чтобы первым узнавать о новостях AI.
Когда Вернер Херцог снимал свой документальный фильм о русском мистицизме Колокола из глубиныОн подтолкнул двух сибирских пьяниц лечь на лед на озере и притвориться паломниками, слушая бой колоколов из мифического затерянного города Китежа. Немецкий режиссер Он отстаивал свою уловку, различая буквальную правду бухгалтеров и поэтическую правду художников.
Постоянное обсуждение того, что представляет собой художественная честность, получило новый технологический поворот. релиз Дятел, Фильм об известном шеф-поваре и писателе Энтони Бурдене. Режиссер фильма Морган Невилл вызвал гнев некоторых кинематографистов после того, как вскользь признался, что использовал программное обеспечение, созданное с помощью искусственного интеллекта, для имитации голоса Бурдена при чтении частных писем, написанных перед его самоубийством в 2018 году.
Некоторые критики выразили свое оскорбление Что аудиторией манипулировали. Несомненно, было бы более уважительно, если бы об использовании синтаксического звука было сообщено заранее, даже если его использование вряд ли является преступлением, караемым смертной казнью. Однако в этом эпизоде подчеркивается, как так называемые дипфейки проникают в нашу культуру, зачастую незаметно. Как и многие другие аспекты нашего цифрового мира, его использование развивается за счет хаотического сочетания технологических возможностей, деловых и политических движущих сил, государственного регулирования и социальных норм.
Термин «дипфейк» впервые появился в 2017 году в сообщении Reddit, в котором говорится об использовании методов глубокого обучения искусственного интеллекта для создания поддельного контента. С тех пор создание синтетических текстов, изображений, аудио и видео получило широкое распространение. Одна компания по искусственному интеллекту В прошлом году в Интернете было распространено более 85 000 глубоких фейковых видео. Некоторые предназначены для развлечения, иронии или художественной провокации. Например, британский канал Channel 4 ошеломил зрителей в 2020 году. Трансляция фильма дипфейк королевы Елизаветы Доставьте альтернативное послание к Рождеству.
Но много дипфейков имеет злые намерения. Учеба с 2019 года Выяснилось, что 96 процентов дипфейк-видео содержали без согласия порнографию с обменом лицами, нацеленную на знаменитостей или борцов за гражданские права. Технология Deepfake также может использоваться для создания фальшивых профилей изображений, подписей в газетах и синтетических статей, которые подпитывают дезинформацию. в марте , ФБР предупредило, что иностранные агенты عملاء Скорее всего, вы будете использовать синтетические СМИ для распространения пропаганды.
Существует четыре основных способа противодействия такому злоупотреблению дипфейками, но ни один из них не предлагает частичного решения. Во-первых, технологические компании, которые несут контент, могут использовать более умные инструменты для выявления и блокировки коррумпированных дипфейков. Но эти технические устройства с большей вероятностью принесут «временные победы», по словам Ноя Джанциракузы, автора книги Как алгоритмы создают и предотвращают фейковые новости. Многие сети deepfake состоят из генеративных состязательных сетей, в которых две конкурирующие нейронные сети сталкиваются друг с другом. Как следует из названия, этот процесс сводится к технологической гонке вооружений за создание более надежного контента. «Они буквально учатся избегать обнаружения», – говорит он.
Во-вторых, большую роль играют коммерческие стимулы, на которые может повлиять продвижение дипфейков. Технологические компании не только фанатичны, но и действуют как сутенеры. Их алгоритмы предназначены для генерирования кликов и просмотров страниц, обеспечения доступа к интересному синтетическому контенту для массовой аудитории и даже для вознаграждения их создателей рекламными деньгами. Активисты и рекламодатели могут нажимать на платформы, чтобы изменить свою мораль.
В-третьих, законодатели в Соединенных Штатах и других странах обсудили криминализацию тех, кто использует технологию deepfake для нанесения вреда отдельным лицам или создания угрозы национальной безопасности. Законодательные органы Калифорнии и Техаса уже приняли законы, ограничивающие использование синтетических СМИ во время избирательных кампаний. Европейский Союз даже разработал закон, который заставляет компании сообщать пользователям всякий раз, когда ИИ используется для имитации человека. Все это звучит хорошо в теории, но на практике это может стать кошмаром.
Наконец, есть социальная адаптация. Ученые-бихевиористы говорят об обучении пользователей Интернета принципам «предварительного встраивания» вводящего в заблуждение контента вместо того, чтобы пытаться опровергнуть его после публикации. Возможно, самая большая опасность дипфейк-контента заключается в том, что он раздувает «доход лжеца», заставляя всех подвергать сомнению все и недооценивать ценность монеты правды. Как объяснил американский конгрессмен Адам Шифф: «Поддельные видеоролики могут не только передаваться как настоящие, но и реальная информация может считаться поддельной».
Податливость технологий и изобретательность человеческого разума таковы, что войну с вредоносными дипфейками невозможно выиграть. Однако эффект дипфейков зависит от того, как они используются, от контекстов, в которых они используются, и от размера аудитории, которую они охватывают. Это основания, которые все еще заслуживают оспаривания.