НЬЮ-ЙОРК — Підроблене відео, в якому імітується голос віце-президента Камали Харріс, яка говорить те, чого вона не казала, викликає занепокоєння щодо можливості штучного інтелекту ввести в оману день виборів майже на три місяці вперед.
Відео привернуло увагу після того, як технологічний мільярдер Ілон Маск поділився ним на платформі соціальних мереж X у п’ятницю ввечері, не згадуючи, що спочатку воно було опубліковано як пародія.
У відео використовуються багато з тих самих візуальних елементів, що й справжня реклама, опублікована минулого тижня Гарріс, ймовірним кандидатом у президенти від Демократичної партії, на початку своєї кампанії. Але відео замінює звук голосу на інший голос, який переконливо імітує Гарріса.
«Я, Камала Харріс, є кандидатом від Демократичної партії в президенти, тому що Джо Байден нарешті виявив свою маразму в дебатах», — говорить голос у відео. Він стверджує, що Харріс «найнята різноманітність», тому що вона жінка і кольорова людина, і каже, що вона не знає «найпершого, що стосується управління країною». Відео зберігає брендинг “Harris for President”. Він також додає кілька оригінальних минулих кліпів Гарріса.
Міа Еренберг, представник кампанії Харріса, сказала в електронному листі до Associated Press: «Ми віримо, що американський народ хоче справжньої свободи, можливостей і безпеки, які пропонує віце-президент Гарріс. а не фальшива, маніпулятивна брехня Ілона Маска та Дональда Трампа».
Широко розповсюджене відео є прикладом того, як реалістичні зображення, відео чи аудіозаписи, створені ШІ, використовувалися як для розваги, так і для введення в оману щодо політики, коли в Сполучених Штатах наближаються президентські вибори. Це показує, як високоякісні інструменти штучного інтелекту стали набагато доступнішими, а на федеральному рівні все ще бракує значних дій щодо регулювання їх використання, залишаючи правила, якими керується штучний інтелект у політиці, здебільшого залежати від штатів і платформ соціальних мереж.
Відео також викликає питання про те, як найкраще поводитися з контентом, який розмиває межі того, що вважається належним використанням штучного інтелекту, особливо якщо він підпадає під категорію сатири.
Початковий користувач, який опублікував відео, ютубер, відомий як містер Рейган, заявив на YouTube і X, що підроблене відео є пародією. Але допис Маска, який, згідно з даними платформи, переглянули понад 123 мільйони разів, містить лише підпис «Це круто» зі смайлами, що сміються.
Користувачі X, знайомі з платформою, можуть знати, що потрібно клацнути по публікації Маска, щоб перейти до оригінальної публікації користувача, де видно розкриття інформації. Підпис Маска не вказує їм це робити.
Хоча деякі учасники функції «записки спільноти» X для додавання вмісту до публікацій пропонували позначити публікацію Маска, станом на обід неділі до неї не було додано жодної теги. Деякі користувачі мережі поставили під сумнів те, що його публікація може порушувати політику X, згідно з якою користувачі «не можуть ділитися синтетичними, маніпуляційними або вирваними з контексту медіа, які можуть ввести в оману або заплутати людей і завдати шкоди».
У політиці є виняток для мемів і сатири, якщо вони не викликають «суттєвої плутанини щодо автентичності медіа».
На початку цього місяця Маск підтримав колишнього президента Дональда Трампа, кандидата від Республіканської партії. Ні Рейган, ні Маск не відразу відповіли на запити про коментарі, надіслані електронною поштою в неділю.
Двоє експертів, які спеціалізуються на медіа, створених штучним інтелектом, переглянули аудіо фальшивої реклами та підтвердили, що більша частина її була створена за допомогою технології штучного інтелекту.
Один із них, експерт із цифрової криміналістики Каліфорнійського університету в Берклі Хані Фарід, сказав, що відео демонструє силу генетичного штучного інтелекту та дипфейків.
«Голос, створений штучним інтелектом, дуже хороший», — сказав він в електронному листі. «Хоча більшість людей не думають, що це голос віце-президента Гарріс, відео є набагато сильнішим, коли слова в її голосі».
Він сказав, що компанії зі штучним інтелектом, які випускають інструменти клонування голосу та інші інструменти штучного інтелекту для громадськості, повинні докладати більше зусиль, щоб їхні послуги не використовувалися таким чином, що може завдати шкоди людям або демократії.
Роб Вайсман, співпрезидент правозахисної групи Public Citizen, не погодився з Фарідом, сказавши, що він вважає, що багато людей введе в оману відео.
«Я не думаю, що це явно смішно», — сказав Вайсман в інтерв’ю. «Я впевнений, що більшість людей, які бачать це, не вважають це смішним. Якість не дуже хороша, але досить хороша. І саме тому, що це підживлює вже існуючі теми, які циркулювали навколо нього, більшість людей повірить, що це правда».
Вайсман, чия організація виступає за те, щоб Конгрес, федеральні агентства та штати регулювали генетичний штучний інтелект, сказав, що це відео «це те, про що ми попереджали».
Інші творчі дипфейки штучного інтелекту як у США, так і в інших країнах намагатимуться схилити виборців за допомогою дезінформації, гумору чи обох. У Словаччині у 2023 році фейкові аудіозаписи видавалися за кандидата, який обговорював плани фальсифікації виборів і підвищення ціни на пиво за кілька днів до голосування. У 2022 році в Луїзіані сатирична реклама комітету політичних дій наклала обличчя кандидата в мери Луїзіани на актора, який зобразив його невстигаючим старшокласником.
Конгрес ще має ухвалити законодавство щодо штучного інтелекту в політиці, а федеральні агентства вжили лише обмежених заходів, залишивши більшість існуючих американських законів на відкуп штатам. За даними Національної конференції законодавчих зборів штатів, більше третини штатів створили власні закони, що регулюють використання штучного інтелекту під час кампаній і виборів.
Крім X, інші компанії соціальних медіа також розробили політику щодо синтетичних і маніпуляційних медіа, які поширюються на їхніх платформах. Користувачі відеоплатформи YouTube, наприклад, повинні повідомляти, чи використовували вони генетичний штучний інтелект для створення відео, інакше їм загрожує призупинення.
___
Associated Press отримує підтримку від різних приватних фондів для покращення свого пояснювального висвітлення виборів і демократії. Більше про демократичну ініціативу AP дивіться тут. AP несе повну відповідальність за весь вміст.