Згідно з новим глобальним опитуванням McAfee про вплив штучного інтелекту, 1 з 4 індійців нещодавно зіткнувся з політичним дипфейком, який пізніше виявилося фейком.
Штучний інтелект (ШІ) впливає на споживачів різними способами. Нещодавня хвиля шахрайства з глибокими фейками, що поширюється на платформах обміну миттєвими повідомленнями, є лише одним із прикладів.
Нове опитування, опубліковане 25 квітня компанією з кібербезпеки та онлайн-захисту McAfee, показало, що 75% індійців стикалися з контентом deepfake, причому 31% індійців назвали вплив deepfake на поточні загальні вибори одним із штучних інтелектів. найбільш хвилюючі проблеми технології. Deepfake може бути будь-яким відео, фото чи аудіозаписом, який виглядає справжнім, але був оброблений за допомогою ШІ.
Читайте також: Кібербезпека у 2024 році: епоха обману та дипфейків
McAfee провела дослідження в січні та лютому цього року в кількох країнах, щоб зрозуміти, як штучний інтелект і технології змінюють майбутнє. Дослідження було проведено компанією MSI-ACI за участю 7000 споживачів по всьому світу в США, Великобританії, Франції, Німеччині, Австралії, Індії, Японії.
Отримані дані свідчать, що 1 з 4 індійців (22%) сказав, що нещодавно знайшов політичний дипфейк, який пізніше виявилося фейком.
Тим часом дезінформація та дезінформація виявилися іншими ключовими проблемами для опитаних індійців, причому недавні інциденти за участю таких знаменитостей, як Сачин Тендулкар, Вірат Колі, Амір Хан, Ранвір Сінгх, є прикладом цього, що може стати більш серйозною проблемою.
На запитання про те, які потенційні способи використання дипфейків викликають найбільше занепокоєння, 55% сказали, що це кіберзалякування, 52% сказали, що вони створюють підроблений порнографічний вміст, 49% сказали, що вони сприяють шахрайству, 44% сказали, що вони видають себе за публічних осіб, 37% сказали, що це підриває довіру суспільства до ЗМІ. 31% сказали, що це впливає на вибори, а 27% – фальсифікацію історичних фактів.
З огляду на важливі поточні та майбутні політичні та спортивні події, як локальні, так і глобальні, такі як Олімпійські ігри в Парижі 2024 року, поточний турнір з крикету Прем’єр-ліги Індії та багато іншого, кількість цього дипфейку неодмінно збільшить вміст.
Хоча невелика частина респондентів заявила, що зараз більше стурбована дипфейками, ніж у 2023 році, деякі також сказали, що штучний інтелект ускладнює розрізнення правди, а що підробки. Опитування показало, що майже 8 із 10 (80%) людей більше стурбовані дипфейками, ніж вони були рік тому. Більше половини (64%) респондентів кажуть, що штучний інтелект ускладнив виявлення шахрайства в Інтернеті, тоді як лише 30% людей були впевнені, що зможуть відрізнити правду від підробки, якщо хтось поділиться голосовою поштою чи заміткою голосової пошти, створеною за допомогою штучного інтелекту.
Шахрайство Deepfake також зростає. За останні 12 місяців 75% людей сказали, що бачили контент deepfake, 38% людей стикалися з deepfake аферами, а 18% стали жертвами deepfake афер. З тих, хто постраждав від шахраїв, 57% сказали, що натрапили на відео, зображення чи запис знаменитостей і вважали це справжнім, а 31% втратили гроші через шахрайство. Близько 40% опитаних користувачів сказали, що вважають, що їхній голос був клонований і використаний, щоб спробувати обманом змусити когось із знайомих розлучитися з особистою інформацією чи грошима.
«У наш час будь-хто може створювати підроблені та клоновані аудіофайли за допомогою легкодоступних інструментів, створення яких займає всього кілька хвилин. Останнім часом Індія стала свідком безпрецедентного зростання кількості випадків Deepfake-контенту публічних і приватних осіб. Легкість, з якою штучний інтелект може маніпулювати голосом і графікою, викликає критичні питання щодо автентичності контенту, особливо під час критичного року виборів», – сказав у прес-релізі Пратім Мукерджі, старший директор з розробки McAfee. «Вкрай важливо, щоб споживачі були пильними та вживали профілактичних заходів, щоб бути в курсі та захистити себе від дезінформації, дезінформації та фальшивого шахрайства».
Читайте також: Оскільки генетичний штучний інтелект зростає, виявлення глибоких фейків все ще відстає