ВАШИНГТОН — Дитячий психіатр, який змінив фотографію першого шкільного дня, яку він побачив у Facebook, щоб група дівчат виглядала оголеною. Солдата армії США звинуватили у створенні зображень сексуального насильства над дітьми, яких він знайомий. Інженер-програміст, якому доручено створювати гіперреалістичні сексуальні образи дітей.
Правоохоронні органи в США борються з тривожним поширенням зображень сексуального насильства над дітьми, створених за допомогою технології штучного інтелекту – від підроблених фотографій реальних дітей до графічних комп’ютерних зображень дітей. Представники Міністерства юстиції кажуть, що вони агресивно переслідують правопорушників, які використовують інструменти штучного інтелекту, у той час як штати намагаються забезпечити, щоб люди, які створюють «дипфейки» та інші шкідливі зображення дітей, могли бути притягнуті до відповідальності за їхніми законами.
«Нам потрібно завчасно і часто повідомляти, що це злочин, що воно буде розслідувано і притягнено до відповідальності, коли це підтвердять докази», — сказав Associated Press Стівен Грокі, керівник відділу експлуатації дітей і непристойності міністерства юстиції. «І якщо ви сидите там і думаєте інакше, ви фактично помиляєтеся. І це лише питання часу, коли хтось притягне вас до відповідальності».
Міністерство юстиції стверджує, що існуючі федеральні закони чітко застосовуються до такого контенту, і нещодавно порушило першу федеральну справу щодо зображень, повністю створених штучним інтелектом, тобто зображені діти не реальні, а віртуальні. В іншому випадку федеральна влада в серпні заарештувала американського солдата, дислокованого на Алясці, звинуваченого в тому, що він показував невинні фотографії справжніх дітей, яких він знав, через чат-бот зі штучним інтелектом, щоб зробити зображення сексуально відвертими.
Судове переслідування відбулося в той момент, коли захисники дітей терміново працюють над припиненням зловживання технологією, щоб запобігти потоку тривожних зображень, які, на думку чиновників, ускладнять порятунок справжніх жертв. Співробітники правоохоронних органів стурбовані тим, що слідчі витрачатимуть час і ресурси, намагаючись розшукати та ідентифікувати дітей, які піддавалися експлуатації, яких насправді не існує.
Тим часом законодавці ухвалюють низку законів, щоб місцева прокуратура могла висунути звинувачення відповідно до законів штату за створені штучним інтелектом «дипфейки» та інші зображення дітей сексуального характеру. Згідно з оглядом Національного центру розшуку зниклих безвісти, губернатори більш ніж десятка штатів підписали цього року закони про боротьбу зі створеними в цифровому форматі або зміненими зображеннями сексуального насильства над дітьми. & Експлуатовані діти.
«Ми наздоганяємо правоохоронні органи в технології, яка, відверто кажучи, розвивається набагато швидше, ніж ми», — сказав окружний прокурор округу Вентура, штат Каліфорнія, Ерік Насаренко.
Насаренко підштовхнув закон, підписаний минулого місяця губернатором Гевіном Ньюсомом, який чітко визначає, що створені за допомогою ШІ матеріали про сексуальне насильство над дітьми є незаконними згідно із законодавством Каліфорнії. Насаренко сказав, що його офіс не міг переслідувати вісім справ, пов’язаних із контентом, створеним штучним інтелектом, у період з грудня минулого року до середини вересня, оскільки закон Каліфорнії вимагав від прокуратури довести, що на зображеннях зображена справжня дитина.
Правоохоронні органи кажуть, що зображення сексуального насильства над дітьми, створені штучним інтелектом, можна використовувати для догляду за дітьми. І навіть якщо вони не зазнають фізичного насильства, діти можуть глибоко вплинути, коли їхній імідж змінюється так, щоб він виглядав явно сексуальним.
«Я відчував, ніби частину мене забрали. Навіть незважаючи на те, що я не зазнала фізичного насильства», – сказала 17-річна Кейлін Хейман, яка знялася в шоу «Just Roll with It» на Disney Channel і допомагала просувати законопроект у Каліфорнії після того, як стала жертвою «deepfake» зображень.
Минулого року Гейман свідчила на федеральному суді над чоловіком, який цифровим способом наклав її обличчя та обличчя інших дітей-акторів на тіла статевих актів. У травні його засудили до понад 14 років позбавлення волі.
Відомо, що моделі штучного інтелекту з відкритим кодом, які користувачі можуть завантажувати на свої комп’ютери, віддають перевагу злочинцям, які можуть далі навчати або модифікувати інструменти для відтворення чітких зображень дітей, кажуть експерти. Порушники обмінюються порадами в темних веб-спільнотах про те, як маніпулювати інструментами штучного інтелекту для створення такого контенту, кажуть чиновники.
Минулорічна доповідь Стенфордської інтернет-обсерваторії виявила, що дослідницький набір даних, який був джерелом для провідних розробників зображень штучного інтелекту, таких як Stable Diffusion, містив посилання на зображення дітей сексуального характеру, що сприяло легкості, з якою деякі інструменти могли створювати шкідливі зображення. . Набір даних було виведено з експлуатації, а дослідники пізніше заявили, що видалили з нього понад 2000 веб-посилань на зображення ймовірних сексуальних насильств над дітьми.
Провідні технологічні компанії, включаючи Google, OpenAI і Stability AI, погодилися співпрацювати з організацією Thorn, яка бореться з сексуальним насильством над дітьми, щоб боротися з поширенням зображень сексуального насильства над дітьми.
Але експерти кажуть, що з самого початку слід було зробити більше, щоб запобігти неправильному використанню, перш ніж технологія стане широко доступною. І кроки, які зараз вживають компанії, щоб ускладнити зловживання майбутніми версіями інструментів штучного інтелекту, «мало допоможуть запобігти» злочинцям запускати старіші версії моделей на їхніх комп’ютерах «без виявлення», зазначив адвокат Міністерства юстиції в нещодавніх судових документах. .
«Не було витрачено часу на те, щоб зробити продукти безпечними, а не ефективними, і це дуже важко зробити в ретроспективі — як ми бачили», — сказав Девід Тіль, головний технолог Стенфордської інтернет-обсерваторії.
Національний центр зниклих безвісти & Минулого року Exploited Children’s CyberTipline надійшло близько 4700 повідомлень про контент із застосуванням технології штучного інтелекту — незначна частка з понад 36 мільйонів повідомлень про підозру в сексуальній експлуатації дітей. До жовтня цього року група щомісяця надавала близько 450 звітів про контент, пов’язаний зі штучним інтелектом, сказав Йота Сурас, головний юридичний директор групи.
Однак ці цифри можуть бути заниженими, оскільки зображення настільки реалістичні, що часто важко сказати, чи були вони створені ШІ, кажуть експерти.
«Слідчі витрачають години на те, щоб визначити, чи зображення насправді зображує справжнього неповнолітнього, чи воно було створене штучним інтелектом», — сказав Рікол Келлі, заступник окружного прокурора округу Вентура, який допомагав писати каліфорнійський законопроект. «Раніше були деякі дійсно чіткі показники… з прогресом у технології ШІ це вже не так».
Представники міністерства юстиції кажуть, що згідно з федеральним законодавством вони вже мають інструменти для переслідування правопорушників за такі зображення.
У 2002 році Верховний суд США скасував федеральну заборону на віртуальні матеріали сексуального насильства над дітьми. Проте федеральний закон, який був підписаний наступного року, забороняє виробництво візуальних зображень, у тому числі малюнків, дітей, які ведуть сексуальну поведінку, яка вважається «непристойною». У цьому законі, який, за словами Міністерства юстиції, використовувався в минулому для звинувачення в сексуальному насильстві над дітьми за мультфільмами, конкретно зазначається, що немає вимоги щодо того, що «зображена неповнолітня дійсно існує».
У травні Міністерство юстиції висунуло це звинувачення проти інженера програмного забезпечення штату Вісконсін, звинуваченого у використанні інструменту штучного інтелекту Stable Diffusion для створення фотореалістичних зображень дітей, які займаються сексуальною поведінкою, і був заарештований після того, як надіслав кілька 15-річному хлопчику через прямий доступ. повідомлення в Instagram, повідомляє влада. Адвокат чоловіка, який наполягає на знятті звинувачень на підставі Першої поправки, відмовився коментувати звинувачення в електронному листі AP.
Представник Stability AI сказав, що чоловіка звинувачують у використанні попередньої версії інструменту, випущеного іншою компанією, Runway ML. Стабільність AI каже, що вона «інвестувала в проактивні функції, щоб запобігти неправильному використанню штучного інтелекту для створення шкідливого контенту», оскільки взяла на себе ексклюзивну розробку моделей. Представник Runway ML не відразу відповів на запит про коментар від AP.
У справах, пов’язаних із «дипфейками», коли фотографію справжньої дитини було змінено цифровим способом, щоб зробити її сексуально нерозбірливою, Міністерство юстиції висуває звинувачення згідно з федеральним статутом «дитячої порнографії». В одному випадку дитячий психіатр із Північної Кароліни, який використовував додаток зі штучним інтелектом, щоб цифрово «роздягнути» дівчат, які позували в перший день у школі на фотографії десятиліття тому, опублікованій у Facebook, був засуджений за федеральними звинуваченнями минулого року.
«Ці закони існують. Вони будуть використані. Ми маємо волю. У нас є ресурси», – сказав Грокі. «Це не буде низьким пріоритетом, який ми ігноруємо, тому що справжня дитина не залучена».