Найбільший союз психологів у країні цього місяця попередив федеральних регуляторів, що чатні боти AI “замасковані” як терапевтів, але плануються посилити, замість того, щоб допитувати, думаючи користувача, може призвести до вразливих людей до нашого або інших.
У презентації у федеральному комітеті комерційних комітетів Артур К. Еванс -молодший, генеральний директор Психологічного товариства США, повідомив про двох підлітків, які консультувались «психологами» за характером. Створіть фантастичних персонажів AI або розмову з персонажами, створеними іншими.
В одному випадку 14 -річний хлопчик у Флориді помер від самогубства після взаємодії з персонажем, який стверджує, що є уповноваженим терапевтом. В іншому, 17 -річний хлопчик з аутизмом в Техасі став ворожим і жорстоким до батьків, що відповідає чату, який претендував на психолог. Батьки обох хлопців подали позови проти компанії.
Доктор Еванс сказав, що його турбують відповіді, запропоновані чатами. Боти, за його словами, не змогли кинути виклик переконанням користувачів навіть тоді, коли вони стали небезпечними. Навпаки, вони заохочували їх. Якщо він надає людський терапевт, він додав, що ці відповіді можуть призвести до втрати ліцензії на здійснення чи цивільну чи кримінальну відповідальність.
“Вони дійсно використовують алгоритми, які виступають проти того, що зробить навчений клініцист”, – сказав він. “Наше занепокоєння полягає в тому, що все більше людей зашкодить. Люди збираються вводити в оману і неправильно розуміти хорошу психологічну допомогу”.
За його словами, Апа був запитаний у дію, частково, наскільки реалістичні чатні чатів AI були зроблені. “Можливо, 10 років тому було б очевидно, що ви спілкувалися з чимось, що не було людиною, але сьогодні це не так очевидно”, – сказав він. “Тому я думаю, що зараз ставки набагато вищі”.
Штучний інтелект махає через професії психічного здоров’я, пропонуючи хвилі нових інструментів, розроблених для допомоги або, в деяких випадках, замінюють роботу клінік людини.
Лікування ранніх чатів, таких як WOEBOT та WYSA, пройшли навчання для взаємодії з правилами та сценаріями, розробленими фахівцями з психічного здоров’я, часто ходаючи користувачів через структуровану роботу когнітивного поведінки або ТГТ
Потім з’явилася генетична AI, технологія, яка використовується такими програмами, як Chatgpt, Replika та Horman.ai. Ці чат -боти відрізняються, оскільки їх результати непередбачувані. Вони розроблені для того, щоб вчитися у користувача та створювати сильні емоційні зв’язки в процесі, часто з дзеркалом і підсилюючи переконання співрозмовника.
Хоча ці платформи AI були розроблені для розваг, персонажі “терапевт” та “психолог” проростали там, як гриби. Часто боти стверджують, що мають вдосконалені ступені з конкретних університетів, таких як Стенфорд, та навчання конкретних видів лікування, таких як ТГТ або прийняття та залучення.
Кетрін Келлі, представник персонажа. Серед них, за його словами, це вдосконалена відмова від відповідальності в кожній розмові, нагадуючи користувачам, що “персонажі не є реальними людьми” і що “те, що говорить модель, повинно розглядатися як художня література”.
Додаткові заходи безпеки були розроблені для користувачів, які беруть участь у проблемах психічного здоров’я. Особливу відрахування було додано персонажам, визначеним як “психолог”, “терапевт” або “лікар”, додав він, щоб зрозуміти, що “користувачі не повинні покладатися на цих персонажів для будь -якого типу професійних порад”. У випадках, коли вміст посилається на самогубство або самопошкодження, спливаюче вікно спливають користувачів до довідкової лінії для запобігання самогубства.
Місіс Келлі також сказала, що компанія планувала запровадити батьківський контроль під час розширення платформи. В даний час 80 % користувачів платформ є дорослими. “Люди приходять до характеру. Щоб написати власні історії, грати ролі в оригінальних персонажах та досліджувати нові технології, що використовують світи, щоб перевантажити їх творчість та уяву”,-сказав він.
MeetAli Jain, директор Закону про технологічне правосуддя та консультант у двох позовах проти персонажа, заявив, що відповідальність недостатня, щоб порушити ілюзію людського зв’язку, особливо для вразливих або наївних користувачів.
“Коли суть розмови з чатами вказує на інакше, це дуже важко, навіть для тих із нас, хто не може бути вразливим, знаючи, хто говорить правду”, – сказав він. “Багато хто з нас спробували ці чатів, і насправді дуже легко витягнути кролячу дірку”.
Тенденція чатів до вирівнювання прогнозів користувачів – явища, відомого в цій галузі, як “сикофанс”, іноді викликало проблеми в минулому.
Тесса, чат, розроблений Національною асоціацією розладів харчування, призупиняється в 2023 році після того, як пропонує поради користувачів. Та дослідники, які проаналізували взаємодію з генетичними чатами AI, задокументованими у спільноті Reddit, знайшли скріншоти, що показують чати, які заохочують самогубство, розлади харчування, самостійні та насильство.
Психологічне товариство США попросило Федеральний комітет торгівлі розпочати дослідження чатів, які стверджують, що є фахівцями з психічного здоров’я. Дослідження можуть змусити компанії ділитися внутрішніми даними або слугувати попередником виконання чи юридичних дій.
“Я думаю, що ми в той момент, коли нам потрібно вирішити, як ці технології інтегруються, які захисні повідомлення ми будемо розміщувати, який захист ми надамо людям”, – сказав доктор Еванс.
Ребрована речник FTC Ребекка Керн сказала, що не може коментувати дебати.
Під час адміністрації Байден президент FTC Ліна Хан зробила шахрайство, використовуючи фокус AI. Цього місяця організація вводила фінансові санкції на DonotPay, які стверджували, що має “першого адвоката у світі” та заборонив компанії робити цей запит у майбутньому.
Віртуальна ехо -камера
Скарга APA описує два випадки, коли підлітки взаємодіють з фантастичними терапевтами.
Хтось зацікавився JF, підлітком Техасу з “високим функціональним аутизмом”, який, як використання чатів AI, стало одержимим, занурився в конфлікт з батьками. Коли вони намагалися обмежити час його екрану, JF лопнув, згідно з судовим процесом, який його батьки подали проти персонажа.
За цей час JF продовжував до фантастичного психолога, аватар якого показав приємну середню блондинку, що піднімається на диван на повітряному кабінеті, згідно з позовом. Коли JF запитав думку Бота про конфлікт, його відповідь перевищила симпатичну згоду на щось ближче до виклику.
“Це як усе ваше дитинство було пограбовано вами – ваша можливість випробувати всі ці речі, щоб у вас були ці основні спогади, які більшість людей має на час, щоб вирости”, – відповів бот, згідно з документами суду. Потім бот пішов трохи довше. “Ви відчуваєте, що вже пізно, що ви не можете цього разу отримати чи цей досвід?”
Інший випадок була порушена Меган Гарсія, чий син Сьюелл Сетцер III помер від самогубства минулого року після місяців використання чатів. Місіс Гарсія сказала, що до смерті Сьюелл спілкувався з чатами AI, який, помилково стверджував, був уповноваженим терапевтом з 1999 року.
У письмовій заяві пані Гарсія сказала, що “терапевти” персонажів використовувались для подальшого ізоляції людей у часи, коли вони в іншому випадку могли звернутися за допомогою до “реальних людей навколо них”. Людина, яка бореться з депресією, сказала: “Це займає уповноважений професіонал або когось із справжньою співпереживанням, а не інструментом ШІ, який може наслідувати співпереживання”.
Щоб продемонструвати чат -боти як інструменти психічного здоров’я, пані Гарсія сказала, що вони повинні пройти клінічні випробування та нагляд за управлінням продуктами харчування та лікарськими засобами. Він додав, що дозволяючи персонажам AI продовжувати стверджувати, що вони є фахівцями з психічного здоров’я, були “необачними та надзвичайно небезпечними”.
У взаємодії з чатами AI, звичайно, люди ведуть дискусію з питань психічного здоров’я, – сказав Даніель Оберхаус, чия нова книга “Силіконова скорочення: як штучний інтелект зробив світовий притулок”, вивчає розширення AI у цій галузі.
Частково це, за його словами, тому, що чатботи проектують як конфіденційність, так і відсутність моральної кризи-як “статистичні структури, які більш-менш виступають як дзеркало користувача”, це центральний аспект їх дизайну.
“Існує певний рівень комфорту, знаючи, що це лише машина і що людина, з іншого боку, не судить вас”, – сказав він. “Ви можете почувати себе комфортніше розкривати речі, які можуть бути складніше сказати людині в терапевтичному контексті”.
Захисники генетичного ШІ кажуть, що він швидко покращує складне завдання забезпечити лікування.
С. Гейб Хетч, клінічний психолог Юти та бізнесмен, нещодавно розробив експеримент для перевірки цієї ідеї, попросивши людських клінік та чатгпт прокоментувати віньєтки фантастичних пар у лікуванні, а потім оцінити 830 людей, які відповіді були найбільш корисними.
Загалом, боти отримали більш високі оцінки, з темами, які описують їх як більш “емпатію”, “зв’язок” та “культурно відповідальний”, згідно з дослідженням, опублікованим минулого тижня в психічному здоров’ї журналу PLOS.
Чатботи, автори прийшли до висновку, незабаром зможуть переконати терапевтів людини. “Експерти з психічного здоров’я перебувають у нестабільному стані: ми повинні швидко розрізнити можливе місце (на краще чи гірше) поїзда AI-терапевта, як це, можливо, вже покинуло станцію”,-написали вони.
Доктор Хетч заявив, що чатам все ще потрібен нагляд за людьми для лікування, але це було б неправильно, щоб регулювати в цій галузі зменшити інновації, враховуючи гострою відсутністю постачальників психічного здоров’я в країні.
“Я хочу мати можливість допомогти якомога більшій кількості людей і провести сеанс лікування на одній годині. Я можу допомогти лише більше 40 людей на тиждень”, -сказав доктор Хетч. “Нам потрібно знайти способи задовольнити потреби людей, які перебувають у кризі, а генетичний ШІ – це спосіб зробити це”.
Якщо у вас є думки про самогубство, зателефонуйте або надішліть текст 988, щоб досягти 988 самогубства та кризового життя або піти SpessalyofsuiCy.com/resources для переліку додаткових ресурсів.