Згідно з висновками, опублікованими в журн BMJ Health and Care Informaticsкожен п’ятий лікар повідомив, що використовує ці інструменти штучного інтелекту для виконання різноманітних завдань, зокрема для написання листів пацієнтам після призначення
читати далі
Нещодавнє опитування показало, що значна кількість лікарів загальної практики (GP) у Великій Британії використовують інструменти штучного інтелекту (AI), такі як ChatGPT, у своїй щоденній практиці.
Відповідно до результатів, опублікованих у журналі BMJ Health and Care Informatics, кожен п’ятий лікар повідомив, що використовує ці інструменти штучного інтелекту для виконання різних завдань, зокрема написання листів пацієнтам після запису на прийом.
В опитуванні взяли участь 1006 лікарів загальної практики, яких запитали про їхній досвід роботи з чат-ботами штучного інтелекту, включаючи ChatGPT, Bing AI і Gemini від Google.
Практичне застосування в клінічній практиці
Результати опитування висвітлили кілька способів, якими лікарі загальної практики використовують інструменти ШІ у своїй клінічній роботі. Майже третина респондентів, які використовували інструменти штучного інтелекту, сказали, що використовували їх для створення документації після консультацій з пацієнтами.
Крім того, 28 відсотків повідомили, що використовують ці інструменти для вивчення альтернативних діагнозів, тоді як чверть використовували штучний інтелект, щоб запропонувати можливі варіанти лікування. Ці системи штучного інтелекту генерують письмові відповіді на запитання, поставлені лікарями, таким чином оптимізуючи певні аспекти їхньої практики.
Дослідники, які стояли за цим дослідженням, відзначили, що інструменти штучного інтелекту, схоже, є цінними, зокрема в обробці адміністративних завдань і підтримці прийняття клінічних рішень. Це свідчить про те, що, хоча інтеграція штучного інтелекту в охорону здоров’я все ще перебуває на початковій стадії, вона вже має помітний вплив на те, як лікарі керують своїми робочими навантаженнями.
Точність і конфіденційність пацієнта
Незважаючи на переваги, все більш широке використання штучного інтелекту в клінічних умовах викликає занепокоєння, особливо щодо точності та конфіденційності пацієнтів. Дослідники поставили під сумнів потенційні ризики, пов’язані з тим, як інтернет-компанії можуть обробляти дані, що використовуються інструментами на основі ШІ.
Вони підкреслили важливість забезпечення того, щоб ці технології відповідали відповідним нормам і не порушували конфіденційність пацієнтів.
Судово-медичні консультанти повторили ці занепокоєння, зазначивши, що відповіді, згенеровані ШІ, хоча часто добре сформульовані, іноді можуть містити неточності або посилатися на неправильні інструкції. Ця проблема може стати особливо проблематичною, коли штучний інтелект використовується для розробки відповідей на скарги пацієнтів.
Було підкреслено важливість етичного використання штучного інтелекту відповідно до законів про захист даних із закликами до підвищення обізнаності серед нинішніх і майбутніх лікарів як про переваги, так і про ризики штучного інтелекту в охороні здоров’я.
Оскільки використання штучного інтелекту в клінічній практиці продовжує розвиватися, для медичних працівників залишається життєво важливим ретельно користуватись цими інструментами, збалансовуючи ефективність, яку вони пропонують, із відповідальністю за дотримання високих стандартів догляду та конфіденційності пацієнтів.