Фундаментні моделі з можливістю обробляти та створювати багатомодельні дані, перетворили роль ШІ в медицину. Однак дослідники виявили, що значним обмеженням їх довіри є галюцинації, де неточна або побудована інформація може вплинути на клінічні рішення та безпеку пацієнтів, згідно з дослідженням, опублікованим у Medrxiv.
У дослідженні дослідники визначали медичну ілюзію як будь -який випадок, коли модель створює оманливий медичний зміст.
Дослідники мають на меті вивчити унікальні характеристики, причини та наслідки медичних галюцинацій з особливим акцентом на те, як виникають ці помилки в реальних клінічних сценаріях.
Розглядаючи медичні галюцинації, дослідники зосереджувались на класифікації, щоб зрозуміти та лікувати медичні галюцинації, Порівняльні моделі оцінювання з використанням набору даних про медичну ілюзію та відповіді на модель великої мови (LLM) для лікаря, що забезпечує негайну картину клінічних наслідків ілюзій та багатонаціональних досліджень клініки щодо їх досвіду з медичними ілюзіями.
“Наші результати показують, що методи висновків, такі як ланцюг, спрямований на збільшення пошуку, можуть ефективно зменшити ілюзії.
Дослідники зазначають, що дані дослідження підкреслюють моральну та практичну вимогу “сильних стратегій виявлення та пом’якшення”, створюючи основу для регуляторів, які надають пріоритет безпеку пацієнтів та підтримують клінічну цілісність, оскільки ШІ є більш інтегрованою.
“Відгуки клінічних лікарів наголошують на тому, що термінові потреби не тільки для технічних розробок, але і для більш чітких моральних та регуляторних рекомендацій для забезпечення безпеки пацієнтів”, – написали автори.
Найбільша тенденція
Автори зазначили, що коли моделі фундаменту стають більш інтегрованими в клінічну практику, їх висновки повинні слугувати критичним посібником для дослідників, розробників, клініцистів та політиків.
“Просування вперед, продовження уваги, міждисциплінарна співпраця та зосередження уваги на сильній валідації та етичних рамках матимуть надзвичайно важливе значення для реалізації потенціалу трансформації ШІ в охороні здоров’я, тоді Союзник у посиленні догляду за пацієнтами та клінічного прийому, «письмо», написання.
На початку цього місяця Девід Ларо, генеральний директор та президент Medicomp Systems, сидів HIMSS TV для обговорення пом’якшення галюцинацій AI для поліпшення догляду за пацієнтами. Ларо заявив, що від 8% до 10% інформації, знищеної AI із складених зустрічей, може бути правильним. Однак інструмент його компанії може вказати на ці проблеми для перегляду клініцистів.
З Американське товариство з раком (ACS) та Lear Health Company Health Health оголосили про тривале партнерство з метою використання LLM для прискорення досліджень раку.
ACS використовуватиме платформу видалення даних про охорону здоров’я LLM для отримання клінічних даних у тисяч пацієнтів медичних пацієнтів, зафіксованих у дослідженнях АСС.
Ці дослідження включають дослідження профілактики раку, дослідження населення 300 000 учасників, включаючи багато тисяч діагностованих раку та надавали їх медичну документацію.
Платформа охорони здоров’я шару забезпечить менше часу для підвищення ефективності досліджень раку та дозволу АСС отримувати глибші знання з медичних записів. Платформа AI спеціально призначена для охорони здоров’я для вивчення позачасового медичного запису пацієнта та відповіді на складні клінічні питання, використовуючи метод, заснований на доказах, спрямованих на виправдання будь -якої відповіді з негайними уривками з діаграми.
План надає пріоритет прозорість та пояснення та видаляє проблему “ілюзій” періодично спостерігається з іншими LLM, заявили компанії.