The Сьогодні набуває чинності Закон ЄС про штучний інтелект, який визначає правила розробки, маркетингу, впровадження та використання штучного інтелекту в Європейському Союзі.
Рада написала, що закон має на меті «сприяти впровадженню орієнтованого на людину та надійного штучного інтелекту, одночасно забезпечуючи високий рівень захисту здоров’я, безпеки, [and] основні права…включно з демократією, верховенством права та захистом навколишнього середовища, для захисту від шкідливого впливу систем штучного інтелекту в Союзі та для підтримки інновацій».
Відповідно до закону випадки використання ШІ з високим ризиком включають:
-
Застосування технології в медичних приладах.
-
Його використовують для біометричної ідентифікації.
-
Визначення доступу до таких послуг, як медичне обслуговування.
-
Будь-яка форма автоматизованої обробки персональних даних.
-
Емоційне визнання з медичних міркувань або причин безпеки.
«Біометрична ідентифікація» визначається як «автоматичне розпізнавання фізичних, фізіологічних і поведінкових характеристик людини, таких як обличчя, рухи очей, форма тіла, голос, звук, хода, поза, частота серцевих скорочень, кров’яний тиск, запах, характеристики натискання клавіш, для метою перевірки особи фізичної особи шляхом порівняння біометричних даних цієї особи із збереженими біометричними даними фізичних осіб у довідковій базі даних, незалежно від того, дала особа згоду чи ні», – пишуть контролюючі органи.
Регламент біометричної ідентифікації забороняє використання штучного інтелекту для цілей перевірки особи, наприклад, щоб підтвердити, що особа є тим, ким вона себе видає.
У законі йдеться про те, що під час використання штучного інтелекту необхідно приділяти особливу увагу, щоб визначити, чи повинна людина мати доступ до основних державних і приватних послуг, таких як медичне обслуговування у випадках вагітності, нещасних випадків на виробництві, хвороби, втрати роботи, залежності або старості та соціальну та житлову допомогу, оскільки це було б класифіковано як високий ризик.
Використання технологій для автоматизованої обробки персональних даних також вважається високим ризиком.
«Європейський простір даних про здоров’я сприятиме недискримінаційному доступу до даних про здоров’я та навчанню алгоритмів штучного інтелекту на цих наборах даних у безпечний, своєчасний, прозорий і надійний спосіб із збереженням конфіденційності та з відповідним інституційним управлінням». читає.
«Відповідні компетентні органи, включаючи галузеві, які надають або підтримують доступ до даних, також можуть підтримувати надання високоякісних даних для навчання, перевірки та тестування систем штучного інтелекту».
Коли справа доходить до тестування систем штучного інтелекту з високим рівнем ризику, компанії повинні тестувати їх у реальних умовах і отримати інформовану згоду учасників.
Організації також повинні зберігати записи (журнали) про інциденти, які відбуваються під час тестування їхніх систем, принаймні шість місяців, а про серйозні інциденти, що виникають під час тестування, необхідно повідомляти органи ринкового нагляду держав-членів, де стався інцидент.
Згідно із законом, ШІ не можна використовувати для емоційного розпізнавання «емоцій або намірів, таких як щастя, смуток, гнів, здивування, огида, збентеження, хвилювання, сором, презирство, задоволення та веселощі».
Однак штучний інтелект для використання емоційного розпізнавання, пов’язаного з фізичними станами, такими як біль або втома, наприклад системи, що використовуються для виявлення стану втоми професійних пілотів або водіїв для запобігання нещасним випадкам, не заборонено.
Вимоги до прозорості, тобто можливості відстеження та пояснення, існують для конкретних програм штучного інтелекту, таких як системи штучного інтелекту, які взаємодіють із людьми, створений штучним інтелектом або оброблений контент (наприклад, глибокі фейки), а також дозволені системи розпізнавання настроїв і біометричних категорій.
Компанії також зобов’язані усунути або зменшити ризик упередженості у своїх програмах штучного інтелекту та усунути упередженість, якщо вона виникає, за допомогою заходів пом’якшення.
Закон підкреслює намір Ради захистити громадян ЄС від потенційних ризиків ІТ. Однак він описує свою мету не пригнічувати інновації.
«Цей Регламент має підтримувати інновації, поважати свободу науки та не підривати науково-дослідницьку діяльність. Тому необхідно виключити зі сфери його застосування системи та моделі штучного інтелекту, розроблені та введені в експлуатацію спеціально для єдиної мети наукових досліджень та розробок, “, – написали регулятори.
«Крім того, необхідно переконатися, що цей регламент іншим чином не впливає на наукові дослідження та розробку систем або моделей штучного інтелекту до їх розміщення на ринку або введення в експлуатацію».
HIMSS Healthcare Кібербезпека Форум планується провести з 31 жовтня по 1 листопада у Вашингтоні. Дізнайтеся більше та зареєструйтеся.