Як дізнатися, чи система штучного інтелекту настільки потужна, що ставить під загрозу безпеку, і її не можна запускати без ретельного нагляду?
Для регуляторів, які намагаються обмежити штучний інтелект, це здебільшого питання арифметики. Зокрема, про модель ШІ, навчену від 10 до 26 операцій з плаваючою комою в секунду, тепер потрібно повідомляти уряд США, і незабаром вона може викликати ще суворіші вимоги в Каліфорнії.
сказати що? Ну, якщо ви рахуєте нулі, це 100 000 000 000 000 000 000 000 000 або 100 мільярдів обчислень щосекунди, використовуючи показник, відомий як провали.
Те, що сигналізує деяким законодавцям і прихильникам безпеки штучного інтелекту, так це рівень обчислювальної потужності, який може дозволити технології штучного інтелекту, що швидко розвивається, створювати чи примножувати зброю масового знищення або здійснювати руйнівні кібератаки.
Ті, хто створив такі правила, визнають, що вони є недосконалою відправною точкою для того, щоб відрізнити сучасні найефективніші виробничі системи штучного інтелекту — переважно створені каліфорнійськими компаніями, такими як Anthropic, Google, Meta Platforms і ChatGPT — виробник OpenAI — від наступного покоління. це може бути ще потужнішим.
Критики атакували пороги як довільні – спробу уряду регулювати математику.
«Десять із 26 провалів», — сказав венчурний капіталіст Бен Горовіц у подкасті цього літа. «То що, якщо це розмір моделі, який вам потрібен, щоб вилікувати рак?»
Указ, підписаний президентом Джо Байденом минулого року, базується на цьому обмеженні. Так само в Каліфорнії нещодавно прийнятий закон про безпеку ШІ, який губернатор Гевін Ньюсом має до 30 вересня підписати або накласти вето. Каліфорнія додає до рівняння другий показник: створення регульованих моделей ШІ також має коштувати щонайменше 100 мільйонів доларів.
Слідом за Байденом, широкомасштабний закон Європейського Союзу про штучний інтелект також вимірює кількість операцій із плаваючою комою за секунду, або провал, але встановлює планку в 10 разів нижче — 10 у 25-му ступені. Це стосується деяких систем ШІ, які вже працюють. Уряд Китаю також розглянув можливість вимірювання обчислювальної потужності, щоб визначити, які системи ШІ потребують захисту.
Жодна модель, доступна для громадськості, не відповідає вищій межі Каліфорнії, хоча можливо, деякі компанії вже почали їх виготовляти. Якщо так, то вони повинні поділитися деякими деталями та заходами безпеки з урядом США. Байден використав закон корейської епохи, щоб змусити технологічні компанії повідомляти Міністерство торгівлі США, якщо вони створюють такі моделі ШІ.
Дослідники штучного інтелекту все ще обговорюють, як найкраще оцінити потенціал новітньої технології генетичного штучного інтелекту та її порівняння з людським інтелектом. Існують тести, які оцінюють ШІ щодо вирішення головоломок, логічних міркувань або того, наскільки швидко й точно він передбачає, який текст відповість на запит чат-бота людини. Ці показники допомагають оцінити корисність інструменту штучного інтелекту для певного завдання, але немає простого способу дізнатися, який з них має настільки широкі можливості, щоб становити ризик для людства.
«Цей розрахунок, цей флоп-номер, загалом, є найкращим, що ми маємо в цій лінії», — сказав фізик Ентоні Агірре, виконавчий директор Інституту майбутнього життя, який підтримав ухвалення законопроекту 1047 Сенату Каліфорнії та інших AI. правила безпеки в усьому світі.
Арифметика з плаваючою комою може здатися дивовижною, «але насправді це просто числа, які додаються або множаться разом», що робить її одним із найпростіших способів оцінити майстерність і ризик моделі ШІ, сказав Агірре.
«Більшість того, що ці речі роблять, — це просто множення великих масивів чисел», — сказав він. «Ви можете просто подумати про те, щоб ввести кілька чисел у свій калькулятор і додати або помножити їх. І це так — у десять трильйонів разів або в сто трильйонів разів».
Однак для деяких технологічних лідерів це занадто простий і жорстко закодований показник. «Немає чіткої наукової підтримки» для використання таких показників як проксі для ризику, стверджувала в липневій статті комп’ютерний спеціаліст Сара Хукер, яка очолює дослідницький відділ некомерційної фірми Cohere, що займається штучним інтелектом.
«Обмеження обчислень, які зараз реалізовані, є недалекоглядними та, ймовірно, не зможуть зменшити ризик», — написав він.
Бізнесмен Горовіц і його бізнес-партнер Марк Андріссен, засновники впливової інвестиційної компанії Кремнієвої долини Andreessen Horowitz, атакували адміністрацію Байдена, а також законодавців Каліфорнії через правила штучного інтелекту, які, на їхню думку, можуть задушити індустрію ШІ, що розвивається.
Для Горовіца встановлення обмежень на «скільки математики вам дозволено робити» відображає помилкову віру в те, що лише кілька великих компаній будуть виготовляти найефективніші моделі, і ви можете поставити перед ними «палаючі обручі, і ви» перегляну їх, і вони в порядку”.
У відповідь на критику цього літа спонсор каліфорнійського законодавства надіслав Андріссену Горовіцу листа, захищаючи законопроект, зокрема його нормативні обмеження.
Встановлення більше ніж від 10 до 26 а флопсів — це «очевидний спосіб звільнити від вимог перевірки безпеки багато моделей, які, як ми знаємо, виходячи з поточних доказів, не мають здатності завдавати критичної шкоди», — написав сенатор штату Скотт Вінер із Сан-Франциско. Існуючі публічно випущені моделі «були протестовані на надзвичайно небезпечні можливості, і на них не поширюватиметься законопроект», сказав Вінер.
І Вінер, і виконавчий наказ Байдена розглядають цей захід як тимчасовий, який може бути скоригований пізніше.
Ясін Джернайт, яка працює в галузі досліджень політики у фірмі зі штучного інтелекту Hugging Face, сказала, що підрахунок флопів з’явився «сумлінно» до наказу Байдена минулого року, але він уже почав застарівати. Розробники штучного інтелекту роблять більше з меншими моделями, які вимагають менше обчислювальної потужності, тоді як потенційні збої найбільш широко використовуваних продуктів штучного інтелекту не призведуть до запропонованого Каліфорнією контролю.
«Деякі моделі матимуть значно більший вплив на суспільство, і вони повинні відповідати вищим стандартам, тоді як інші є більш дослідницькими, і, можливо, не має сенсу мати такий самий процес для їх сертифікації», — сказав Джерніт. .
Агірре сказав, що для регуляторів має сенс бути спритними, але він охарактеризував деяку протидію ліміту флопу як спробу уникнути будь-якого регулювання систем ШІ, коли вони стають більш спроможними.
“Це все відбувається дуже швидко”, – сказав Агірре. «Я вважаю, що є обґрунтована критика, що ці порогові значення не охоплюють саме те, що ми хочемо, щоб вони охопили. Але я вважаю, що це поганий аргумент переходити від цього до «Ну, ми просто не повинні нічого робити і просто схрестити пальці і надія на краще».