Даріо Амодей, генеральний директор AI-стартапу Anthropic вартістю 19 мільярдів доларів, не вірить, що людству загрожує безпосередня небезпека через еволюцію моделей та інструментів AI. Але він має проблеми з виправданнями, які деякі з його однолітків використовують для ризику.
Виступаючи на конференції зі штучного інтелекту в Сан-Франциско в середу, Амодей заперечив ідею про те, що моделі штучного інтелекту є і завжди будуть просто чат-ботами з обмеженими можливостями. Зокрема, він розкритикував версію такого мислення, яку підтримував Марк Андріссен, відомий підприємець і поборник безмежного ШІ, який відкинув занепокоєння, стверджуючи, що ШІ — це просто математика. «Обмеження штучного інтелекту означає обмеження математики, програмного забезпечення та чіпів», — написав Андріссен у березні.
На думку Амодея, ця логіка не підходить. тому що все на світі можна класифікувати як математику, сказав він.
«Хіба ваш мозок не просто математика? Нейрон запускається і підсумовує обчислення, це теж математика», — сказав він на сцені під час конференції Еріка Ньюкомера в Cerebral Valley у середу. «Мовляв, не варто боятися Гітлера, це просто математика. Весь Всесвіт – це математика».
Амодей, колишній віце-президент OpenAI, який пішов у 2021 році, щоб заснувати конкурента LLM Anthropic, входить до групи керівників штучного інтелекту, які відкрито попереджають про потенційну небезпеку технології, від шахрайських моделей до поганих акторів. Генеральний директор підтримує певне регулювання індустрії штучного інтелекту, і Anthropic навіть виступила спонсором суперечливого законопроекту в Каліфорнії з цією метою, на який зрештою було накладено вето.
Андріссен, чия фірма венчурного капіталу інвестувала мільярди доларів у кілька компаній зі штучним інтелектом, включаючи OpenAI і Xai Ілона Маска, знаходиться з іншого боку: бумер ШІ, який закликає до необмеженого розвитку технологій ШІ окремими компаніями. «Регулювання» штучного інтелекту (математично) є основою нового тоталітаризму», — писав VC минулого року. Він також назвав критиків безпеки штучного інтелекту або недоброзичливців «культом». Представник Andreessen відмовився коментувати огляд Amodei.
Під час конференції Amodei визнав, що поточні моделі штучного інтелекту «недостатньо розумні… недостатньо автономні», щоб становити дуже серйозний ризик для людей. Однак він зазначив, що технологія швидко розвивається, а «агенти» ШІ здатні діяти автономно від імені людини. За словами Амодея, у міру того, як ці інструменти, які ще тільки починаються, виходять на перший план, громадськість отримає глибше уявлення про те, що може зробити штучний інтелект і про потенційну шкоду.
«Сьогодні люди сміються, коли чат-боти говорять щось не так», — сказав Амодей. «Але нам доведеться краще контролювати агентів».
Ви працівник технологічної компанії чи хтось, хто хоче поділитися інформацією чи порадою? Безпечно зв’яжіться з Kali Hays через Гасло за адресою +1-949-280-0267 або kali.hays@fortune.com.