Роль комітету є критично важливою для перевірки безпеки моделей OpenAI і забезпечення вирішення будь-яких проблем безпеки до їх випуску. Зазначалося, що команда вже провела перевірку безпеки останньої моделі OpenAI, o1, після відставки Альтмана.
читати далі
Сем Альтман, генеральний директор OpenAI, залишив свою роль у внутрішньому Комітеті з безпеки та безпеки, групі, створеній у травні для нагляду за критичними рішеннями безпеки, пов’язаними з проектами OpenAI.
OpenAI оголосив про це в нещодавній публікації в блозі, зазначивши, що комітет тепер функціонуватиме як незалежна наглядова рада.
Новий незалежний орган очолить Зіко Колтер, професор Карнегі-Меллона, і включатиме таких відомих діячів, як генеральний директор Quora Адам Д’Анджело, генерал армії США у відставці Пол Накасоне та колишній керівник Sony Ніколь Селігман — усі вони вже працюють у Рада директорів OpenAI.
Роль комітету є критично важливою для перевірки безпеки моделей OpenAI і забезпечення вирішення будь-яких проблем безпеки до їх випуску. Зазначалося, що команда вже провела перевірку безпеки останньої моделі OpenAI, o1, після відставки Альтмана.
Комітет продовжуватиме отримувати регулярні оновлення від команд безпеки та захисту OpenAI і збереже за собою повноваження відкладати випуск моделей штучного інтелекту, якщо ризики безпеці залишаться невирішеними.
Відхід Альтмана з комітету стався після ретельної перевірки з боку законодавців США. П’ять сенаторів раніше висловлювали занепокоєння щодо політики безпеки OpenAI у листі, адресованому Альтману.
Крім того, значна кількість співробітників, зосереджених на довгострокових ризиках штучного інтелекту, покинули компанію, а деякі колишні дослідники публічно критикували Альтмана за те, що він виступає проти суворіших правил штучного інтелекту, які можуть суперечити комерційним інтересам OpenAI.
Ця критика узгоджується зі зростаючими інвестиціями компанії в зусилля федерального лобіювання. Бюджет OpenAI на лобіювання за перше півріччя 2024 року сягнув 800 000 доларів США порівняно з 260 000 доларів США за весь 2023 рік. Крім того, Альтман приєднався до Ради безпеки та безпеки штучного інтелекту Міністерства національної безпеки США, яка включає надання вказівок щодо розробки та розгортання штучного інтелекту в Критична інфраструктура США.
Незважаючи на усунення Альтмана з Комітету з питань безпеки, є побоювання, що група все ще може не бажати вживати кроків, які можуть суттєво вплинути на комерційні амбіції OpenAI. У травневій заяві компанія підкреслила свій намір відповісти на «обґрунтовану критику», хоча такі судження можуть залишатися суб’єктивними.
Деякі колишні члени правління, зокрема Хелен Тонер і Таша МакКолі, висловили сумніви щодо здатності OpenAI саморегулюватися, посилаючись на тиск стимулів, заснованих на прибутках.
Ці занепокоєння виникли через те, що OpenAI, як повідомляється, прагне залучити понад 6,5 мільярдів доларів США, що може оцінити компанію в понад 150 мільярдів доларів.
Ходять чутки, що OpenAI може відмовитися від своєї гібридної некомерційної структури на користь більш традиційного корпоративного підходу, який забезпечить більший прибуток для інвесторів, але може ще більше віддалити компанію від її засновницької місії розвитку штучного інтелекту, який принесе користь усім людству.