Співзасновник OpenAI і колишній головний науковий співробітник Ілля Суцкевер потрапив у заголовки на початку цього року після того, як він пішов, щоб відкрити власну лабораторію ШІ під назвою Safe Superintelligence Inc. Після виходу на пенсію він уникав уваги громадськості, але в п’ятницю він рідко з’являвся на публіці у Ванкувері на Конференції з нейронних систем обробки інформації (NeurIPS).
«Попередня підготовка, яку ми знаємо, безсумнівно закінчиться», — сказав Суцкевер на сцені. Це відноситься до першого етапу розробки моделі штучного інтелекту, коли велика мовна модель вивчає шаблони з величезної кількості немаркованих даних — як правило, тексту з Інтернету, книг та інших джерел.
«Ми досягли рекорду, і більше його не буде».
Під час виступу на NeurIPS Суцкевер сказав, що, хоча він вважає, що наявні дані можуть сприяти подальшому розвитку ШІ, галузь використовує нові дані для навчання. Ця динамічна воля, за його словами, зрештою змусить змінити спосіб навчання моделей сьогодні. Він порівняв ситуацію з викопним паливом: так само, як нафта є обмеженим ресурсом, Інтернет містить обмежену кількість створеного людьми контенту.
«Ми досягли найвищих даних, і їх більше не буде», — сказав Суцкевер. «Ми повинні мати справу з фактами, які є. Є тільки один Інтернет».
Моделі наступного покоління, передбачив він, «будуть справжніми агентствами». Агенти стали справжнім модним словом у сфері штучного інтелекту. Хоча Суцкевер не дав їм визначення під час свого виступу, прийнято розуміти, що це автономна система ШІ, яка самостійно виконує завдання, приймає рішення та взаємодіє з програмним забезпеченням.
За його словами, майбутні системи не тільки будуть «агентством», але й зможуть міркувати. На відміну від сьогоднішнього штучного інтелекту, який здебільшого відповідає шаблонам на основі того, що модель бачила в минулому, майбутні системи штучного інтелекту зможуть розробляти речі крок за кроком у спосіб, більш подібний до мислення.
Чим логічнішою є система, «тим більш непередбачуваною вона стає», за словами Суцкевера. Він порівняв непередбачуваність «справжніх систем міркування» з тим, наскільки просунутий ШІ, що грає в шахи, «непередбачуваний для найкращих шахістів».
“Вони з’ясовуватимуть речі на основі обмежених даних”, – сказав він. — Вони не розгубляться.
На сцені він провів порівняння між масштабуванням систем штучного інтелекту та еволюційною біологією, посилаючись на дослідження, які показують зв’язок між масою мозку та масою тіла різних видів. Він зазначив, що в той час як більшість ссавців дотримуються шаблону масштабування, гомініди (предки людини) демонструють чітко інший градієнт співвідношення маси мозку до тіла в логарифмічних масштабах.
Він припустив, що подібно до того, як еволюція знайшла нову модель масштабування для людського мозку, штучний інтелект може виявити нові підходи до масштабування за межами того, як працює попереднє навчання сьогодні.
Після того, як Суцкевер закінчив свою промову, один із присутніх запитав його, як дослідники можуть створити правильні механізми стимулювання людства до створення штучного інтелекту таким чином, щоб надати йому «свободи, які ми маємо як homosapiens».
«Я відчуваю, що в певному сенсі це ті питання, над якими люди повинні думати більше», — відповів Сацкевер. Він зробив паузу, перш ніж сказати, що «не почувається впевненим, відповідаючи на подібні запитання», оскільки для цього потрібна «структура уряду зверху вниз». Учасник аудиторії запропонував криптовалюти, що викликало сміх у інших присутніх.
«Я не відчуваю себе тією людиною, щоб коментувати криптовалюти, але є шанс, що те, що ви [are] опис буде зроблено, — сказав Суцкевер. «Ви знаєте, у певному сенсі це непоганий кінцевий результат, якщо у вас є штучний інтелект, і все, що вони хочуть, це співіснувати з нами, а також просто мати права. Можливо, це й добре… Я думаю, що все настільки неймовірно непередбачуване. Я не вагаюся коментувати, але заохочую спекуляції».