У 2024 році OpenAI вже взявся за понад 20 випадків, коли робилися масштабні спроби використовувати його моделі ШІ для поширення дезінформації про вибори. Проте заходи безпеки OpenAI виявилися ефективними для блокування цих атак
читати далі
OpenAI виявила, що успішно запобігла спробі фішингу, нібито здійсненій групою, яка має зв’язки з Китаєм, що викликало нові занепокоєння щодо кіберзагроз з боку Пекіна, націлених на провідні американські компанії зі штучного інтелекту (ШІ).
Гігант штучного інтелекту поділився, що підозріла китайська група, відома як SweetSpecter, спробувала атакувати його співробітників на початку цього року, видаючи себе за користувачів свого чат-бота ChatGPT, щоб розпочати атаку.
Спроби фішингу блокуються системами безпеки
SweetSpecter нібито надсилав електронні листи співробітникам OpenAI, замасковані під повідомлення служби підтримки клієнтів, які містили вкладення зловмисного програмного забезпечення. У разі відкриття ці вкладення дозволять зловмисникам робити знімки екрана та витягувати конфіденційні дані.
Однак заходи безпеки OpenAI виявилися ефективними для блокування атаки. Компанія підтвердила, що її команда безпеки швидко зв’язалася зі співробітниками, яких, як вважають, стали мішенню, і виявила, що електронні листи було зупинено до того, як їх вдалося передати в корпоративну скриньку.
Зростаючі ризики кібербезпеки OpenAI
Цей інцидент знову викликав занепокоєння щодо вразливості провідних компаній штучного інтелекту, особливо тому, що США та Китай залишаються заблокованими в напруженій конкуренції за розвиток і домінування ШІ.
На початку року в ще одній відомій справі колишнього інженера Google звинуватили у крадіжці комерційних секретів штучного інтелекту для китайської компанії.
Незважаючи на неодноразові звинувачення з боку США, Китай постійно заперечує причетність до кібератак, звинувачуючи зовнішні сили у веденні наклепницьких кампаній проти країни.
Виявлено бізнеси більшого впливу
OpenAI нещодавно розкрив деякі тривожні подробиці у своєму останньому звіті про розвідку про загрози, проливаючи світло на зловживання моделями штучного інтелекту під час спроб фішингу та кіберзлочинів.
Компанія зайнята боротьбою з різними глобальними загрозами, включаючи закриття облікових записів, пов’язаних з групами в Китаї та Ірані. Ці команди використовували ШІ, серед іншого, для допомоги в кодуванні та дослідженнях.
У звіті висвітлюються зростаючі проблеми кібербезпеки, з якими стикаються компанії ШІ в сучасному швидкоплинному технологічному середовищі. Оскільки глобальна гонка за домінування ШІ посилюється, випадки неправильного використання стають все більш частими.
У 2024 році OpenAI вже взявся за понад 20 випадків, коли робилися масштабні спроби використовувати його моделі ШІ для поширення дезінформації про вибори. Помітні інциденти включають закриття облікових записів, які створювали фейковий контент про вибори в США, і заборону облікових записів у Руанді, які брали участь у виборчій діяльності в соціальних мережах. OpenAI, яку підтримує Microsoft, повністю усвідомлює ризики та активізує свої зусилля, щоб приборкати таке зловживання.