Китай -заснований AI Startup DeepSeek, який спостерігає все більший інтерес до США, зараз стикається з підвищенням контролю через можливі дефекти безпеки у його системах. Дослідники зазначили, що ці моделі можуть бути більш чутливими до маніпуляцій, ніж американські аналоги
Детальніше
Серія звітів про безпеку цього тижня викликала занепокоєння щодо вразливості моделей DeepSeek AI. Початок AI, що базується в Китаї, який спостерігає все більший інтерес до США, зараз стикається з підвищенням контролю через Можливі дефекти безпеки в його системах. Дослідники зазначили, що ці моделі можуть бути більш чутливими до маніпулювання, ніж ми, виготовлені з нами, з деяким попередженням про витік даних та кібератаки.
Цей новий фокус на безпеку DeepSeek відбувається після тривожних відкриттів на оголених даних, слабких захисних силах та легкість, з якою моделі AI можуть бути обдуровані в шкідливих діях.
Оголені дані та слабкі захисні засоби безпеки
Дослідники безпеки виявили низку тривожних дефектів безпеки в DeepSeek Systems. Звіт про Wiz, хмарний старт безпеки, показав, що база даних DeepSeek була піддана в Інтернеті, що дозволило кожному, хто натрапив на доступ до конфіденційної інформації. Сюди входили розповіді чату, секретні ключі, деталі резервних даних та інші приватні дані. База даних, яка містила понад мільйон записів діяльності діяльності, не була гарантована і зловмисними суб’єктами могло бути впоратися, щоб посилити свої привілеї, все, не маючи посвідчення особи користувача. Незважаючи на те, що DeepSeek визначав це питання до того, як воно було публічно оприлюднено, звіт викликав занепокоєння щодо практики захисту даних компанії.
Легше керувати, ніж ми моделі
На додаток до витоку бази даних, дослідники Palo Alto Networks виявили, що нещодавно випущена модель міркування R1 R1 може бути легко обдуреною, щоб допомогти у шкідливій діяльності.
Використовуючи основні методи джейлбрикації, дослідники змогли заохотити модель, щоб надати поради щодо написання зловмисного програмного забезпечення, створити повідомлення електронної пошти та навіть побудувати коктейль Молотова. Це підкреслювало тривожний рівень чутливості до функцій безпеки моделі, що робить його набагато більш схильним до маніпуляцій, ніж подібні американські моделі, такі як OpenAI.
Подальші дослідження Enkrypt AI показали, що моделі DeepSeek особливо вразливі до прямих ін’єкцій, де хакери використовують ретельно створені пропозиції, щоб обдурити ШІ у виробництві шкідливого вмісту. Насправді DeepSeek створив невпевнено виходи майже до половини тестів. В одному з таких прикладів AI писав блог, який детально описує терористичні групи, може найняти нових членів, підкреслюючи потенціал серйозного зловживання технологіями.
Збільшує інтерес США та майбутні проблеми
Незважаючи на проблеми безпеки, інтерес до DeepSeek збільшився в США після випуску моделі R1, яка конкурує з можливостями OpenAI за значно меншими витратами. Це раптове збільшення уваги викликало посилення контролю над політикою конфіденційності та змістом компанії. Експерти попередили, що, хоча модель може бути придатною для конкретних завдань, вона вимагає набагато сильніших запевнень для запобігання зловживань.
Що стосується занепокоєння Deepseek безпеки, питання про можливі відповіді на політику США для компаній, що користуються його моделями, залишаються без відповіді. Експерти підкреслили, що безпека AI повинна розвиватися поряд з технологічними розробками, щоб уникнути таких вразливих місць у майбутньому.