На конференції Black Hat USA дослідник безпеки Майкл Барґурі зробив важливе відкриття, яке підкреслило серйозні вразливості в Microsoft Copilot, показавши, як хакери помітно можуть використовувати цей інструмент на базі штучного інтелекту для підлих цілей. Отримані результати підкреслюють нагальну потребу в тому, щоб компанії переосмислили свої стратегії безпеки під час впровадження технологій ШІ, таких як Microsoft Copilot, у робочому процесі.
Одним із найбільш тривожних аспектів презентації Баргурі була демонстрація того, як зловмисники можуть маніпулювати плагінами Copilot для інсталяції бекдорів у взаємодії з користувачами. Це може призвести до серйозних наслідків, таких як крадіжка даних і атаки соціальної інженерії, керованих штучним інтелектом, що значно погіршує ризик порушення безпеки. Здатність Copilot приховати та витягнути конфіденційні дані в обхід традиційних заходів безпеки, таких як захист файлів і даних, викликала особливе порушення.
Дослідник також представляє інструмент об’єднання червоних під назвою “LOLCopilot,” призначений для етичних хакерів для імітації проявлених атак. Цей інструмент дозволяє досліджувати, як Copilot може бути використаний для викрадання даних і фішингових атак у будь-якому середовищі з підтримкою Microsoft 365 Copilot. Що робить LOLCopilot особливо потужним, так як ця його здатність працювати, не залишаючи жодних слідів у системних журналах, показуючи, як легко можна використовувати ці невразливості.
Іншим критичним моментом, відкритим під час презентації, було використано оперативні ін’єкції, техніку, яка дозволяє хакерам змінити поведінку та реакцію Copilot відповідно до їхніх зловмисних цілей. Ця можливість може дозволити зловмисникам створювати переконливі фішингові електронні листи або маніпулювати взаємодією таким чином, щоб обманом змусити користувачів розкрити конфіденційну інформацію. Потенціал таких атак соціальної інженерії на основі ШІ підкреслює надійні заходи безпеки.
Демонстрація Барґурії виявила, що стандартних налаштувань безпеки Microsoft Copilot недостатньо для запобігання таким експлуатаціям. Здатність інструменту отримати доступ до великих обсягів даних і обробляти їх створює значний ризик, особливо якщо дозволи не контролюються остаточно. Ця вразливість підкреслює потреби для організації застосування більш суворих методів безпеки.
Щоб усунути ці ризики, організаціям конкуренції впроваджувати суворі заходи безпеки, такі як регулярні оцінки безпеки, багатофакторна автентифікація та суворий контроль доступу на основі ролей. Крім того, вкрай необхідно інформувати співробітників про наявні небезпеки, пов’язані з такими інструментами ШІ, як Copilot, і створювати комплексні протоколи реагування на інциденти. Покращуючи заходи безпеки та розвиваючи культуру відомості про безпеку, компанія може краще захистити себе від використання технологій ШІ.
Дослідження, проведене Баргурі з Black Hat, є випуском нагадувань про те, що в міру того, як такі інструменти штучного інтелекту, як Microsoft Copilot, стають все більш інтегрованими в наші щоденні робочі процеси, потрібні в пильних заходах. безпека стає все більш важливою. Забезпечення безпечного та ефективного використання цих інструментів вимагає проактивного підходу до кібербезпеки, такого, який створює й пом’якшує основні загрози, перш ніж їх можна буде використовувати.