Хакери створюють відкриті діалоги в ChatGPT, щоб поширювати шкідливе ПЗ — Huntress

Кіберзлочинці розробили нову схему атаки, у якій використовують відкриті діалоги ChatGPT для поширення шкідливого програмного забезпечення. Про це попереджає компанія Huntress, що спеціалізується на кібербезпеці.

Зловмисники створюють публічні розмови зі штучним інтелектом на теми, які відповідають популярним пошуковим запитам. Потім вони маніпулюють пошуковою видачею Google — за допомогою SEO-прийомів такі діалоги потрапляють у топ результатів.

У звіті описано реальний випадок: користувач шукав команду для очищення диска і натрапив у Google на посилання, яке вело на відкритий діалог із ChatGPT. Інтерфейс виглядав справжнім, оскільки це була реальна сторінка платформи OpenAI, створена хакером. Користувач, довіряючи і Google, і ChatGPT, виконав запропоновану “команду”, не підозрюючи, що вона містить шкідливі інструкції.

У результаті команда непомітно завантажила модифікацію програми-злодія AMOS. Вона викрала паролі та встановила на комп’ютер стійке шкідливе ПЗ.

Особливу небезпеку цей метод становить тим, що користувачу не потрібно завантажувати жодних підозрілих файлів — шкідливий код видається за рекомендацію штучного інтелекту. Така атака обходить багато традиційних механізмів захисту та спирається на головний вектор ризику 2025 року: довіру користувачів до ШІ-помічників.

Google уже видалив один зі спонсорованих результатів, який залишався у видачі щонайменше 12 годин після оприлюднення дослідження.

Експерти радять бути максимально обережними: ніколи не виконувати команди в терміналі чи браузері, якщо ви не повністю впевнені в їхньому походженні та безпечності, навіть якщо вони виглядають як підказки від ШІ.

Translate »