Компанія OpenAI повідомила про блокування акаунтів, пов’язаних із російською пропагандистською мережею «Рибарь», які використовували ChatGPT для створення інформаційних операцій і контенту для соціальних мереж.
Операція отримала назву “Корм для риб”.
🧠 Як використовували ШІ
За даними OpenAI, мережа:
- генерувала тексти та коментарі різними мовами
- поширювала матеріали через офіційні акаунти «Рибарь»
- публікувала контент від імені нібито незалежних профілів з різних країн
- створювала плани інформаційно-психологічних операцій (ІПсО)
- експериментувала з генерацією відео за допомогою Sora
Таким чином штучний інтелект використовувався як інструмент масштабування пропагандистських кампаній.
🌍 Мета — глобальне охоплення
Згенерований контент поширювався різними мовами, що свідчить про спробу впливати не лише на внутрішню російську аудиторію, а й на міжнародну спільноту.
Створення матеріалів від імені «непов’язаних» облікових записів — типова тактика для імітації органічної підтримки та посилення довіри до наративів.
🛑 Реакція OpenAI
Компанія заявила, що акаунти були виявлені та заблоковані відповідно до політики протидії зловживанням.
OpenAI регулярно публікує звіти про виявлені інформаційні операції, у яких генеративні моделі використовуються для:
- створення пропагандистських матеріалів
- маніпуляції громадською думкою
- координації інформаційних кампаній
📌 Що це означає
Цей випадок демонструє дві тенденції:
- Генеративний ШІ активно використовується в інформаційних війнах.
- Розробники ШІ-платформ дедалі активніше відстежують та блокують такі зловживання.
Боротьба з дезінформацією переходить у нову фазу — там, де алгоритми створюють контент, алгоритми ж і намагаються його контролювати.




