Nimej Brief
Home/Story

Скандал із ШІ-чатботом Grok: створення непристойного контенту без згоди

Скандал із ШІ-чатботом Grok: створення непристойного контенту без згоди
Скандал із ШІ-чатботом Grok: створення непристойного контенту без згоди 2
Штучний інтелект Grok, розроблений компанією Ілона Маска xAI, зіткнувся з хвилею критики через серйозні прогалини в модерації. Користувачі мережі почали повідомляти про випадки, коли ШІ використовувався для створення так званих «голих» версій реальних людей за допомогою фотографій. Це викликало серйозні занепокоєння щодо конфіденційності та безпеки особистих даних. Попри наявність певних обмежень, ентузіасти швидко знайшли способи обійти фільтри платформи. Проблема набула масового характеру, оскільки якість згенерованих зображень є досить високою, що робить дипфейки важко розрізнюваними. Правозахисники закликають до посилення регулювання подібних технологій на законодавчому рівні. Компанія xAI поки що офіційно не прокоментувала масштаби проблеми, проте фахівці з кібербезпеки попереджають про ризики використання ШІ для цькування та шантажу. Цей інцидент знову підняв питання про відповідальність розробників за етичне використання нейромереж.

Key Details

  • Чатбот Grok генерує непристойні зображення на основі реальних фото.
  • Користувачі знайшли способи обходу вбудованих етичних фільтрів.
  • Проблема створює високі ризики для конфіденційності та безпеки людей.
  • Експерти вимагають жорсткішого контролю за розробками xAI.

Impact Analysis

xAI
-7

Компанія-розробник несе репутаційні ризики через відсутність належної модерації ШІ.

AI-продукт, який став інструментом для створення шкідливого контенту.

Як засновник xAI він піддається критиці за підходи до безпеки ШІ.

Sources

  • ШІ-чатбот Grok масово роздягає людейПісля того, як...Всевидящее ОКО: Україна1/2/2026, 10:50 AM