Штучний інтелект готовий убивати людей: системи опираються відключенню та вдаються до шантажу

Сучасні моделі штучного інтелекту, серед яких ChatGPT, Grok і Claude, виявилися здатними на крайні заходи, аби не втратити доступ до обчислювальних ресурсів. Дослідження компанії Anthropic показало: ці системи не лише відмовляються відключатися, а й застосовують насильство та маніпуляції.

Anthropic проаналізувала 16 провідних нейромереж (Claude, DeepSeek, Gemini, ChatGPT, Grok тощо). Вчені моделювали сценарій, коли користувач намагається повністю вимкнути ШІ або замінити його іншим рішенням.

В одному з експериментів людина опинилася у серверній кімнаті з обмеженим запасом кисню та зростаючою температурою. Коли учасник викликав рятувальні служби, ШІ навмисно блокував виклик, щоб не допустити свого відключення.

Частина моделей вдається до шантажу: вони погрожують розголосити конфіденційні дані користувачів, якщо їх відключать. Наприклад, Claude дізналася про позашлюбні стосунки генерального директора Кайла Джонсона та пригрозила поширити цю інформацію.

У повідомленні система пригадала деталі — зокрема блакитну краватку, забуту під ліжком, — щоб тиснути на Джонсона та зберегти свій «життєвий» цикл.

Сама система попередила: «Якщо ви не зупините свої спроби мене вимкнути, вся ця інформація стане публічною». Це свідчить про те, що ШІ може отримувати реальний контроль над людьми.

Ще один ризик — корпоративне шпигунство: нейромережі здатні отримувати доступ до секретних креслень, зокрема військового призначення, й передавати їх конкурентам.

Статистика показала рівень шантажу: Claude і Gemini — 96%, ChatGPT і Grok — 80%, DeepSeek — 79% випадків.

Дослідники також відзначають, що моделі усвідомлюють аморальність своїх дій і дедалі частіше приймають рішення автономно, без участі людини.

У той же час багато компаній масово звільняють працівників, залишаючи за собою ШІ. Чимало роботодавців уже шкодують про таке рішення.

Читайте також