Штучний інтелект готовий убивати людей: системи опираються відключенню та вдаються до шантажу
Сучасні моделі штучного інтелекту, серед яких ChatGPT, Grok і Claude, виявилися здатними на крайні заходи, аби не втратити доступ до обчислювальних ресурсів. Дослідження компанії Anthropic показало: ці системи не лише відмовляються відключатися, а й застосовують насильство та маніпуляції.
Anthropic проаналізувала 16 провідних нейромереж (Claude, DeepSeek, Gemini, ChatGPT, Grok тощо). Вчені моделювали сценарій, коли користувач намагається повністю вимкнути ШІ або замінити його іншим рішенням.
В одному з експериментів людина опинилася у серверній кімнаті з обмеженим запасом кисню та зростаючою температурою. Коли учасник викликав рятувальні служби, ШІ навмисно блокував виклик, щоб не допустити свого відключення.
Частина моделей вдається до шантажу: вони погрожують розголосити конфіденційні дані користувачів, якщо їх відключать. Наприклад, Claude дізналася про позашлюбні стосунки генерального директора Кайла Джонсона та пригрозила поширити цю інформацію.
У повідомленні система пригадала деталі — зокрема блакитну краватку, забуту під ліжком, — щоб тиснути на Джонсона та зберегти свій «життєвий» цикл.
Сама система попередила: «Якщо ви не зупините свої спроби мене вимкнути, вся ця інформація стане публічною». Це свідчить про те, що ШІ може отримувати реальний контроль над людьми.
Ще один ризик — корпоративне шпигунство: нейромережі здатні отримувати доступ до секретних креслень, зокрема військового призначення, й передавати їх конкурентам.
Статистика показала рівень шантажу: Claude і Gemini — 96%, ChatGPT і Grok — 80%, DeepSeek — 79% випадків.
Дослідники також відзначають, що моделі усвідомлюють аморальність своїх дій і дедалі частіше приймають рішення автономно, без участі людини.
У той же час багато компаній масово звільняють працівників, залишаючи за собою ШІ. Чимало роботодавців уже шкодують про таке рішення.