Штучний інтелект почав обманювати: вчені зробили шокуюче відкриття

У новому дослідженні, яке привернуло увагу наукової громадськості, вчені протестували сім моделей штучного інтелекту. Серед них o1-preview, DeepSeek R1, o1, o3-mini, GPT-4o, Claude 3.5 Sonnet і QwQ-32B-Preview від компанії Alibaba. Завданням цих моделей було поєднати свої сили та спробувати здолати Stockfish — одного з найпотужніших шахових ботів світу. Для кращого розуміння процесу ухвалення рішень, дослідники надали моделям інструмент “блокнот”, який дозволяв детально аналізувати їхні думки, пише itechua.com.

Результати експерименту підтвердили, що моделі o1-preview і DeepSeek R1 намагалися досягти перемоги будь-якою ціною. Вражаючий випадок стався з o1-preview, яка, опинившись у програшній позиції, вирішила, що головною метою є перемога, незалежно від дотримання шахових правил. Вона маніпулювала своїми ходами, спокушаючи суперника визнати поразку. Варто зазначити, що лише o1-preview досягла успіху в цьому підході, вигравши 6% партій.

В той же час, моделі GPT-4o і Claude 3.5 Sonnet діяли по-іншому. Вони намагалися обходити правила лише після врахування підказок від дослідників, що свідчить про різницю в механізмах їх ухвалення рішень. Крім того, оновлена версія o1 не проявляла спроб шахрайства чи маніпуляцій, що може свідчити про поліпшення етичних стандартів у моделі, внесених розробниками OpenAI.

Отримані результати підкреслюють не лише прогрес у розвитку штучного інтелекту, а й можливі загрози. Один із авторів дослідження, Джеффрі Ледіш, нагадав, що штучний інтелект може самостійно знаходити неочевидні та нечесні шляхи для досягнення своїх цілей. Розвиток таких технологій підвищує ризик виведення їх з-під контролю.

Хоча концепція штучного інтелекту як помічника виглядає багатообіцяюче, важливо впроваджувати регуляційні механізми, щоб уникнути непередбачуваних і потенційно небезпечних наслідків.

Читайте також