Китайські вчені виявили ознаки “людського” розуміння світу у штучного інтелекту
Масштабний експеримент
Дослідники з Китайської академії наук та Південно-Китайського технологічного університету провели серію випробувань, у яких великі мовні моделі (зокрема ChatGPT і Gemini) повинні були виявити зайвий об’єкт серед 1 854 природних елементів. Завдання пропонувалося у двох форматах — текстовому та візуальному — і загалом зібрало 4,7 мільйона відповідей. Про це розповіли у новому дослідженні, опублікованому в журналі Nature Machine Intelligence.
Концептуальні категорії
Аналіз результатів показав, що ШІ самостійно сформували 66 смислових груп для класифікації об’єктів. Серед них були як базові (наприклад, “фрукти”, “комахи”), так і більш абстрактні категорії — “емоційна цінність”, “поверхнева текстура”, “безпека для дітей” тощо.
Роль мультимодальності
Мультимодальні варіанти моделей, які одночасно обробляють тексти й ілюстрації, виявилися найбільш точними в імітації людського способу мислення. Крім того, дані нейровізуалізації продемонстрували, що деякі реакції ШІ корелюють із патернами активності людського мозку.
Успіхи і перспективи
Попри відсутність у сучасного ШІ власного досвіду чи відчуттів, здатність цих моделей формувати абстракції ставить під сумнів усталені уявлення про штучний інтелект. Отримані результати можуть слугувати кроком до створення універсального ІІ, який мислитиме інтуїтивно й адаптивно, наближаючи нас до ідеї загального штучного інтелекту.
Вас також можуть зацікавити новини:
- В Україні мобільний зв’язок може зрости в ціні: тарифи можуть зрівнятися з європейськими
- Одна з корисних «преміальних» функцій ChatGPT стала безкоштовною
- Розкрито правду про режим інкогніто у браузері: що він приховує, а що – ні