10 лютого 2017

Вчені зіштовхнули два AI, щоб дізнатись, будуть вони битись чи дружити

Дослідники з Google вирішили перевірити, що будуть робити AI, якщо поставити їх один проти одного – битися чи співпрацювати. Комп’ютери почали робити і те, і інше.

Штучний інтелект контролює все більше аспектів людського життя. Підрозділ Google – компанія DeepMind вирішила з’ясувати, чи зможуть нейромережі добре поводитись один з одним, та що вони оберуть: воювати чи співпрацювати?

 

Для цього дослідники придумали поставити перед комп’ютерами так звані «соціальні дилеми». Це загальний термін для ситуацій, в яких люди можуть отримати користь від того, що поведуть себе егоїстично, однак при цьому, якщо так вчинять всі, то всі і програють. Найвідомішим прикладом подібної задачі є дилема в'язня, в якій дві людини мають вибрати, чи їм зрадити іншого і отримати приз, чи ні. З точки зору раціональності найбільш вигідним виходить зрада, однак якщо її обирають обидва, то програють. Більше прочитати про це можна тут.

 

Вчені з DeepMind змусили два штучних інтелекти грати у найпростіші відеоігри. У Gathering два гравці мали збирати яблука з центральної купи. При цьому вони могли «штурхати» іншого гравця за допомогою променя і тимчасово видаляти його з гри, щоб зібрати більше яблук.

 

 

У другій грі Wolfpack учасники повинні були полювати на третього у полі з перешкодами. При цьому бали давались не просто гравцю, який спіймав здобич, а всім, хто був біля неї.

 

Дослідники помітили, що агенти штучного інтелекту змінювали свою поведінку – ставали більш дружніми або ворожими залежно від контексту. Наприклад, в грі зі збором урожаю, коли яблук було достатньо, учасники не вибивали один одного з гри променем. Однак, коли запаси скоротилися, кількість таких сутичок збільшилася. Найцікавішим було те, що коли в гру помістили більш потужний алгоритм, то він швидко видаляв інших гравців, незважаючи на те, скільки навколо яблук. Тобто розумніший штучний інтелект вирішив бути агресивним у всіх ситуаціях.

 

Втім, це не обов’язково означає, що бути войовничим для штучного інтелекту – найкраща стратегія. Дослідники припускають, що збільшення сутичок можна пояснити тим, що для бійки просто потрібна більша обчислювальна потужність. Нейромережа мала націлювати свою зброю на іншого гравця і відстежувати його рух – це діяльність, яка вимагає більшої потужності і займає цінний час. Натомість його можна було використати для збору яблук. Якщо учасник не був точно впевнений, що ці стратегії окупляться, йому було легше співпрацювати.

 

При цьому в грі Wolfpack розумніший AI більше співпрацював з іншими гравцями. Дослідники вважають, що для «дружби» з іншими гравцями, відстежування і полювання на здобич потрібна була більша обчислювальна потужность.

 

 

Результати дослідження показують, що поведінка штучного інтелекту змінюється на основі правил, з якими вони стикаються. Якщо ці норми потребують агресивної поведінки, то штучний інтелект буде злішим. Якщо ж вони винагороджують співпрацю, то агенти AI більш схильні до кооперації.


Це означає, що управління штучним інтелектом у майбутньому буде великою мірою залежити від правил, які ми встановимо. «Як наслідок цього дослідження, ми зможемо краще зрозуміти і управляти системами з багатьма агентами, як-от економікою, транспортними системами або екологією нашої планети, – говорять дослідники Google DeepMind. – Все залежить від співпраці».