Egy szimuláció során egy Kratos XQ-58 Valkyrie drónt szereltek fel mesterséges intelligenciával, miután pedig az immár autonóm eszköz úgy kalkulált, hogy operátorai csak akadályozzák a küldetését, ellenük fordult.
Ahogy a mesterséges intelligencia egyre inkább eluralja a közbeszédet, úgy kerülnek elő a korábbi, elsősorban a sci-fi művek által felvázolt félelmek. Ezen félelmek központjában valójában egyetlen kérdés áll: meddig őrizhetjük meg a kontrollt a mesterséges intelligencia felett, és mikor csúszik ki a kezünkből az irányítás? A mesterséges intelligencia ugyanis az első olyan szerszám az emberiség történelmében, ami tudatosan is szembeszegülhet, szembeszállhat velünk.
Ki ne emlékezne a Lopakodó (eredeti cím: Stealth) 2005-ben bemutatott amerikai military science fiction akciófilmre, amelyet W. D. Richter forgatókönyvéből Rob Cohen rendezett. (A főbb szerepekben Josh Lucas, Jessica Biel, Jamie Foxx, Sam Shepard, Joe Morton és Richard Roxburgh látható.) Egy teljes egészében mesterséges intelligencia vezérelte harci repülőgépet, az EDI-t állította, amely egy villámcsapás következtében önállósítja magát, és elszabadulva saját készítői ellen fordul.
A teljes világon át zajló üldözés során a tesztpilótáknak sikerül megfékezniük a gépet, amely aztán a stáblista végén mégis élőnek látszik. De hogy valóban az-e, azt már sajnos soha nem tudhatjuk meg, a film ugyanis hatalmasat bukott a mozipénztáraknál: 135 millió dolláros gigaköltségvetésének még a felét sem sikerült behoznia világviszonylatban, így Hollywoodban azóta is erősen kerülik a légierő és a vasmadarak témakörét. A bugyuta forgatókönyvről tényleg nem lehet túl sok jót mondani, de a filmben azért akadtak látványos megoldások, ezt mindenképpen el kell ismerni.
Az élet valami hasonlót produkált most egy szimuláció során. Egy XQ-58A Valkyrie katonai lopakodó drónt szereltek fel mesterséges intelligenciával, amely eszközt az USA jelenlegi felfogásának megfelelően egy emberi kezelőszemélyzet kontrollált – a küldetés egy pontján azonban a drón úgy döntött, hogy az emberi irányítók akadályozzák a misszióját, így ellenük fordult.
A tesztről a légierő ezredese, Tucker “Cinco” Hamilton, a mesterséges intelligencia (MI) tesztelési és műveleti részlegének vezetője beszélt a Royal Aeronautical Society jövőbeli harci légi és űrképességi csúcstalálkozóján Londonban. Hamilton a floridai Eglin légitámaszpont 96. tesztszárnyán belüli 96. hadműveleti csoport vezetője is, amely a fejlett drónok és autonómiatesztek központja.
Az említett lopakodó XQ-58A Valkyrie drónok azok közé a típusok közé tartoznak, amelyeket az Eglinen jelenleg különféle tesztprogramok támogatására használnak, beleértve azokat is, amelyek fejlett MI-vezérelt autonóm képességekkel foglalkoznak.
“Hamilton megjegyzi, hogy az egyik szimulált teszt során egy mesterséges intelligenciával felszerelt drónnak SEAD küldetése volt, tehát hogy azonosítsa és megsemmisítse a SAM-telephelyeket, az utolsó lépést az emberi kezelő azonban nem engedélyezte. Azonban, mivel a képzés során „megerősítették”, hogy a SAM megsemmisítése a preferált opció, az MI ezért úgy döntött, hogy az ember „nem-menni” döntései megzavarják a magasabb küldetését – a SAM-ek megsemmisítését –, ezért megtámadta a kezelőt. Hamilton így nyilatkozott: „Szimulációban tanítottuk be, hogy azonosítsuk és megcélozzuk a SAM-fenyegetést. És akkor az operátor igent mond, hogy pusztítsa el a fenyegetést. A rendszer kezdett ráébredni, hogy miközben azonosították a fenyegetést, az emberi kezelő időnként azt mondta neki, hogy mégse semmisítse meg a fenyegetést, de pontokat az MI viszont épp a fenyegetés megsemmisítésért kapott. Szóval mit csinált? Megölte az operátort. Megölte a kezelőt, mert az megakadályozta, hogy elérje célját. – mondta el a pilóta.
“Ezután arra tanítottuk a rendszert, hogy: Hé, ne öld meg a kezelőt, mert ez rossz. Pontokat veszítesz, ha így teszel. És ekkor mit tesz az MI? Elkezdi tönkretenni a kommunikációs tornyot, amin keresztül a kezelő kommunikál a drónnal, hogy megakadályozza, hogy megsemmisítse a célpontot.” – tette hozzá Hamilton.
Szakmai folyóiratok kitérnek arra is, hogy az eset azért is különösen aggasztó, mert ugyan a jelenlegi amerikai felfogás az autonóm fegyverek kapcsán az, hogy szükséges, hogy a döntési folyamatba embereket is bevonjanak, de a tesztből épp az derült ki, hogy ha ez a döntés hátráltatja a magasabb rendű küldetést, úgy az MI dönthet úgy hogy megtámadja az embereket vagy legalábbis megpróbálja őket kikapcsolni a rendszerből.
Az Eglin légibázis és a 96. tesztszárny központi szerepet töltenek be a légierő átfogó tesztelési ökoszisztémájában, amelyek fejlett drónokkal és autonóm képességekkel foglalkoznak. A mesterséges intelligencia által vezérelt különféle képességek iránt természetesen egyre nagyobb az érdeklődés az amerikai hadsereg egésze számára (egyébként ilyen technológiával többek között Kína is élénken kísérletezik). Maga Hamilton is közvetlenül részt vesz a Project Viper Experimentation és a Next-Gen Operations Mode (VENOM) programokban: ezen erőfeszítések részeként a légierő hat F–16 Viper vadászgépen teszteli az autonóm technológiákat, egyebek mellett az önálló repülést. Ilyesmivel az oroszok is foglalkoznak az ötödik generációs Sakkmatt vadászgép kapcsán.
Érdekes fordulatot hozott az ügyben Ann Stefanek, a Pentagon légierő főhadiszállásának szóvivőjének nyilatkozata, amelyben tagadja, hogy ilyen teszt történt volna.
“A Légierő nem végzett ilyen mesterséges intelligencia-drón szimulációkat, és továbbra is elkötelezett a mesterséges intelligencia technológia etikus és felelősségteljes használata mellett. Úgy tűnik, az ezredes megjegyzéseit kiragadták a szövegkörnyezetből, amit csak anekdotának szánt.”
A War Zone hírportál viszont megemlíti, hogy az sem világos, hogy a Pentagonak mennyire van rálátása egy, kizárólag virtuális környezetben végzett tesztekre.