Nyomtatás

Logó a 2023. február 16-án Hágában megrendezett, a mesterséges intelligencia a hadseregben című RAIM-konferencián. Kép: Holland Külügyminisztérium / CC BY-SA 2.0 Deed

Igen, itt az ideje, hogy aggódjunk - nagyon is aggódjunk. Amint azt az ukrajnai és a gázai háborúk megmutatták, a "gyilkos robotok" első drónos megfelelői már eljutottak a csatatérre, és pusztító fegyvereknek bizonyultak.

De legalább nagyrészt emberi ellenőrzés alatt maradnak. Képzeljünk el egy pillanatra egy olyan háborús világot, amelyben ezek a drónok (vagy a földi és tengeri megfelelőik) minket irányítanak, és nem fordítva.

A hadviselés jövője

Akkor egy pusztítóan más bolygón találnánk magunkat, ami ma szinte elképzelhetetlennek tűnik. Sajnos minden, csak nem elképzelhetetlen, ha figyelembe vesszük, hogy a nagyhatalmak már elkezdtek dolgozni a mesterséges intelligencián (AI) és a robotfegyvereken.

Hadd vigyem el Önöket ebbe a titokzatos világba, és próbáljuk meg elképzelni, hogy mit jelenthet mindannyiunk számára a hadviselés jövője.

A mesterséges intelligencia és a fejlett robotika kombinálásával az amerikai hadsereg és más fejlett nemzetek fegyveres erői már keményen dolgoznak egy sor önvezérelt "autonóm" fegyverrendszer - harci drónok - kifejlesztésén, amelyek az őket irányító emberi tisztektől függetlenül képesek halálos erőt alkalmazni.

Ezek a gépek, amelyeket a kritikusok "gyilkos robotoknak" neveznek, számos olyan pilóta nélküli repülőgépet, tankot, hajót és tengeralattjárót foglalnak magukban, amelyek képesek autonóm működésre. Az Egyesült Államok légiereje például az "CollaborativeCombatAircraft" - Együttműködő harci repülőgépet" fejleszti, egy olyan pilóta nélküli légi járművet (UAV), amelyet arra terveztek, hogy a nagy kockázatú küldetésekben a pilóta nélküli repülőgépek mellett működjön.

Ellentmondások

A hadsereg számos autonóm, pilóta nélküli földi járművet (UGV) is tesztel, míg a haditengerészet pilóta nélküli felszíni hajókkal (USV) és pilóta nélküli víz alatti hajókkal (UUV vagy drón tengeralattjárók) is kísérletezik.

Kína, Oroszország, Ausztrália és Izrael is dolgozik ilyen fegyvereken a jövő harcterein.

Ezeknek a gyilkológépeknek a küszöbön álló megjelenése világszerte aggodalmat és vitát váltott ki, egyes országok máris teljes betiltásukra törekszenek, míg mások, köztük az Egyesült Államok, csak emberi felügyelet mellett tervezik engedélyezni a használatukat.

Genfben az államok egy csoportja még a teljesen autonóm fegyverek használatának és bevetésének betiltására is kísérletet tett, hivatkozva egy 1980-as ENSZ-szerződésre, az egyes hagyományos fegyverekről szóló egyezményre, amelynek célja a polgári lakosságra különösen károsnak ítélt nem nukleáris lőszerek korlátozása vagy betiltása.

Irányíthatatlanná vált

Az ENSZ Közgyűlése tavaly októberben New Yorkban tárgyalt először az autonóm fegyverekről, és jövő őszre tervezi a téma átfogó felülvizsgálatát.

Az ilyen eszközök harctéri alkalmazásáról szóló vita középpontjában az a kérdés áll, hogy képesek lesznek-e emberi életek kioltására emberi felügyelet nélkül. Számos vallási és civil társadalmi szervezet azzal érvel, hogy az ilyen rendszerek nem képesek különbséget tenni a harcosok és a civilek között a csatatéren, és ezért be kell tiltani őket, hogy a nem harcoló személyeket megvédjék a haláltól vagy sérüléstől, ahogyan azt a nemzetközi humanitárius jog előírja.

Az amerikai tisztviselők viszont azt állítják, hogy az ilyen fegyvereket úgy lehet megtervezni, hogy a törvényes kereteken belül megfelelően működjenek.

Egyik fél sem foglalkozott azonban a harci alkalmazásuk potenciálisan legaggasztóbb aspektusával: annak valószínűségével, hogy előbb-utóbb képesek lesznek emberi beavatkozás nélkül kommunikálni egymással, és "intelligens" lévén, saját, nem előírt taktikát dolgoznak ki az ellenség legyőzésére - vagy valami egészen mást.

A csoportgondolkodás és annak következményei a harctéren

Az ilyen számítógép-vezérelt csoportos gondolkodás, amelyet az informatikusok "emergens viselkedésként" emlegetnek, számos olyan veszélyt rejt magában, amelyet a genfi, washingtoni vagy ENSZ-felelősök még nem vettek figyelembe.

Egyelőre az amerikai hadsereg által kifejlesztett autonóm fegyverek többsége a meglévő vadászrepülőgépek pilóta nélküli (vagy ahogyan néha nevezik, "személyzet nélküli") változata lesz, amelyeket arra terveztek, hogy a személyzettel ellátott társaik mellett működjenek.

Bár bizonyos mértékig kommunikálni tudnak egymással, egy "hálózatba kapcsolt" harci csapat részei lesznek, amelynek bevetését emberi parancsnokok diktálják és ellenőrzik. Az együttműködő harci repülőgép például "hűséges szárnysegédként" szolgál majd az F-35-ös pilóta nélküli lopakodó vadászgép számára, miközben nagy kockázatú küldetéseket hajt végre a vitatott légtérben.

A hadsereg és a haditengerészet hasonló utat járt be az autonóm fegyverek fejlesztése terén.

A robot "rajok" vonzereje

Egyes amerikai stratégák azonban egy alternatív megközelítés mellett érveltek az autonóm fegyverek jövőbeni harctéri alkalmazásával kapcsolatban, amelyben az autonóm fegyvereket nem az ember vezette csapatok alsóbbrendű munkatársaiként, hanem az önvezető robotrajok egyenrangú tagjaiként vetnék be.

Az ilyen alakzatok több tucat vagy akár több száz mesterséges intelligencia által vezérelt UAV-ból, USV-ből vagy UGV-ből állnának, amelyek mind képesek egymással kommunikálni, adatokat megosztani a harctéren uralkodó változó körülményekről, és közösen változtatni a harci taktikájukat, ha a csoport elme ezt szükségesnek tartja.

"Az új robottechnológiák lehetővé teszik majd, hogy a jövő fegyveres erői rajként harcoljanak, nagyobb tömeggel, koordinációval, intelligenciával és sebességgel, mint a mai hálózatba kapcsolt erők" - jósolta Paul Scharre, e koncepció egyik korai támogatója a Center for a New American Security (CNAS) számára készített 2014-es jelentésében.

"A hálózatba kapcsolt, együttműködő autonóm rendszerek" - írta akkoriban - "képesek lesznek valódi rajviselkedésre - a megosztott elemek közötti kooperatív viselkedésre, amely egy koherens, intelligens egészhez vezet".

Rajkoncepció az állati viselkedés másolására

Amint azt Scharre prófétai jelentésében világossá tette, a raj koncepció teljes megvalósításához olyan fejlett algoritmusok kifejlesztésére lenne szükség, amelyek lehetővé teszik az autonóm harci rendszerek számára, hogy kommunikáljanak egymással és "koordinálják" az előnyben részesített támadási módszereket.

Ehhez olyan szoftver kifejlesztésére lenne szükség, amely képes utánozni a hangyákat, méheket, farkasokat és más, a természetben "raj-viselkedést" mutató élőlényeket. Ahogy Scharre fogalmazott:

„Ahogyan a farkasok egy falkában szembeszállnak az ellenséggel a minden irányból érkező fenyegetések folyamatosan változó összemosódásával, a manővereket és támadásokat összehangoló pilóta nélküli járművek sokkal hatékonyabbak lehetnek, mint a tömegesen működő, koordinálatlan rendszerek.”

2014-ben azonban az ilyen gépi viselkedést lehetővé tevő technológia még gyerekcipőben járt. E kritikus hiányosság orvoslására az Egyesült Államok védelmi minisztériuma finanszírozta a mesterséges intelligencia és a robotika kutatását, miközben a vonatkozó technológiákat olyan magánvállalatoktól szerezte be, mint a Google és a Microsoft.

Ennek a törekvésnek az egyik kulcsfigurája Robert Work volt, Paul Scharre korábbi munkatársa a CNAS-nél, és a rajhadviselés egyik korai rajongója. Work 2014 és 2017 között védelmi miniszterhelyettes volt, és ez a pozíció lehetővé tette számára, hogy egyre nagyobb összegeket irányítson a csúcstechnológiás fegyverek, különösen a pilóta nélküli és autonóm rendszerek fejlesztésére.

A mozaiktól a replikátorig

Az erőfeszítések nagy részét a Pentagon belső csúcstechnológiai kutatási szervezetére, a Defense Advanced Research ProjectsAgency (DARPA) bízta.

Az ilyen együttműködő rajműveletekhez szükséges mesterséges intelligencia fejlesztésének részeként a DARPA elindította a "Mozaik" programot, egy olyan projektsorozatot, amelynek célja az algoritmusok és egyéb technológiák tökéletesítése, amelyek szükségesek a pilóta nélküli és a pilóta által irányított harci rendszerek tevékenységének összehangolásához vezet az Oroszországgal és/vagy Kínával folytatott jövőbeli nagy intenzitású harcokban.

"A mozaikos koncepció nagyfokú rugalmasságának a hadviselésben való alkalmazásával" - magyarázta Dan Patt, a DARPA Stratégiai Technológiai Hivatalának igazgatóhelyettese - "az alacsonyabb költségű, kevésbé összetett rendszerek különböző módon összekapcsolhatók, hogy az egyes forgatókönyvekhez igazodva elérjék a kívánt, egymásba fonódó hatásokat".

A mozaik egyes darabjai sérülékenyek [feláldozhatók], de együtt felbecsülhetetlenek, mert hozzájárulnak az egészhez."

Kína legyőzése a mesterséges intelligenciával

Úgy tűnik, hogy ez a hadviselési koncepció áll a KathleenHicks védelmi miniszterhelyettes által tavaly nyáron bejelentett új "Replikátor" stratégia hátterében. A "Replikátor" célja, hogy segítsen leküzdeni [Kína] legnagyobb előnyét, amely a tömeg. Több hajó. Több rakéta. Több ember" - mondta tavaly augusztusban a védelmi ipar képviselőinek.

Több ezer autonóm UAV, USV, UUV és UGV bevetésével az amerikai hadsereg túljárhatna a kínai hadsereg, a Népi Felszabadító Hadsereg (PLA) eszén, manőverezhetne és legyőzhetné azt - mondta.

Ahhoz, hogy a csúcson maradjunk, a technológia új szintjét hozzuk létre ... A PLA tömegét a saját tömegünkkel fogjuk ellensúlyozni, de a miénket nehezebb lesz észrevenni, nehezebb lesz eltalálni és nehezebb lesz legyőzni.

Egy ilyen ambiciózus program megvalósításához szükséges hardver és szoftver beszerzése érdekében a védelmi minisztérium most ajánlatokat kér hagyományos védelmi vállalatoktól, például a Boeingtől és a Raytheontól, valamint olyan AI (Mesterséges Intelligencia) start-up cégektől, mint a Anduril és a Shield AI.

Az Orcától a Switchblade-ig

Míg a nagyméretű rendszerek, mint például a légierő együttműködő harci repülőgépe és a haditengerészet Orca extra nagy UUV-ja is beletartozhat ebbe a programba, a hangsúly a kisebb, kevésbé összetett rendszerek gyors gyártásán van, mint például a  támadó drónSwitchblade az AeroVironment-től, amelyet jelenleg az ukrán csapatok használnak az orosz tankok és páncélozott járművek kiiktatására az ellenséges vonalak mögött.

Ugyanakkor a Pentagon már most technológiai start-up cégeket kér fel az ilyen különböző robotikus egységek és a hozzájuk kapcsolódó emberes platformok közötti kommunikáció és koordináció megkönnyítéséhez szükséges szoftverek kifejlesztésére.

Ennek elősegítése érdekében a légierő 50 millió dollárt kért a Kongresszustól a 2024-es pénzügyi évre vonatkozó költségvetésében a Venom projekt ("ViperExperimentation and Next-generationOperationsModel") finanszírozására, miközben a Venom ("méreg") név már katasztrófát sejtet.

A Venom részeként a légierő meglévő vadászrepülőgépeket alakít át mesterséges intelligencia által vezérelt drónokká, és ezeken teszteli a fejlett autonóm szoftvert több drón bevetésére. A hadsereg és a haditengerészet hasonló rendszereket tesztel.

Amikor a rajok saját útjukat választják

Más szóval, csak idő kérdése, hogy az amerikai hadsereg (és feltehetően Kína, Oroszország és talán néhány más hatalom) képes lesz olyan algoritmusokkal felszerelt autonóm fegyverrendszerek rajokat telepíteni, amelyek lehetővé teszik számukra, hogy kommunikáljanak egymással, és mozgásuk során közösen válasszanak újszerű, előre kiszámíthatatlan harci manővereket.

Egy ilyen raj minden egyes résztvevő robotikus tagja kapna egy küldetési célt ("Észlelje és semmisítse meg az összes ellenséges radart és légvédelmi rakétaüteget, amely ezeken a [meghatározott] földrajzi koordinátákon belül található"), de nem kapna konkrét utasításokat arra vonatkozóan, hogy hogyan kell ezt megtennie.

Ez lehetővé tenné számukra, hogy egymással egyeztetve válasszák meg saját harci taktikájukat. Ha a rendelkezésünkre álló korlátozott tesztadatok alapján bármit is feltételezhetünk, akkor ez azt jelentheti, hogy rendkívül szokatlan taktikákat alkalmaznak, amelyeket soha nem emberi pilóták és parancsnokok számára találtak ki (és nem is tudnak megismételni).

Az ilyen hálózatba kapcsolt mesterséges intelligencia-rendszerek hajlamát arra, hogy újszerű, nem tervezett eredményeket érjenek el, a számítógépes szakértők "emergens viselkedésnek" nevezik. A ScienceDirect, a tudományos folyóiratok összefoglalója ezt a következőképpen magyarázza:

„Az emergens viselkedés olyan folyamatként írható le, amelyben nagyobb minták alakulnak ki olyan kisebb vagy egyszerűbb entitások közötti kölcsönhatások révén, amelyek maguk nem rendelkeznek ilyen tulajdonságokkal.”

Emberfeletti csapatszellem

Katonai értelemben ez azt jelenti, hogy autonóm fegyverek egy raja együttesen olyan harci taktikákat alkalmazhat, amelyekre az egyes eszközök egyike sem volt beprogramozva - és így potenciálisan elképesztő eredményeket érhet el a csatatéren, de olyan eszkalálódó akciókat is végrehajthat, amelyeket emberi parancsnokaik nem terveztek vagy nem vártak, beleértve a kritikus polgári infrastruktúra vagy a nukleáris és hagyományos műveletekhez használt kommunikációs létesítmények megsemmisítését.

Ezen a ponton persze szinte lehetetlen megjósolni, hogy mit tehet egy nem emberi csoportos elme, ha több fegyverrel van felszerelve, és nincs emberi felügyelet alatt.

Feltételezhető, hogy az ilyen rendszerek "meghibásodás elleni védelemmel" vannak felszerelve, amely lehetővé teszi számukra, hogy visszatérjenek a bázisra, ha az emberi felettesükkel való kommunikáció megszakad, akár ellenséges beavatkozás, akár más okok miatt.

Ki tudja azonban, hogy az ilyen gondolkodó gépek hogyan működnének a való világ igényes körülményei között, vagy hogy a csoportos elme valóban képes lenne-e figyelmen kívül hagyni az ilyen utasításokat és önállóan cselekedni.

És akkor mi lesz? Lehet, hogy az ilyen gépek úgy döntenek, hogy az előre beprogramozott határaikon túl harcolnak, és ezzel nem szándékos - esetleg nukleáris - eszkalációt idéznek elő?

Terminátorok vagy béketeremtők?

Vagy abbahagynák az ellenséges erők elleni támadásaikat, és inkább beavatkoznának a baráti erők műveleteibe, esetleg lőnének rájuk és megsemmisítenék őket (mint a Skynet a Terminátor című klasszikus sci-fi filmsorozatban)?

Vagy esetleg olyan viselkedést tanúsítanak, amely jóban-rosszban teljesen meghaladja a képzeletünket?

Magas rangú amerikai katonai és diplomáciai tisztviselők ragaszkodnak ahhoz, hogy a mesterséges intelligenciát valóban be lehet vetni anélkül, hogy a jövőben ilyen kockázatokkal járna, és hogy az USA csak olyan eszközöket fog bevetni, amelyek alaposan és megfelelően védelmet nyújtanak a jövőbeli veszélyes helytelen viselkedés ellen.

Ez a kulcspontja az amerikai külügyminisztérium által 2023 februárjában kiadott "Politikai nyilatkozat a mesterséges intelligencia és az autonómia felelősségteljes katonai alkalmazásáról" című dokumentumnak.

Számos neves biztonsági és technológiai szakértő azonban túlságosan is tisztában van a jövőbeli robotfegyverek kialakuló viselkedésének lehetséges kockázataival, és továbbra is figyelmeztetnek a mesterséges intelligencia gyors hadviselésben való alkalmazására.

Jönnek a robotvezérelt csataterek?

Külön említést érdemel a mesterséges intelligenciával foglalkozó nemzetbiztonsági bizottság 2021 februárjában közzétett zárójelentése. A bizottság, amelynek társelnöke Robert Work (aki a Pentagonban töltött szolgálata után tért vissza a CNAS-hez) és Eric Schmidt, a Google korábbi vezérigazgatója, azt javasolta, hogy az amerikai hadsereg gyorsan alkalmazza az AI-t, hogy a Kínával és/vagy Oroszországgal való jövőbeli konfliktusokban biztosítsa a győzelmet.

Ugyanakkor aggodalmát fejezték ki a robotvezérelt harcterek potenciális veszélyeivel kapcsolatban is.

"Az ilyen rendszerek ellenőrizetlen globális telepítése magában rejti a konfliktusok nem szándékolt eszkalálódásának és a bizonytalan válságok kockázatát" - áll a jelentésben.

Ez több okból is bekövetkezhet, többek között "a mesterséges intelligenciával támogatott és autonóm fegyverrendszerek közötti interakció nehéz és kipróbálatlan összetettsége [azaz a kialakuló viselkedés] miatt a harctéren".

E veszélyre tekintettel a jelentés arra a következtetésre jut, hogy "az országoknak olyan intézkedéseket kell hozniuk, amelyek a mesterséges intelligenciával támogatott és autonóm fegyverrendszerekkel kapcsolatos kockázatok csökkentésére összpontosítanak".

Kockázat: "Nyugodjék békében" az emberiség

Amikor az autonóm fegyverrendszerek vezető támogatói azt mondják, hogy aggódnunk kell a harcban való alkalmazásuk nem szándékolt veszélyei miatt, akkor valóban aggódnunk kell.

Még ha nincsenek is meg a matematikai képességeink ahhoz, hogy megértsük a mesterséges intelligencia kialakuló viselkedését, nyilvánvalónak kell lennie, hogy az emberiség létét jelentős veszély fenyegeti, ha a gyilkoló gépek képessé válnak az önálló gondolkodásra.

Talán mindenkit meglepnének, és úgy döntenének, hogy vállalják a nemzetközi békefenntartók szerepét. De mivel harcra és gyilkolásra tervezték őket, sokkal valószínűbb, hogy egyszerűen úgy döntenek, hogy önállóan és szélsőséges módon hajtják végre ezeket az utasításokat.

Ebben az esetben nem lehetett senki, aki az emberiség sírkövére R.I.P.-t ("Rest In Peace") írhatott volna.

Ez a cikk a TomDispatch amerikai magazinnal együttműködésben jelent meg. Az eredetit itt találja. Fordítás: David Goeßmann.

Michael T. Klare a Hampshire College Béke és Világbiztonsági Tanulmányok professor emeritusa és a Fegyverzetellenőrzési Szövetség vezető vendégtudósa. Tizenöt könyv szerzője, a legutóbbi a "All Hell BreakingLoose: The Pentagon'sPerspectiveonClimateChange" (Elszabadult a pokol: A Pentagon nézőpontja az éghajlatváltozásról) című könyv. Társalapítója a Committeefor a Sensible U.S.-China Policy (Bizottság az ésszerű amerikai-kínai politikáért) nevű szervezetnek.

Olvassa el továbbá:

CIA Ukrajnában: A provokáció, amely kiváltotta Putyin agressziós háborúját?

Telepolis https://www.telepolis.de/features/CIA-in-der-Ukraine-Die-Provokation-die-Putins-Angriffskrieg-ausloeste-9641397.html

Tisztelt Bundestag: Az afganisztáni háború nem "stratégiai hiba", hanem agresszió volt

Telepolis https://www.telepolis.de/features/Lieber-Bundestag-Afghanistankrieg-war-kein-strategischer-Fehler-sondern-Aggressionsakt-9632259.html

 

A NATO nem biztonságosabbá, hanem bizonytalanabbá tesz minket

Telepolis https://www.telepolis.de/features/Die-Nato-macht-uns-nicht-sicherer-sondern-unsicherer-9626784.html

 

Forrás: https://www.telepolis.de/features/Der-kriegerische-KI-Schwarm-Was-passiert-wenn-Killer-Roboter-anfangen-zu-kommunizieren-9642983.html?seite=all, 2024. március 01. A szerző, Michael T. Klare a Béke és Globális Biztonsági Tanulmányok professor emeritusa és a Fegyverzetellenőrzési Szövetség tagja.

Fordította: Naetar-Bakcsi Ildikó

Submit to FacebookSubmit to Google PlusSubmit to Twitter

Michael Klare 2024-03-02  telepolis.de