Nyomtatás

Holger Hoos az RWTH Aachen Alexander von Humboldt Egyetem Matematikai, Informatikai és Természettudományi Karának -professzora az informatikában, és válaszolt a Telepolis kérdéseire.

Az RWTH Aachen-i Egyetem Műszaki Mesterséges Intelligencia Központjának kiváló tudományos igazgatójaként részt vesz egy három országot átfogó kutatási hálózat létrehozásában Belgiumban, Hollandiában és Németországban.

Professzor úr, köszönjük, hogy időt szakít ránk.

Holger Hoos: Állampolgári kötelességemnek tekintem, hogy ne csak kutatást folytassak, hanem a nyilvánosságot is tájékoztassam.

Az AI (mesterséges intelligencia) mint manipulációs eszköz a 2024-es szuper választási évben

▶ 2024 világszerte szuper választási év lesz. Soha ennyi választás nem volt még egyszerre. És ezúttal a választásokat a mesterséges intelligencia fogja jellemezni, ami sok mindent megváltoztathat. A mélyreható hamisítástól kezdve a választói magatartást átláthatóvá tevő módszerekig minden lehetséges. Mi vár ránk, mire kell figyelmeztetnünk?

Holger Hoos: Sok minden lehetséges. A mesterséges intelligencia alapvetően egy olyan technológia, amely segít összetett modellek létrehozásában és megértésében. A választói magatartás összetett dolog, és rengeteg adat áll rendelkezésre róla.

Más jogrendekben, például az Egyesült Államokban még több adat áll rendelkezésre, mint amihez a GDPR értelmében hozzáférhetünk. Ne áltassuk magunkat.

Sok minden forog kockán, ezért mindent fel fognak használni, amit fel lehet használni arra, hogy ne csak előre jelezzék a választási eredményeket, hanem arra is, hogy bizonyos politikai erők számára kedvező irányba tereljék azokat. Ezt már láthattuk az amerikai elnökválasztásokon, ahol alapvetően ez történt négy és nyolc évvel ezelőtt.

És még többet fogunk látni ebből a választói magatartás kihasználható meglátásaiból. Másrészt persze a manipuláció olyan skálázhatóságát, amire korábban még nem volt példa.

A generatív mesterséges intelligencia itt fontos szerepet játszik.

Olyan helyzet állt elő, hogy az emberek például a ChatGPT-n keresztül olyan szövegeket tudnak generálni, amelyek első pillantásra gyakran nagyon meggyőzőnek tűnnek. Természetesen ez politikai mozgósításra vagy manipulációra is felhasználható. Mivel ez lehetséges, és a tét nagy, a generatív mesterséges intelligenciát ebben a kontextusban is használni fogják - méghozzá nagy mennyiségben. Ebben nagyon biztos vagyok.

Feltételezem, hogy ezt a tartalmat a közösségi médián keresztül is rendkívül hatékonyan terjesztik. Attól is tartok, hogy az emberi viselkedés sokkal jobban manipulálható, mint szeretnénk. Manipulálható olyan tartalmakkal, amelyek egyszerűen csak a felszínen jól sikerültek, és amelyeknél mélyre kell ásni, hogy meglássuk, hol vannak a gyenge pontok, és hol nem illenek már bele.

Ezért gondolom, hogy rendkívül fontos, hogy a generatív mesterséges intelligenciával létrehozott tartalmakat ekként kell megjelölni. A közösségi médiában például azt kellene írni, hogy "ez a poszt generatív mesterséges intelligenciával készült". Miért lenne ez fontos? Mert akkor a felelős polgároknak lenne egy hivatkozási pontjuk, ahol alaposabban kellene gondolkodniuk.

Általában gyanakvóbbnak kell lenni, még akkor is, ha a tartalom első pillantásra meggyőzőnek tűnik. A generatív AI-módszereknek ugyanis nem feltétlenül rosszindulatú szándékból kell torzító hatást kifejteniük. Statisztikai megközelítéseken alapulnak, nem tudnak logikai következtetéseket levonni, és csak rendkívül korlátozott mértékben képesek behatolni a logikai összefüggésekbe. Még ha nincs is manipulatív szándékuk, néha csak szemetet kapunk, ami nagyon meggyőzőnek tűnhet.

Különösen az EU-n belül be lehetne és be kellene vezetni a "mesterséges intelligencia részt vett ebben a folyamatban" kötelező megjelölést.

Olvassa el továbbá

Hálózati politika: Miért nemigen foglalkozik a választási kampány a digitális korban a munkával?

Telepolis

 

https://heise.cloudimg.io/v7/_www-heise-de_/imgs/18/4/5/8/8/3/8/7/shutterstock_2346448085-11897e460d7dc7e5.jpeg?force_format=avif%2Cwebp%2Cjpeg&org_if_sml=1&q=50&width=160

A mesterséges intelligencia technológiája a politikában: hogyan manipulálhatók a választási kampányok

Telepolis

 

https://heise.cloudimg.io/v7/_www-heise-de_/imgs/18/4/5/3/3/1/5/7/wahlen-ki-ce31d6a13b1826db.jpeg?force_format=avif%2Cwebp%2Cjpeg&org_if_sml=1&q=50&width=160

Mesterséges intelligencia-ellenőrzők kontra mesterséges intelligencia által generált tartalom: Technológiai fegyverkezési verseny

▶ Léteznek-e olyan módszerek, amelyek segítségével maga az AI felismerhetővé teszi az AI-módszerek használatát annak érdekében, hogy felfedje az AI használatát?

HolgerHoos: Erre vonatkozóan intenzív kutatás folyik, és már vannak viszonylag hasznos módszerek. Néhány egyetemen a hallgatói dolgozatokat alapfeladatként ellenőrzik mesterséges intelligenciával, ugyanúgy, ahogyan a plágiumellenőrzést is elvégzik. Az eredmény az, hogy "ezek a szövegek úgy néznek ki, mintha generatív mesterséges intelligenciától származnának". Ezt elég jól meg lehet csinálni.

Természetesen itt egyfajta "fegyverkezési verseny" folyik. Az egyik oldalon vannak azok, akik generatív AI-t készítenek, amit nem kellene annak elismerni, a másik oldalon pedig azok, akik ezeket az ellenőrző programokat fejlesztik. Meg kell említeni, hogy például a Microsoftnak nem fűződik nagy érdeke ahhoz, hogy a ChatGPT-vel generált tartalmak ne legyenek felismerhetőek. Jelenleg nem látok szándékot arra, hogy ezt leplezzék.

Azonban kisebb léptékben is lehet generatív AI módszereket létrehozni - ehhez nem kell OpenAI-nak vagy Microsoftnak lenni, és feltételezem, hogy az említett "fegyverkezési verseny" már most is zajlik néhány helyen.

Ott vannak az ellenőrző programok, amelyeket folyamatosan fejlesztenek - másrészt a nyelvi modellek is egyre jobbak és jobbak. Egyre emberközelibbé válnak. Még ha nem is az a szándék, hogy valamit elfedjenek, egyre nehezebb az AI által generált tartalmat akként felismerni.

Ezt szem előtt tartva úgy gondolom, hogy jobb lenne, ha eleve nem támaszkodnánk az AI-ellenőrzőkre. Pozitívan állok ahhoz a tényhez, hogy léteznek, de úgy gondolom, hogy az egészséges szkepticizmus és a józan ész az, ami sokkal messzebbre visz minket.

Ez olyasvalami, amit napjainkban jobban kell propagálnunk, és amiből többet kell generálnunk. A politikai folyamatokban ez amúgy is fontos - függetlenül attól, hogy a tartalmat mesterséges intelligencia generálja-e vagy sem. Az egészséges szkepticizmus és a józan ész demokratikus folyamataink alapja.

A józan ész a mesterséges intelligencia helyett: a demokrácia alapja

▶ Akkor ennek tudatosítását már az iskolában meg kellene kezdeni, amilyen korán csak lehet, nem igaz? Hol kezdené?

HolgerHoos: Az első dolog, amit mondanék, hogy nem kell sokat tennünk. A mesterséges intelligencia ott van, a gyerekek már tudják ezt. Ez egy olyan elterjedt, széles körben megvitatott téma, hogy a tanulók így vagy úgy, de legkésőbb az általános iskolában már kapcsolatba kerültek vele. A ChatGPT óta ez a valóság.

Az igazi kérdés az, hogy hol kell elkezdenünk ahhoz, hogy garantálni tudjuk a technológia ésszerű megközelítését. És úgy gondolom, hogy a lehető legkorábban kell kezdenünk. Legkésőbb akkor, amikor a gyerekek elkezdik használni az eszközeiket (főleg okostelefonokat vagy táblagépeket) a világgal való kapcsolattartásra, azaz amikor elkezdenek webes kereséseket végezni, Wikipédiát olvasni - mind olyan dolgok, amelyeknek sok értelme van, ha értelmesen használják őket. Szerintem itt kell elkezdenünk és beszélnünk kell a mesterséges intelligenciáról, rámutatva a kockázatokra, de a vele járó hatalmas lehetőségekre is.

A demokrácia destabilizálása a mesterséges intelligencia révén

▶ Következő kérdés a kockázatról. A fotózás világából a mesterséges intelligenciát már most is "bombázzák" olyan fotókkal, amelyeken kutyák láthatóak, de macskának vannak címkézve. Ha ez elég gyakran előfordul, akkor, amikor az AI-t arra kérik, hogy mutasson egy macskáról készült fotót, akkor egy kutyáról készült képet kaphat. Ez a politikában is lehetséges? Nemrégiben több uniós kormányfő is figyelmeztetett az ilyesmire, egyébként szinte azonos szavakkal.

HolgerHoos: AI-szakértőként feltételezem, hogy lesznek kísérletek a demokráciánk destabilizálására. Hogy mennyire lesznek sikeresek, az egy másik kérdés. Az intézetben végzett munkánk alapján, amely a neurális hálózatokkal foglalkozik - a generatív mesterséges intelligencia alapja a neurális hálózatok -, tudjuk, hogy vannak rosszindulatú, manipulatív támadások ezek ellen a hálózatok ellen. Például egy kép néhány pixelének megváltoztatásával el lehet érni, hogy a rendszer kutyának vagy hot dognak ismerje fel a macskát.

És ez nem csak a képi adatokra korlátozódik - más adatokra is alkalmazható. A képek esetében már elég jól kutatták, és már vannak megoldási megközelítések.

Nincs azonban olyan megoldás, amely teljes egészében megoldaná a problémát. Minden technikai előrelépés ellenére, ami történt és történni fog - mint mondtam, kutatjuk ezt -, ez egy nyitott probléma, ez a fajta robusztusság hiánya a neurális hálózatok és a gépi tanulási módszerek manipulációjával szemben.

Ez a robusztussági probléma minden bizonnyal a szöveges adatok esetében is fennáll, még akkor is, ha ott eddig kevésbé intenzíven kutatták.

Nincs okunk azt hinni, hogy az embereket nem lehet ilyen módon manipulálni. Mindketten egy olyan generációból származunk, amely valamikor megismerkedett a tudatalatti reklámokkal, olyan képekkel, amelyek a másodperc tört része alatt jelennek meg valahol, de amelyeket tudatosan nem is érzékelünk. A vásárlási döntéseket azonban így lehet befolyásolni.

A pszichológiából már régóta ismert, hogy a viselkedés a tudatalattin keresztül elképesztő módon manipulálható, akár önmagunk manipulálásával is. A mesterséges intelligencia módszerei most még erősebb eszközöket adnak kezünkbe, hogy ezt még hatékonyabban tegyük, például a szövegben ügyesen elhelyezett szavakkal, a generatív mesterséges intelligenciával létrehozott, ügyesen megkomponált képekkel. Mindezeken a területeken a pszichológiának még sokkal mélyebbre kell hatolnia abban, ami ma már lehetséges.

Mi hoztuk a világra a mesterséges intelligencia rendszereket. A Microsoft és más vállalatok úgy döntöttek, hogy az AI-eszközöket viszonylag könnyen hozzáférhetővé teszik emberek milliárdjai számára anélkül, hogy a korlátokat és a kapcsolódó kockázatokat - az erősségeket és a gyengeségeket - jól ismernénk.

Ez egy olyan döntés, amelyről különböző véleményekkel lehet rendelkezni. De már meghozták. És most már mesterséges intelligencia rendszerek vannak a világban.

Nagyon fontosnak tartom, hogy intenzíven kutassuk, milyen következményei vannak ennek. Mik a gyengeségek és az erősségek - és mi romolhat el. Bizonyos mértékig ez a kutatás már most is nagy léptékben zajlik. De ez egyfajta laboratóriumi kísérlet is, amelynek nagy része most a való világban zajlik.

Alapvetően ez a helyzet a mesterséges intelligencia és a demokrácia területén is. Talán észrevették, hogy az épületben, ahol vagyunk, két mesterséges intelligencia tanszék működik, amelyhez hamarosan egy harmadik is csatlakozik, valamint a Politikatudományi Intézet.

Higgye el, a politológus kollégáimat nagyon érdekli a mesterséges intelligencia, és ugyanolyan boldogok, mint mi, hogy egy fedél alatt vagyunk. Ahhoz, hogy megértsük a mesterséges intelligencia lehetséges hatását a politikai rendszerekre, olyan emberekre van szükség, akik ismerik a politikai alapokat.

Én nem vagyok szakértője ennek a területnek, de a politikatudományi kollégáim bizonyára azok. Látom az együttműködés lehetőségeit ezen a területen, de azt is, hogy interdiszciplináris kutatásokra van szükség. Ez nemcsak az RWTH-n, hanem más intézményekben is érvényes.

Legyünk őszinték, a kísérlet a világunkban rohan, mi pedig próbálunk lépést tartani vele. Kutatjuk, hogy mi lehetséges a mesterséges intelligenciával, és milyen veszélyek merülnek fel. Nem dőlhetünk hátra és mondhatjuk, hogy majd ráérünk.

Ez egyfelől lenyűgöző, másfelől nagyon aggasztó. Mert ha valami rosszul alakul a politikai rendszerrel, amelyben élünk, és a mesterséges intelligenciával, az mindannyiunkat érint.

És ha az USA politikai rendszerében valami rosszul alakul, akkor ez minket itt Európában is érinteni fog, akár tetszik, akár nem. Ez nagyon aggaszt engem.

A ChatGPT korlátozott adatbázisa: a tények és a kisebbségek problémái

▶ A mai "valódi laboratóriumi világban" már nincs politikai idő, például a "kormány első 100 napjára". Ugyanakkor a nyelvi modellek adathelyzete időben eltolódott. Az elmúlt két évben teljesen új politikai kulcsadatokat kaptunk - Ukrajna, Közel-Kelet, energiaválság. Sok laikus nem tudja, hogy a ChatGPT ingyenes verzióját több mint kétéves adatokkal képezték ki.

HolgerHoos: Az egyik dolog az adatok kora. És az emberek valószínűleg nem veszik észre, hogy a rendszereket olyan adatmennyiségen képezték ki, amely nem mentes az előítéletektől és torzításoktól.

Az elfogultságok természetét pedig általában nem értjük jól. Különösen, mivel nem ismert, hogy a nagy és széles körben elérhető mesterséges intelligenciamodelleket pontosan milyen adatokon képezték ki. Ez nagy probléma. Egy másik nagy probléma, hogy statisztikailag a rendszerek a valószínűség alapján adnak válaszokat, amit az adatok többsége ad. Ha belegondolunk, hogy ez mit jelent a kisebbségek számára - még a megalapozott és fontos kisebbségi vélemények esetében is -, akkor láthatjuk, hogy milyen problémával állunk szemben.

▶ Tehát konkrét tényeket eltitkolnak, ha az adathelyzet megengedi?

Holger Hoos: Nem kell, hogy rosszindulatú legyen. Statisztikákról beszélünk. Ebben az értelemben a modellek is kissé leegyszerűsítőek, mivel az átlagon alapulnak. A többségen. A politikai folyamatokban pedig, legalábbis az európai értelmezésünk szerint, tudjuk, hogy nemcsak a többség véleménye számít, hanem a kisebbségeké is.

Ahogy ön is mondta, itt nem csak véleményekről van szó, hanem tényekről is. És még a tények esetében is, az igazságot nem mindig a legnagyobb tényhalmaz tükrözi. Néha az igazság az adathalmaz egy kisebb részében rejtőzik. Az igazságot az jellemzi, hogy logikailag következetesebb, mint ami az adatok nagy részében található. És pontosan ez az, amit egy neurális hálózat jelenleg nem tud megragadni - és ezért egy ChatGPT sem.

Aztán egy lépéssel tovább megyünk. Nemcsak tényekről van szó, hanem véleményekről, értékekről és kulturális különbségekről is, akárcsak az európai választásokon. Szerintem két különböző dolog, hogy mit jelent konzervatívnak lenni Németországban és mit jelent Olaszországban vagy Görögországban. És ez valahogy jó dolog.

Az európai projekt, az Európai Unió ebből a sokszínűségből él. Ezért az EU mottója az "egyesülve a sokféleségben". Ha azonban a mesterséges intelligencia rendszerek, amelyeket a világ megértéséhez és mindennapi tevékenységünk végzéséhez használunk, nem tükrözik, és bizonyos esetekben nem is képesek tükrözni ezt a sokszínűséget, akkor ennek a sokszínűségnek egy jó részét elveszítjük, és eltemetjük. Ez pedig rendkívül aggasztó a politikai folyamatok szempontjából.

Nemcsak azért, mert ez a sokféleség akkor már nem hasznosul, vagy mert nem tükröződik megfelelően a politikai döntésekben és a közigazgatási aktusokban, hanem azért is, mert sokak véleménye akkor már nem találja meg azt a meghallgatást a főáramban, amelyhez méltán joga lenne. Ezek az emberek is úgy érzik, hogy elhanyagolták őket - és jogosan.

Mi történik akkor, amikor egyre többen nem érzik többé a politikai folyamat támogatását, ez az, amit jelenleg - nem szakértői szemszögemből - az USA-ban látunk. A trumpizmus jelenségét egyértelműen annak tulajdonítanám, hogy a választók nagy része már nem érzi magát érintettnek abban, ami a politikai folyamatokban történik.

És ennek kezdetben kevés köze van a mesterséges intelligenciához. De az a fajta mesterséges intelligencia, amelyet most szabadítottunk rá a világra, nem segíthet a probléma megoldásában, sőt, épp ellenkezőleg, magában hordozza a probléma súlyosbodásának veszélyét.

Ön a politika gyors tempójáról beszél, és ebben 100 százalékban egyetértek önnel. Amikor most a politikáról és a mesterséges intelligenciáról beszélünk, akkor nem csak arról van szó, hogy a mesterséges intelligencia hogyan változtatja meg a politikai eseményeket, hanem arról is, hogy a politika hogyan alakul a mesterséges intelligencia segítségével.

Mivel a mesterséges intelligencia hatással van a társadalomra, a politikára és a gazdaságra, szabályozásra is szükség van, ahogyan azt az EU most teszi.

▶ Elegendő-e az uniós AI-jogszabály?

Holger Hoos: Őszintén szólva, még azok sem gondolják, akik elfogadták, hogy ez elég. De a kérdés az is, hogy jobb-e az, ami jelenleg van, vagy inkább egyáltalán semmi? És itt én egyértelműen azon a véleményen vagyok, hogy az uniós AI-jogszabály legalábbis egy lépés a helyes irányba. Nem fog találni senkit, aki azt mondaná, hogy a jelenlegi változat a bölcsesség utolsó szava.

De lássuk csak, a ChatGPT 2022 novemberében szabadult rá az emberiségre, és azóta óriási ütemben fejlődik. A politikusok számára is világos, hogy nem adhatják fel. Még a szakértők sem értik teljesen azokat a folyamatokat, amelyeken a modern AI-rendszerek alapulnak.

A politikusoknak teljesen más a ritmusuk. Ez komoly problémákat okoz a politikusok számára. Mert ott sincsenek hozzászokva ilyen tempóhoz.

Azt a politikai folyamatot, amelynek el kell vezetnie ahhoz, hogy a mesterséges intelligenciát használók védelmet kapjanak, például a fogyasztóvédelem terén, nem a mesterséges intelligencia által beállított sebességre tervezték.

És, hogy nyíltan fogalmazzak, sürgősen el kell gondolkodnunk a politikai rendszer megváltoztatásán, hogy az egyáltalán lépést tudjon tartani. Egyáltalán nem irigylem azokat a politikusokat, akiknek a jelenlegi politikai rendszerben kell ezekkel a dolgokkal foglalkozniuk. Ez hihetetlenül nehéz feladat.

A politikai rendszernek alkalmazkodnia kell a mesterséges intelligencia üteméhez: Új részvételi modellek

▶ Vannak-e már modellek és megközelítések arra vonatkozóan, hogy miként kellene megszervezni a politikai rendszert ahhoz, hogy a mesterséges intelligencia korában is fennmaradjon?

Holger Hoos: Ebben nem vagyok szakértő, ehhez a Politikatudományi Intézetbe kellene mennie. Csak egy kis gondolatébresztőt adok.

A részvételi demokráciában új mechanizmusokra van szükség a választott képviselőkkel, parlamentekkel és választásokkal működő bevett modellek mellett. A szakértőket és a polgárokat is be kell vonni. Ez nem azt jelenti, hogy közvetlen demokráciára van szükségünk, mint Svájcban - ez egy Németország méretű ország számára nehéz lenne. De sürgősen el kell gondolkodnunk az állampolgári részvétel új modelljein.

Mert, ahogyan azt a politológusokkal folytatott beszélgetések során újra és újra hallom, ez segíthet az embereknek abban, hogy úgy érezzék, a politika jobban szolgálja őket.

▶ Ez jól és pozitívan hangzik...

Holger Hoos: Itt pozitívan kell gondolkodnunk, és világosan ki kell mondanunk, hogy a mesterséges intelligencia a politika és a demokrácia számára is lehetőségeket kínál.

▶ Ennyire optimista a jövőt illetően?

Holger Hoos: Optimista vagyok és maradok.

▶ Köszönöm az interjút.

 Holger Hoos. Kép: Aswestopoulos

Olvassa el továbbá

Új uniós szabályok: A Bosch főnöke megnyugtatja a munkavállalókat, hogy a mesterséges intelligenciával kapcsolatos félelmeik megmaradnak

Telepolis

 

Mesterséges intelligenciáról szóló törvény: az EU fékezi a mesterséges intelligenciát - túl kevéssé, túl későn?

Telepolis

 

Az uniós AI-jogszabály: az első lépés, de még mindig nem elégséges

A cikk forrása: https://www.telepolis.de/features/Wir-haben-KI-Systeme-in-die-Welt-gesetzt-ohne-dass-die-Risiken-gut-verstanden-sind-9778741.html?seite=all 2024. június 27.

Fordította: Naetar-Bakcsi Ildikó

Submit to FacebookSubmit to Google PlusSubmit to Twitter

Vasilis Aswestopoulos 2024-06-29  telepolis