Már eddig is sokan vélték úgy, hogy a fiatal generáció figyelmét nem lehet eléggé felhívni a közösségi platformokon történő helyes imidzsépítésre és intimitásuk megóvásának fontosságára. Ez idáig is történtek már visszaélések, kaptunk vírusokat e-mailben, vagy halászták le adatainkat, esetleg pénzünket a bankszámlánkról, most azonban sokan úgy érezhetik, hogy még ezeknél is nagyobb veszély fenyegethet a mesterséges intelligencia által. Az AI lehetséges kockázatait Lesku Gergellyel, az EURO ONE Számítástechnikai Zrt. InfoSec üzletfejlesztési vezetőjével latolgattuk.
Mi az alapvető változás, amitől a helyzet most rosszabb, mint eddig volt?
A cybertámadások eddig 80-90%-ban úgy kezdődtek, hogy az ember kapott egy e-mailt, ami gyanús volt, mert a nyelvezete esetleg árulkodó lehetett. Ezt ma már túlhaladtuk. Az igazi veszélyt az jelenti, hogy a Chat GPT nyelvileg olyan tökéletes konstrukciók megalkotására képes, amiről egy átlagember már nem képes megmondani, hogy nem egy másik hús-vér emberrel kommunikál, hanem egy bottal. Ehhez igazodva, a képi megoldások is a megtévesztésre bőven alkalmas szintre fejlődtek napjainkra. A következő tehát az lesz, hogy már nem is e-mailt, hanem telefonhívásokat fogunk kapni, amelyek mögött mesterséges intelligencia áll.
De ha a rosszindulatú felhasználók maradnak is az e-mailnél, miközben eddig egy naprakész informatikai tudással rendelkező, komolyabb apparátus fáradozásai kellettek ahhoz, hogy megtévesztő üzeneteket gyártsanak, most ezt az AI azonnal megteszi pillanatok alatt. Vagyis apparátus helyett egy egyszerű instrukció is elég egy támadás létrehozásához. Ha pedig marad az eddig is erre „szakosodott” gárda, hatványozott mértékben tudják az ártó programokat generálni. A gyakorlatban tesztelik, melyik változat a legalkalmasabb a megtévesztésre, és a szerint fejlesztik azokat tovább, villámgyorsasággal százasával, s a félrevezetés sikere így néhány százalékról drasztikusan nőhet meg. A fő aggodalmat most ez jelenti, és ez realitás, hiszen az AI-t már használjuk. Aki technikailag felkészült, és van hozzá affinitása, az főként: nem véletlenül alkalmazzák már a fiatalok az egyetemen, vagy akár a program- vagy kódfejlesztők, hiszen felgyorsította munkájukat. Ha nem is vele végeztetik teljes mértékben a feladatukat, de például ellenőriztetik, amit készítettek.
Hogyan lehet ennek kockázatára felhívni az emberek figyelmét?
Konferenciákon gyakran szemléltetjük a helyzetet úgy, hogy megkérdezzük a Chat GPT-t, hogyan támadna meg egy adott oldalt vagy programot. Amint megadja a választ, meg is kérjük rá, hogy írja meg a kódot, készítse el magát a rosszindulatú programot. A Chat GPT készséggel megírja az e-mailt is, amelyen keresztül hozzáférést kap, mondjuk, az adott adatbázishoz. Így érzékeltetni tudjuk, hogy mindehhez most sokkal kevesebb informatikai tudás elegendő, ha pedig rendelkezésre áll ugyanaz a tudás, akkor sokszor hatékonyabbak tudnak vele lenni, mivel így gyorsabban és jóval több vírusvariáció generálható.
Kicsiben az ember érti, hogy levehetik a számlájáról a pénzét, vagy az adatait felhasználva a nevében eljárhatnak, de nemzetbiztonsági tekintetben hogyan lehet ezzel visszaélni?
Ez alapvetően üzlet. Sajnos vannak olyan országok, amelyek így tesznek bevételre szert. Más országok lakosainak pénzére vadászva, és itt dollármilliárdokról beszélünk.
Másrészt ott az úgynevezett kritikus infrastruktúra elleni támadás veszélye, vagyis a vízellátás, az áramellátás veszélyeztetése, s mindez úgy, hogy az átlagember nem is tudja, hogy most éppen egy sikeres támadás eredményeképpen van kimaradás valamilyen szolgáltatásban. Sajnos most sokkal nagyobb tér nyílik a rosszindulatú felhasználásra, mint korábban.
Létezik az a fajta rizikó is, hogy virtuális emberek beépülnek online közösségekbe, és tökéletes párbeszédek során hatásosan tudják a közvéleményt is megtéveszteni, s ezzel például részvényárfolyamot, termékeladást vagy politikai üzeneteket befolyásolni. Ráadásul ezáltal személyes adatokat, titkokat gyűjthetnek anélkül, hogy a többiek észlelnék, mi zajlik körülöttük.
Egyszóval, az emberiség egyelőre nincs felkészülve erre a gyorsaságra, amilyenre a változás sebessége nőtt.
Olyan gyorsan fejlődik a szegmens, hogy képtelenség vele lépést tartani, ezért most egyetemi kutatók, kiberbiztonsággal foglalkozó szakemberek és tudományos munkatársak közös nyilatkozatot írtak alá, melyben be kívánják tiltani vagy legalábbis egy időre felfüggeszteni a Chat GPT használatát, amíg időt nyer az emberiség, hogy reagálni tudjon. Egy törvénytervezet megalkotása eleve fél-egy év, az alkalmazása újabb 1-2 év. Eközben olyan mennyiségű visszaélés lehetséges, ami visszafordíthatatlan károkat okozhat.
Ma az átlagember a mindennapjai során még nem is érzékeli ezt a veszélyt, ami a szakma tudományos érdeklődésének homlokterében áll. Mikorra gyűrűzhet ez be a hétköznapjainkban érezhetően, és milyen változásokat eredményezhet az életünkben?
Egyelőre semmilyen drasztikus változást vagy krízist nem érzékelünk a mindennapjainkban, és persze mindez csak spekuláció, de a rosszindulatú felhasználás ilyen ütemű fejlődése mellett akár hónapok vagy egy-két év alatt tömegesen is megtapasztalhatjuk már a veszélyét. Ma összeesküvés-elméletnek tűnhet, de ha igazunk van, amikor pesszimistán azt gondoljuk, hogy nem tudunk kellő gyorsasággal és hatékonysággal fellépni, akkor ez feltehetően egyfajta bezárkózást eredményez majd. Mint amikor nem szívesen nyitunk ajtót egy idegennek, úgy zárkózunk majd egyre jobban saját világunkba, és fordulhatunk el a virtuális terektől, a jövő nyomozói pedig informatikai szakemberek lesznek. Ez egyébként már el is kezdődött, a rendőrségeken egyre nagyobb arányban dolgoznak ilyen szakemberek külföldön és hazánkban is, sokszor látványos eredményeket elérve.
Megjelent az új Dívány-könyv!
A Dívány magazin új kötetével egy igazi 20. századi kalandozásra hívunk. Tarts velünk és ismerd meg a múlt századi Magyarországot 42 emberi történeten keresztül!
Tekintsd meg az ajánlatunkat, kattints ide!
hirdetés