Gépek döntik el a jövőben, hogy börtönben végzed vagy álmaid munkahelyén?

A mesterséges intelligencia kétségtelenül hasznos találmánya az emberiségnek. Jogosak azonban az aggodalmak is vele kapcsolatban: no persze nem arra gondolunk, hogy a gépek a fejünkre nőnek, elég az is, ha túlzottan rábízzuk magunkat az eredményeikre.

Nem lettünk volna szívesen a Harrisburg Egyetem vezetése helyében idén nyáron: oly mértékben megkérdőjelezhető programot indítottak el, amely kivívta nem kevesebb mint ezer kutató azonnali és hivatalos ellenkezését. A mesterséges intelligencia segítségével működtetett bűnözőfelismerő program már a vevőket várta, amikor a tudósok visszajelzése miatt vissza kellett hívni. A reklámja persze nagyon jól hangzott: a szoftver 80 százalékos pontossággal és faji elfogultság nélkül – ez később még fontos lesz – képes pusztán egy arckép alapján megjósolni, hogy valaki veszélyt jelent-e a társadalomra. Így a bűnüldöző szervek a megelőzésben sokkal nagyobb hatékonysággal vehetnek részt, világunk boldogabb lesz, és persze biztonságosabb.

Nem, az arcod nem árul el rólad mindent

Műszaki és tudományos területek széles skáláján dolgozó szakértők, köztük statisztikával, mesterséges intelligenciával, joggal, történelemmel vagy épp szociológiával foglalkozó szakemberek nyílt levélben tiltakoztak az említett program ellen, kategorikusan kijelentve, hogy jelenlegi tudásunk szerint ilyen szoftver egyszerűen nem hozható létre. Már csak azért sem, mert képtelenség olyan programot létrehozni, ami ne faji szempontból ítélné meg az esetleges elkövetőket. Az igazságszolgáltatásban valaha rögzített összes adat összesítése után sem mondhatjuk meg valakiről, hogy bűnöző. A nyilvántartás nem erre a célra készült. A letartóztatások és az ítéletek hosszú sora csupán a leképeződése az igazságszolgáltatási rendszer gyakorlatának, ami természetesen nem elfogulatlan – gondoljunk csak vissza a történelem során hozott ítéletekre.

A fehér ember mindenekfelett

Számos tanulmány mutatta ki egyértelműen, hogy azok, akiknek a bőrszíne eltér a társadalmilag elfogadott fehértől, sokkal szigorúbb és kegyetlenebb, mondhatjuk nyugodtan, hogy igazságtalanabb elbírálásban részesültek a jogalkotás és annak gyakorlata során szinte minden alkalommal. Ez súlyos torzulásokat okozott az adatokban, így az a program, ami a rögzített data alapján próbál előre jósolni, garantáltan rasszista lesz. A rendszer csak ismételné a már belé táplált előítéleteket. Ezt azért tudjuk ilyen pontosan, mert korábban is igyekeztek előre jövendölni a bűnözőket arcuk vagy más tulajdonságaik alapján, s ezeket a „tudományos magyarázatokat” pontosan a faji megkülönböztetés alapján történő letartóztatásoknál alkalmazták bizonyító erejű eszközként. 

Róla mit gondolsz az arca alapján?
Róla mit gondolsz az arca alapján?Fotó: metamorworks / Getty Images Hungary

Csak nem adjuk fel

Arcfelismerő és annak karakterei alapján előre jelző programot régóta használnak: sanghaji tudósok 1856 kínai férfi (felük bűnös, felük ártatlan) fényképét táplálták be a gépbe, amit aztán igyekeztek megtanítani a bűnözők arcának felismerésére. Három fontos következtetést vontak le a cseppet sem reprezentatív kutatásból: az elkövetők felső ajka átlagosan 23 százalékkal nagyobb görbülettel rendelkezett, mint az ártatlanoké, ezenkívül a szemek belső sarkai közti távolság 6 százalékkal rövidebb, valamint az orrhegytől a száj sarkáig húzott képzeletbeli vonal 20 százalékkal rövidebb az bűnelkövetők esetében. Eredményeiket sokan kérdőjelezték meg – kérdés, elegen vannak-e a tiltakozók ahhoz, hogy Kínában ne használják az említett módszert, miközben szerte a világon mások meg igen. Az izraeliek Faception néven hasonló programot alkottak, hogy hatékonyabban szűrjék ki a terroristákat, az oroszok ijesztően pontos arcfelismerő szoftvert alkalmaznak, Amerikában pedig súlyosabb büntetést kaphat az, akit az etnikai szempontokból elfogult szoftver az arcvonásai alapján veszélyesnek ítél. Hat éve még a Google és a Facebook is befektetett egy olyan arcfelismerő technológiába, ami a vonások alapján dönti el, ki megbízható, és ki nem. Úgy tűnik, semmit sem tanultunk a történelemből. Koponya és arc alapján korábban is megpróbálták azonosítani a bűnözőket és a jó embereket, erre alapult a frenológia tudománya. 

Eszköz népek leigázására

A frenológiát ma már az áltudományok közé soroljuk, azaz pontosan tudjuk, hogy a koponya jellegzetességeiből nem vonhatók le pontos következtetések a tulajdonos jellemével kapcsolatban, az arcfelismerő szoftverekkel kapcsolatban azonban még nem jutottunk el idáig. Pedig a koponyát ujjakkal tapogató, nevetséges beosztást alkalmazó tudományág tévedéseit egyértelműen bebizonyították. Az 1800-as években még elhittük, hogy a fej különböző kiemelkedései, dudorai alapján – összesen 27-et különítettek el – kideríthető, ki „született” elkövető, és ki nem az. Idővel nemcsak a bűnözőket, de az alkalmazottakat, a leendő házastársakat is a koponyájuk alapján elemezték, válogatták, sőt gyerekek jövőjét jósolták meg. Mai szemmel elképesztő, milyen sok tudós állt az elmélet támogatói közé, s milyen sok időnek kellett eltelnie ahhoz, hogy végre – jócskán az 1900-as években – megcáfolják azt. Nem csoda, hiszen kiváló indokot jelentett a faji alapú megkülönböztetésre, az önbíráskodásra, az egyébként logikátlannak tűnő következtetésekre, és alsóbbrendűnek bélyegzett, ártatlan népek leigázására.

Ma ugyanerre már itt vannak a tévedhetetlennek hitt gépek – hiszen működésüket a legtöbbünk nem érti, így eredményeiket érdemben cáfolni is nehéz.

Mustra

Kérjük, támogasd munkánkat te is azzal, hogy engedélyezed a hirdetések megjelenítését az oldalon. Lapunk bevételi forrását ezek a hirdetések jelentik, így elengedhetetlenek ahhoz, hogy cikkeinket ingyenesen olvashassátok.

A hirdetések megjelenését engedélyezheted külön a Dívány.hu oldalra is, vagy a kiegészítő program teljes kikapcsolásával az összes általad látogatott site-ra.