Mi, magyarok sem vagyunk mentesek az előítéletektől – igaz, ezzel nem lógunk ki a sorból, hiszen ez minden társadalomban jelen van. Úgy tűnik azonban, hogy az AI sem kivétel: a mesterséges intelligencia is képes torz következtetésekre, bár egészen más okból, mint mi.
A legtöbben szeretnénk azt hinni, hogy előítéletmentesen gondolkodunk. Hogy nem ítélünk meg embereket bőrszín, nem, vallás vagy származás alapján. A valóság azonban bonyolultabb: minden embernek vannak előítéletei – csak nem mindig tud róla. Ezek a tudattalan gondolatok segítik az agyunkat abban, hogy gyorsan reagáljon, de közben torz képet adhatnak a világról.
Nem létezhet előítélettől mentes világ?
A pszichológusok szerint az előítélet nem feltétlenül gonoszság vagy rosszindulat kérdése, sokkal inkább arról van szó, hogy az agy szereti az egyszerűsítést: kategóriákba sorolunk embereket és helyzeteket, mert így könnyebb eligazodni.

Ha valakit hasonlónak látunk magunkhoz, biztonságosabbnak érezzük. Ha valaki más, óvatosabbak leszünk vele. Ez a működés a történelem során valószínűleg hasznos volt, de a mai világban, ahol az emberek, kultúrák és információk keverednek, ugyanez a mechanizmus sokszor kirekesztéshez és igazságtalansághoz vezet.
Sok próbálkozás történt már az előítéletek csökkentésére: tréningek, érzékenyítő programok, oktatási kampányok. Ezek azonban ritkán hoznak tartós változást. Az emberek a tanfolyam után általában tudatosabban próbálnak viselkedni, de néhány hét vagy hónap múlva a régi minták visszatérnek.
![]()
Az előítéletek ugyanis mélyen beépültek a gondolkodásunkba – nem lehet ezeket egyszerűen „kikapcsolni”.
Előítélet és AI
Most, amikor egyre több döntést bíznak a mesterséges intelligenciára (AI), sokan azt hitték: talán a gépek képesek lesznek emberi elfogultság nélkül működni. Hiszen a gépnek nincsenek érzései, félelmei vagy ösztönei. De kiderült, hogy az AI is hajlamos előítéletekre – csak éppen más módon.
A mesterséges intelligencia ugyanis az emberektől tanul. A számítógépes programok hatalmas mennyiségű adatot dolgoznak fel: szövegeket, képeket, döntéseket, korábbi példákat. Ezekben az adatokban azonban ott vannak az emberi torzítások is. Egyszerűbben megfogalmazva: előítéleteink az általunk készített szövegekben, sőt, minden más produktumban is megjelennek, így azt átveszi az AI is.

Ez az úgynevezett adatbeli torzítás: az AI nem szándékosan „előítéletes”, de az általa feldolgozott adatok miatt mégis azzá válhat.
![]()
A tudósok ezért hangsúlyozzák, hogy az AI-rendszerek nem automatikusan objektívek, ebben bízni hiba lenne. Csak annyira lehetnek igazságosak, amennyire azok az adatok is, amelyekből tanulnak.
Ezért egyre több kutatás foglalkozik azzal, hogyan lehet „megtisztítani” az adatokat a rejtett előítéletektől.
Vannak algoritmusok, amelyek képesek felismerni, ha egy adatbázis bizonyos csoportokat túl- vagy alulképvisel, és javítják az arányokat. De a probléma ettől még nem tűnik el: hiszen végső soron emberek döntenek arról is, milyen adatokat adunk a gépnek, és mit tekintünk „normálisnak”.
A technológia tiszta, az alkotó nem
A mesterséges intelligencia előítéletei tehát nem a technológia hibái, hanem a társadalom tükrei. Ha a rendszer elfogult, az azt jelenti, hogy a világ, amelyből tanult, szintén az.
Sok szakértő szerint az AI előítéletessége egy lehetőség is: segíthet abban, hogy felismerjük saját torzításainkat. Ha például egy gépi modell kimutatja, hogy bizonyos csoportokat rendszeresen hátrány ér egy döntéssorozatban, az ráirányíthatja a figyelmet az emberi igazságtalanságokra is. A technológia így taníthat is – persze csak akkor, ha hajlandók vagyunk tanulni belőle.
Ha tetszett ez a cikk, olvasd el, melyek a leggyakoribb előítéleteink a randizás során.
























