A mindennapi életünket irányító algoritmusok túlnyomó többségét férfiakkal tesztelték. Milyen következményekkel jár ez a felhasználókra nézve? Ezzel foglalkozó szakértőt kérdeztünk.
A világot gyakran férfiak alakítják férfiaknak számára, egyre inkább hátrányos helyzetbe hozva ezzel az ellenkező nemű társaikat. Ez volt a helyzet a 19. században az ipari forradalommal, amely a nők nélkül zajlott, és sokáig távol tartotta őket ettől a területtől. A mesterséges intelligencia fejlődésével ez a probléma újra előtérbe került: a mindennapi életünk számos aspektusát irányító algoritmusok elfogultak, ahogyan azt Aude Bernheim és Flora Vincent kutatók is feltárják erről szóló könyvükben. Az arcfelismeréstől kezdve az autók légzsákrendszeréig mindent férfi modellek szerint számoltak ki, ami közvetlen hatással van a nők mindennapi életére. Az Elle újságírója Aude Bernheimmel, az Institut Pasteur doktorandusz hallgatójával beszélgetett.
Aude Bernheim: Igen! Másképp kezelik a „férfi” és a „női” információkat. A legszembetűnőbb példa erre is a fordítószoftverek, például a Google Translate működése: amikor az angol nyelvről a „nővér” szót valamilyen gendersemleges nyelvre fordítjuk, a rendszer automatikusan „ápolónő”-nek fordítja a szót, míg az „orvos” általában „doktor marad”. Az algoritmusok ilyen módon reprodukálják a társadalmunkban meglévő megkülönböztetéseket.
A.B.: Egy algoritmus kidolgozásának több szakasza van, és mindegyikhez előítéletek kötődhetnek. Amikor algoritmust építünk, azzal kezdjük, hogy felteszünk magunknak egy kérdést és kitűzünk egy célt. Például azt akarjuk, hogy az algoritmus képes legyen felismerni egy bizonyos számú átirat közül a legérdekesebbeket, hogy kiválassza a legjobb jelölteket az egyetemre. Ezért meg kell határoznunk, hogy a „legjobb” kifejezéssel milyen fajta diákot keresünk: az összes jegy átlagát nézzük, vagy a legjobb javulási lehetőséget? Egy meglehetősen általános jellegű vágy matematikai lefordításának ez a módja torzítást eredményezhet, mivel a kiválasztási módtól függően nem pontosan ugyanolyan típusú profilokat fogunk kiválasztani.
Ezután a második lépés az algoritmus betanítása. Adunk neki egy szöveghalmazt, hogy megtanítsuk felismerni, mire van szükségünk. Sok esetben ez az adatbázis nagyon elfogult lesz. A Google Translate szükségszerűen a „nővért” „ápolónőnek”, az „orvost” „doktornak” fogja fordítani, mert a neki tanulásra adott szövegekben az esetek túlnyomó többségében az „orvos” férfi nemű.
Végül az utolsó probléma: sok kódot újra felhasználnak egyik algoritmusból a másikba, még akkor is, ha azok elfogultak. Amint kijavítjuk ezeket az elfogultságokat, dominóhatást fogunk tapasztalni, és az azonos kódokat használó algoritmusok kevésbé lesznek elfogultak.
A.B.: Emberi és technikai megoldások keverékére van szükség. Az adatbázisok egyenlővé tétele technikai jellegű. Az emberi megoldás alatt azt értem, hogy az embereket is ki kell képezni az algoritmikus torzításainak felismerésére: ki kell képezni az algoritmusokat kódoló fejlesztőket, de a felhasználókat is. Ha egy munkaerő-felvételért felelős személy nézi át az önéletrajzokat, ő biztosan kapott már képzést a nemek közötti egyenlőtlenségekről és a felvételi torzításokról. Ha viszont egy algoritmust használ, és teljesen megbízik benne, akkor nem lesz elég éber. Míg ha jól kiképzik az adatok elemzésére, akkor képes lesz korrigálni ezeket az algoritmikus torzításokat.
A.B.: Az intuíció azt mondaná, hogy igen. Hogy miért? Amikor egy új terméket tesztelünk, akkor azt a körülöttünk lévő embereken teszteljük. Ha én készítek egy arcfelismerő alkalmazást, először magamon tesztelem, és ha nem működik, akkor megértem, hogy baj van. Most képzeljük el, hogy egy csapatban csak 20 és 50 év közötti fehér férfiak vannak. Akkor óhatatlanul fennáll a veszély, hogy az algoritmus kifejezetten erre a populációra vonatkozóan működik majd. Az ezeket az elfogultságokat bejelentők közül sokan olyan személyek, akik nem feleltek meg ezeknek az algoritmus-kritériumoknak, és technológiai zsákutcában találták magukat. A mesterséges intelligenciával kapcsolatban is vannak olyan munkák, amelyek azt mutatják, hogy ha a csapatok vegyesek, hajlamosak leszünk jobban figyelembe venni a nemi dimenziót.
A.B.: A tudományos területeken akad probléma a sokszínűséggel. Nagyon nemi alapú társadalom vagyunk, ami azt az elképzelést támogatja, hogy egyes munkakörök női, mások pedig férfi munkakörök. Ez különösen igaz az informatikára, ahol a fikciókban sok kulturális sztereotípia kapcsolódik a stréber figurájához, ami még inkább felerősíti ezeket az egyenlőtlenségeket. De facto az informatikát választó nők igen nagy kisebbségben vannak. Ez kulturális problémát okoz az iskolákban és a vállalkozásokban, és sok nőt kiszorít ezekről a területekről. Szerencsére vannak intézmények, amelyek elmozdítják a határokat, és évről évre több nőt vesznek fel. Most már csak azt kell megnéznünk, hogy a vállalati kultúra is fejlődik-e, és segít-e megtartani azokat a nőket, akik végre az informatika területére merészkednek!
Forrás: Elle
Az általad megtekinteni kívánt tartalom olyan elemeket tartalmaz, amelyek az Mttv. által rögzített besorolás szerinti V. vagy VI. kategóriába tartoznak, és a kiskorúakra káros hatással lehetnek. Ha szeretnéd, hogy az ilyen tartalmakhoz kiskorú ne férhessen hozzá, használj szűrőprogramot!