Most enterprises today know to avoid obvious sources of bias when building AI tools, but relatively few are aware of the risk of unconscious algorithmic bias.
To fix bias, you have to be aware that it's arising from the data, and you have to correct for the bias that's in the data.
Ahogy egyre több a “mesterséges intelligencia” címkével ellátott szoftver futkos körülöttünk, egyre inkább előtérbe kerül az a kérdés, hogy mennyire jók és pontosak ezek. Az elmúlt napokban az új technológiájú képfelismerő algoritmusok furcsa és meglepő hibáiról írtam:
Hogy verjük át könnyen és egyszerűen a mesterséges intelligenciát?
Teknős vagy lőfegyver? Meg tudjuk különböztetni?
Régebbről ismerünk kevésbé meglepő hibákat. Ezekben nyilvánvaló volt a rossz működés oka: hibásak (egyoldalúak) voltak az adatok, amikből tanult a gép. Az egyik példáról itt lehet olvasni: Intelligens félelem. Ismertek képfelismerési hibák is: négert gorillának látott a gép, a súlyzó és az alkar együtt volt számára a “súlyzó”. Ezekben mind az a közös, hogy a gép tanítására használt adatok (képek) nem jól voltak kiválogatva, és a gép nem tudott értelmesen látni. (Ezeket a hibákat még egy kicsi gyerek se követné el!)
Ez a mostani cikk “finomabb” hibákról szól, olyanokról, amiket nem ennyire könnyű kiszúrni. Főleg azzal a lehetőséggel foglalkozik, hogy az “okos” gép esetleg hátrányosan különböztetne meg embercsoportokat (színeseket, nőket, …).
Erre akkor van komoly esély, ha a tanításánál használt adatokban alul vannak reprezentálva ezek a csoportok. Ha az éles használatba vétel előtt nem szűrik ki az ilyen hibákat, akkor igen kellemetlen helyzetbe kerülhet a cég, sőt súlyos büntetéseket is kaphat!
Itt egy példa az egyoldalú alapadatokra: A képeken, amiken egy ember tevékenykedik a konyhában, szinte mindig nők vannak, ezért a gép a konyhában lévő embereket hajlamosabb nőnek tekinteni, mint férfinak.
Szeretném megjegyezni, hogy nem kell mesterséges intelligencia az ilyen hibák elkövetéséhez. Az amerikai nagyvállalatok által sok éve használt előszűrő rendszerek szintén “elfogultak”. Az HR-esek tudatalatti elfogultsága jelenik meg bennük. Hasonló a probléma a bűnüldözésben használt “profilozó” szoftverekkel.
Nem azt látom igazi bajnak, hogy elfogult a gép, hiszen az ember is az. Akkor van baj, ha automatikusan elfogadjuk a gép véleményét – és ez sajnos eléggé tipikus. Hiszen éppen azért használjuk a gépet, hogy olcsón és gyorsan elvégezze ezt a munkát. Ha utána alaposan ellenőriznénk, akkor mire való a gép? Akkor magunk is elvégezhetnénk a munkát…
#bias #artificialintelligence #AI #algorithm #unconscious #imagerecognition