Az AI érzések nélkül is diszkriminálja az embereket

Nem azért kell aggódni, hogy egy AI érző lénnyé válhat, hanem azért, mert egy sor új szempont alapján képes embereket diszkriminálni – vonta le a következtetést a Business Insider, miután több szakértővel is átbeszélte, hogy mekkora kockázatot jelent a Google-nél állítólag öntudatra ébredt mesterséges intelligencia.

Mint ismert, a keresőóriás egyik mérnöke, Blake Lemoine hatalmas vihart kavart, amikor a közelmúltban publikálta a LaMDA névre hallgató, kutatás-fejlesztés alatt álló AI-val lezajlott párbeszédeket. Az azóta is elérhető (egyébként tényleg hátborzongató) dialógus több beszélgetés összeollózása, de így is elég ahhoz, hogy komolyan foglalkozni kezdjünk egy érző AI megjelenésének lehetőségével.

A Business Insider hét egymástól független szakértővel (köztük egy olyan Google-alkalmazottal, aki közvetlenül dolgozott a chatbottal) készített interjút az ügyben, és mind azt állították, hogy Lemoine téved, amikor azt állítja, hogy a LaMDA egy tudatos AI. És eddig tartott a „megnyugtató” rész.

A tudósok arra hívták fel a lap figyelmét, hogy egy AI-nak nem kell okosnak lennie ahhoz, hogy komoly veszélyt jelentsen az emberekre. Ezt egy olyan, elég jól dokumentált kutatásra hivatkozva állították, ami rávilágított, hogy a mesterséges intelligencia hajlamos felerősíteni a történelemben látott, határozottan emberi diszkriminációs mintákat, például a faji vagy a nemi elfogultságot. „A jelenlegi algoritmikus előrejelzések kirekesztenek, sztereotipizálnak és igazságtalanul céloznak meg egyéneket vagy közösségeket, csupán adatok alapján” – mutatott rá Dr. Nakeema Stefflbauer AI-etikai szakértő.

Egy másik szakember, Sandra Wachter ennél is tovább ment: vonatkozó tanulmányában azt írja, hogy az AI nemcsak a meglévő mintázatok alapján képes diszkriminálni, hanem annak egészen új formáit ugyanúgy alkalmazza. Az Oxfordi Egyetem professzora hangsúlyozta: ennek jó eséllyel már ma is sokan áldozatul esnek, amikor például egy adott webböngészőből jelentkeznek állásinterjúra, és a rendszer mögött dolgozó AI már csupán e szempont alapján megszűri őket.

„Tudjuk, hogy az AI magáévá teszi a múltbeli igazságtalanságok gyakorlatát, például munkaerő-felvétel, hitelelbírálás, igazságszolgáltatás során. De fontos döntések meghozatala érdekében létrehoz olyan új emberi csoportokat is, amelyeket ma még nem védenek törvények. Ezek a problémák sürgős válaszokat igényelnek” – nyomatékosította Wachter. Nem tudunk nem egyet érteni.

Gábor János, Okosipar.hu

- Hirdetés -

- Hirdetés -