Nyílt levélben követelik cégvezetők és kutatók az AI-fejlesztések leállítását

A Future of Life Institute (FLI) nonprofit szervezet kezdeményezéséhez olyan ismert technológiai cégalapítók és kutatók csatlakoztak, mint Steve Wozniak, Jaan Tallinn vagy Elon Musk, de az eddigi közel 1200 aláírás ellenőrzésre szorul, hiszen egyes esetekben kétséges, hogy tényleg a valós személy írta alá a levelet – jegyzi meg a The Verge.

Az ismert AI-kutatók és technológiai vállalatvezetők arra szólítják fel a világ laboratóriumait, hogy állítsák le a nagyméretű AI-rendszerek fejlesztését, mivel szerintük a szoftverek „mélyreható kockázatot jelentenek a társadalomra és az emberiségre”.

Az FLI levele megjegyzi: a mesterséges intelligenciával foglalkozó laboratóriumok jelenleg „kontrollálatlan versenyt” folytatnak azért, hogy olyan gépi tanulási rendszereket fejlesszenek és alkalmazzanak, „amelyeket még a létrehozóik sem értenek, így lehetetlen őket megbízhatóan ellenőrizni”.

- Hirdetés -

A kutatók és cégalapítók arra szólítják fel az AI-laborokat, hogy legalább 6 hónapra szüneteltessék a GPT-4-nél erősebb AI-rendszerek képzését. „Ennek a szünetelésnek nyilvánosnak és ellenőrizhetőnek kell lennie, és minden kulcsfontosságú szereplőre ki kell terjednie. Ha egy ilyen szünet nem vezethető be gyorsan, a kormányoknak kell közbelépniük, moratórium bevezetésével”.

Az aláírók között ott találjuk Yuval Noah Harari írót, Steve Wozniak Apple-társalapítót, Jaan Tallinn Skype-társalapítót, Andrew Yang politikust, illetve számos ismert AI-kutatót és vezérigazgatót, mint Stuart Russell, Yoshua Bengio, Gary Marcus és Emad Mostaque.

Mivel a Google és a Microsoft – gyakran háttérbe szorítva a biztonsággal és etikával kapcsolatos aggályokat – rohamtempóban veti be az új AI-termékeket, félő, hogy a nyílt levél nem lesz hatással a mesterségesintelligencia-kutatás jelenlegi légkörére. Az mindenesetre biztató, hogy komoly ellenállásba ütközött a „most szállítsd és később javítsd” megközelítés, ami utat törhet a politika területére, hogy a jogalkotók is ráébredjenek végre: cselekedni kell.

Ahogy a levélben áll, még maga a ChatGPT-t szabadon engedő OpenAI is egyetért azzal, hogy a jövőbeni mesterségesintelligencia-rendszerek „független felülvizsgálatára” szükség van, hogy azok megfeleljenek a biztonsági előírásoknak. Az aláírók szerint ez az idő most elérkezett.

„Az AI-laboroknak és a független szakértőknek arra kellene használniuk a szünetet, hogy közösen dolgozzanak ki és hajtsanak végre egy sor közös biztonsági protokollt a fejlett AI-tervezés és -fejlesztés számára, amelyeket független külső szakértők szigorúan auditálnak és felügyelnek” – mint írják. „Ezeknek a protokolloknak biztosítaniuk kell, hogy az őket betartó rendszerek minden kétséget kizáróan biztonságosak legyenek.”

Kapcsolódó podcast adásunkat meghallgathatod MOST: 

NEWtechtalk: Milyen kockázatot hordoznak a mesterséges intelligenciák?

Gábor János, Okosipar.hu