Az Okosipar.hu hírportál egyesült a newtechnology.hu hírportállal! Ez az oldal nem frissül tovább. Tartalmainkért látogass el a www.newtechnology.hu oldalra!
Egy új kutatás szerint az AI nem fenyegeti az emberiség létbiztonságát
A nemzetközi vizsgálatokon nyugvó, frissen megjelent tanulmány megnyugtató eredményeket mutat arról, hogy az aktuális nagy nyelvi modellek (LLM-ek) veszélyeztetik-e az emberiséget. Mivel az LLM-ek az utóbbi években hatalmas fejlődésen mentek keresztül, joggal vetődik fel időről időre a kérdés, hogy ezek a modellek rendelkezhetnek-e olyan emberi képességekkel, mint a gondolkodás vagy a tervezés.
A kutatás azt állítja, hogy ezek a félelmek alaptalanok, mert ami néha gondolkodásnak tűnik, valójában egyszerű kontextuális tanulás (ICL), amelynek során az LLM-ek új információkat sajátítanak el az általuk kapott példák alapján. A kutatócsoport több ezer kísérlet segítségével mutatta ki, hogy a mai LLM-ek képességeit és korlátait a következő tényezők összessége jelenti: utasítások követése (ICL), memória és nyelvi jártasság.
„A félelem alapja az volt, hogy ha a modellek egyre nagyobbak lesznek, akkor olyan új problémákat is meg tudnak majd oldani, amelyeket ma még nem látunk előre, és ezek a nagyobb modellek veszélyes képességeket, például gondolkodást és tervezést szerezhetnek, de a kutatásunk azt mutatja, hogy a félelem, miszerint a modellek váratlanul, innovatívan és potenciálisan veszélyesen fognak viselkedni, nem megalapozott” – mondja Dr. Tayyar Madabushi, a kutatásban résztvevő Bath-i Egyetem számítástechnikai szakértője, egyben a tanulmány társszerzője.
A németországi Darmstadti Műszaki Egyetem professzora és a tanulmány vezetője, Iryna Gurevych hozzátette: tesztelték az LLM-ek képességeit olyan feladatokkal kapcsolatban, amilyenekkel korábban még nem találkoztak. Bár az „emergens” képességekre vonatkozóan nem találtak bizonyítékot, hangsúlyozta: a mai AI-k ettől függetlenül jelentős kockázatokkal járnak, csak éppen nem az emberiség létezésére, például úgy, ahogy a sci-fi mozik történeteiben zajlik.
„A komplex gondolkodási képességek emergenciája – ami speciális fenyegetésekkel járna – nem bizonyítható” – summázta Gurevych, azt is hangsúlyozva, hogy a több ezer kísérlettel alátámasztott eredményeik alapján az LLM-ek tanulási folyamata nagyon is jól kontrollálható. A professzor úgy véli, az AI-nak nem ezzel a fenyegetésével érdemes foglalkozni a jövőbeli kutatások során, hanem azzal a potenciális veszéllyel, amit a hamis hírek generálása és a dezinformáció jelent.
Gábor János, Okosipar.hu