AI-őrület helyett óvatosság: a szakemberek mellett még Harry herceg is betiltaná a további fejlesztéseket
            A mesterséges intelligencia legújabb kulcsszava a szuperintelligencia – és most úgy tűnik, épp ez az, amitől tartani kezdünk. Világhírű szakemberek és közéleti szereplők – köztük Steve Wozniak és Richard Branson – közös nyilatkozatban szólítanak fel: addig ne fejlesszünk emberfeletti rendszereket, amíg nem bizonyított, hogy biztonságosan és ellenőrizhetően működnek. A gond nem a céllal van, hanem a tempóval – a technológia gyorsabban halad, mint a társadalmi felkészültség.
Miről szól a felhívás?
A „szuperintelligencia” alatt olyan mesterséges rendszereket értenek, amelyek az embernél jobban teljesítenek szinte minden szellemi feladatban. A nyilatkozat aláírói – immár több mint 850-en – ezért ideiglenes tilalmat kérnek az ilyen irányú fejlesztésekre, amíg nincs tudományos egyetértés arról, miként tehetők biztonságossá, és amíg nem élveznek széles társadalmi támogatást. A CNBC beszámolója szerint a közlemény megjelenése óta folyamatosan bővül az aláírók listája.
Ezt olvastad már?
„Csak az ember képes valós érzelmekre” – a Microsoft MI-vezetőjének kijózanító üzenete
Úgy tűnik, tényleg munkahelyek tömegei szűnnek meg a mesterséges intelligencia miatt
A felhívás nem a mesterséges intelligencia egészét célozza, hanem a határfeszegetésre figyelmeztet: miközben az iparágban versenyfutás zajlik – a Meta például „Meta Superintelligence Labs” néven nevezte el a nyelvi modellekért felelős részlegét –, a biztonsági korlátok és a közösségi ellenőrzés viszont messze elmaradnak.
A közlemény nem finomkodik: gazdasági kiszorulás, hatalmi torzulás, a szabadság és méltóság sérülése, nemzetbiztonsági veszélyek – a lista hosszú. A legnagyobb félelem mégis egyetlen szóban sűrűsödik: kontroll. Már nem az a kérdés, hogy az MI képes-e kiváltani az embert bizonyos feladatokban, hanem hogy mi képesek leszünk-e kontrollálni azt?
Kik állnak a kezdeményezés mögött?
A lista élén az MI „alapító atyái” közül többen ott vannak: Yoshua Bengio és Geoffrey Hinton, mellettük Stuart Russell, a Berkeley professzora. A technológia világából Steve Wozniak és a Virgin-csoport alapítója, Richard Branson is aláírta.
A kezdeményezés hivatalos oldalán akadémikusok, vallási vezetők, médiaszereplők, valamint pártpolitikai hovatartozásukat tekintve vegyes összetételű egykori amerikai tisztségviselők is feltűnnek. A névsor színességét jelzi, hogy Steve Bannon és Glenn Beck neve éppúgy ott van, mint Harry hercegé és Meghané, vagy Mary Robinsoné, aki Írország korábbi elnöke volt. A különböző világnézetekből egy közös üzenet rajzolódik ki: ha egy technológia rendszerszintű kockázatot hordoz, nem elég a vállalati önszabályozás.
Optimisták és óvatosak – két világ, egy tét
A technológia világában két tábor feszül egymásnak. Az egyik az MI-ben a jólét és a hatékonyság forradalmát látja, a másik az emberi szerep fokozatos háttérbe szorulásától tart.
Érdekesség, hogy a legnagyobb optimisták sem mentesek az aggodalomtól. Sam Altman, az OpenAI vezetője évekkel ezelőtt „az emberiség fennmaradására leselkedő legnagyobb fenyegetésnek” nevezte az emberfeletti MI-t. Elon Musk pedig nemrég úgy fogalmazott: a megsemmisülés esélyét „nagyjából 20 százalékra” teszi.
A közvélemény sem lelkesedik a fék nélküli versenyért. A Future of Life Institute friss felmérése szerint az amerikai felnőttek mindössze 5 százaléka támogatja a „gyors, szabályozatlan” szuperintelligencia-fejlesztést; a többség addig nem hozna létre „emberfeletti MI-t”, amíg az nem bizonyítottan biztonságos, és erős szabályozást szeretnének hozzá.
Mit kérnek konkrétan az aláírók?
Az üzenet világos: tilalmat a szuperintelligencia irányú fejlesztésekre mindaddig, amíg nincs tudományos konszenzus a biztonságos megvalósításról és a kontrollálhatóságról, valamint amíg nem áll mögötte erős társadalmi felhatalmazás. Ezzel párhuzamosan több alapelvet is javasolnak:
- átláthatóság a kutatásban és független vizsgálhatóság,
 - beépített biztonság, amely technikailag kizárja a félrecsúszást,
 - világos jogi keretek és felelősségi lánc,
 - társadalmi bevonás a döntéshozatalba.
 
A közös üzenet tehát az, hogy a haladást nem megállítani kell, hanem megtanulni együtt élni vele – és ehhez időnként szükség van a fékre is.
Mit jelent ez nekünk – felhasználóknak, vezetőknek, döntéshozóknak?
Miközben a nagyvállalatok egymást licitálják túl, a hétköznapi döntések szintjén is sok múlik rajtunk. A túlzott automatizálás rövid távon kényelmes, hosszabb távon viszont csökkentheti a szakmai igényességet és a felelősségérzetet.
A vállalatok szintjén ez most a felelősség és tudatosság kora.
- Cégvezetőként: érdemes kockázati térképet készíteni az MI-használatról – adatvédelem, ellátásbiztonság, márkakockázat, auditok.
 - Döntéshozóként: a szabályozás még formálódik, de az átláthatóság és az elszámoltathatóság már ma is kikényszeríthető.
 - Felhasználóként: legyünk tudatosak. Ha egy eszköz gyanúsan „okos”, kérdezzük meg, mit tanult és honnan. A kényelem nem mentség a kritikátlan elfogadásra.
 
Miért most?
Mert a fejlesztési ciklusok felgyorsultak, a verseny a tőkéért és a tehetségért pedig felhajtja a kockázatvállalást. A nagy nyelvi modellek ma már összekapcsolják és felerősítik a különböző rendszereket – ami a kreatív iparban előny, de a kritikus infrastruktúrákban komoly veszély. Nem véletlen, hogy a kezdeményezés sokszínű társadalmi támogatást kapott: a különböző világnézetekben közös az igény a kontrollra.
Yoshua Bengio szerint pár éven belül előfordulhat, hogy az MI a legtöbb kognitív feladatban túlszárnyalja az emberek többségét – ami egyszerre ígéret és kockázat. Ahogy a CNBC cikke is írja, Bengio úgy véli: előbb meg kell tanulnunk olyan rendszereket építeni, amelyek „alapvetően képtelenek” kárt okozni, hiba, vagy akár rosszindulat miatt.
Az MI kétségtelenül korszakos lehetőség. A kérdés nem az, hogy elérjük-e a szuperintelligenciát, hanem hogy felnövünk-e hozzá. Ha igen, a technológia a javunkra válik. Ha nem, a technológia dönt majd helyettünk.
A döntés – egyelőre még a miénk.
Forrás: CNBC
Borítókép: rawpixel.com, Freepik
            







