Fegyverré változhat a mesterséges intelligencia a Google kezében?

A techóriás anyavállalata nemrég módosított a mesterséges intelligencia felhasználására vonatkozó alapelvein, s az új szövegnek van egy részlete, mely sokakban riadalmat keltett.
A Google anyavállalata, az Alphabet a változtatás értelmében visszavonta azon korábbi ígéretét, miszerint a mesterséges intelligenciát soha nem használja majd különböző támadóeszközök fejlesztésére vagy megfigyelési eszközként – írja a BBC. Az MI felhasználására vonatkozó alapelvek váratlan átírása zavarodottságot és nyugtalanságot ébresztett mindazokban, akik már a múltban is figyelmeztettek rá, hogy az úttörő technológia súlyos veszélyeket rejt magában, ha kártékony módon használják fel.
A Human Rights Watch máris elítélte a döntést. A nemzetközi jogvédő szervezet szerint a mesterséges intelligencia bonyolultabbá teheti a számonkérést a halálos következményekkel járó fegyveres cselekmények megítélésekor.
„Ha a globális ipar egyik vezető szereplője átlépi az általa meghúzott vörös vonalat, az komoly aggályokat vet fel, mindez ráadásul egy olyan korszakban történik, amikor a mesterséges intelligencia felelősségteljes kezelése fontosabb, mint valaha” – fogalmazott Anna Bacciarelli, a Human Rights Watch vezető MI-kutatója.
A Google a témával kapcsolatban publikált egy blogposztot, melyben kiállt az alapelvek módosítása mellett. A technóriás szerint a vállalatoknak és a demokratikus kormányoknak szorosan együtt kell működniük annak érdekében, hogy létrejöhessen a „nemzetbiztonsági érdekeket támogató” mesterséges intelligencia.
„Abban hiszünk, hogy a demokráciáknak kellene irányítania az MI fejlesztését, az olyan értékekre alapozva, mint a szabadság, az egyenlőség és az emberi jogok tisztelete” – áll a bejegyzésben. A szerzők úgy látják, „a vállalatoknak, kormányoknak és szervezeteknek ezen értékek mentén kellene együttműködniük, hogy megalkossanak egy olyan MI-t, amely megvédi az embereket, elősegíti a globális növekedést és támogatja a nemzetbiztonságot”.
James Manyika, a Google alelnöke és Sir Demis Hassabis, a cég Google DeepMind nevű MI-laboratóriumának vezetője hozzátette: a cég mesterséges intelligenciával kapcsolatos alapelveit még 2018-ban fektették le, ám a technológia fejlődése időszerűvé tette a felülvizsgálatukat.
Még a legtapasztaltabb MI-szakértők véleménye is megoszlik abban a kérdésben, hogy vajon mi történne, ha a technológia kulcsszerephez jutna a modern hadviselésben és megfigyelési eljárásokban. Egyesek attól tartanak, hogy a mesterséges intelligenciával megtámogatott fegyverek önhatalmúlag lépnének működésbe, és oltanának ki életeket akkor is, ha az emberi szándék mást diktálna. Ezért is kampányolnak egyre többen amellett, hogy az MI felhasználása a jövőben szigorúan ellenőrzött keretek között, s ha szükséges, erős korlátozásokkal történjen – írja a BBC.