Mesterséges intelligencia

Anthropic és az amerikai hadügy: etikai határok az AI alkalmazásában

Az Anthropic, az egyik vezető mesterséges intelligencia fejlesztő cég, nemrégiben világossá tette álláspontját az amerikai hadügyi tárcával folytatott együttműködés kapcsán. Dario Amodei, a vállalat egyik alapítója, nyíltan beszélt arról, hogyan támogatják az Egyesült Államokat és más demokratikus országokat az AI segítségével a globális autoriter rezsimekkel szembeni küzdelemben, ugyanakkor hangsúlyozta a technológia alkalmazásának etikai határait is.

AI a nemzetbiztonság szolgálatában

Az Anthropic aktívan együttműködik az Egyesült Államok Védelmi Minisztériumával és hírszerző szerveivel, és az elsők között telepítette mesterséges intelligencia modelljeit az állam titkosított hálózataira, valamint a nemzeti laboratóriumokba. A cég Claude nevű AI rendszere számos kritikus feladatot lát el: hírszerzési elemzések, szimulációk, hadműveleti tervezés és kiberhadviselés terén is alkalmazzák.

Érdekesség, hogy az Anthropic nem csak a technológia fejlesztésében, de a nemzetbiztonsági versenyben is aktívan próbálja megőrizni az amerikai előnyt. Ennek érdekében például lemondtak több száz millió dollár bevételről, hogy megakadályozzák AI modelljük használatát olyan cégek által, amelyek a kínai kommunista párthoz köthetők, illetve felléptek a párt által támogatott kibertámadások ellen.

Etikai határok és a demokratikus értékek védelme

Amodei világosan fogalmazott a mesterséges intelligencia használatának korlátairól is. Két olyan terület létezik, ahol az Anthropic nem hajlandó közreműködni: a tömeges hazai megfigyelés és a teljesen autonóm fegyverrendszerek fejlesztése. Bár támogatják a törvényes külföldi hírszerzést és részlegesen autonóm fegyvereket, a tömeges megfigyelés szerinte ellentétes a demokratikus alapelvekkel, hiszen az AI képességei révén könnyen sérülhetnek az alapvető szabadságjogok.

Ugyanígy, a teljesen emberi beavatkozás nélküli fegyverek megbízhatatlansága és a jelenlegi szabályozási hiányosságok miatt sem hajlandóak ilyen rendszereket támogatni. Annak ellenére, hogy az amerikai hadügy ajánlotta a közös kutatás-fejlesztést ezen a területen, az Anthropic ajánlatát egyelőre nem fogadták el.

Konfliktus a minisztériummal és a jövő lehetőségei

Az álláspontok azonban ütköznek: a Védelmi Minisztérium ragaszkodik ahhoz, hogy az AI cégek szerződéseiben minden „törvényes felhasználást” elfogadjanak, beleértve azokat is, amelyeket az Anthropic etikai okokból elutasít. A minisztérium komoly fenyegetésekkel is élt, többek között azzal, hogy a céget „beszállítói kockázatként” minősíthetik, illetve a Védelmi Termelési Törvény alkalmazásával kényszeríthetik a korlátozások eltörlésére.

Az Anthropic azonban kitart álláspontja mellett, és nem hajlandó kompromisszumot kötni ezen etikai védőkorlátok feladásában. Ugyanakkor felajánlották, hogy zökkenőmentes átmenetet biztosítanak, amennyiben a minisztérium más szolgáltatóhoz kívánna fordulni, hogy ne legyen fennakadás a katonai tervezés és műveletek terén.

Az AI fejlődés és alkalmazás dinamikája egyre inkább megköveteli a tiszta szabályokat és etikai normákat, különösen, ha a nemzetbiztonságról van szó. Az Anthropic legfrissebb nyilatkozata egyértelműen jelzi, hogy a technológiai innováció és a demokratikus értékek védelme kéz a kézben kell, hogy járjanak a jövőben is.