Mesterséges intelligencia

Viták az Anthropic és az amerikai Hadügyminisztérium között

Az elmúlt napokban jelentős feszültség alakult ki az amerikai Hadügyminisztérium és az Anthropic, a mesterséges intelligencia fejlesztő cég között. Pete Hegseth hadügyminiszteri államtitkár nyilvánosan bejelentette, hogy a minisztérium „ellátási láncbeli kockázatként” kívánja besorolni az Anthropicot. Ez az intézkedés egy hosszú hónapok óta tartó tárgyalássorozat lezárása után született, amelyben az Anthropic két, az AI használatára vonatkozó kivételt kért: a tömeges hazai megfigyelés és a teljesen autonóm fegyverek alkalmazásának kizárását.

A konfliktus háttere

Az Anthropic képviselői hangsúlyozzák, hogy a tárgyalások során mindvégig jóhiszeműen törekedtek a megállapodásra, és támogatják az AI törvényes, nemzetbiztonsági célú alkalmazását. Kivételt csupán két területen tettek: nem engedélyezik, hogy az általuk fejlesztett Claude nevű AI modellt teljesen autonóm fegyverekben használják, továbbá elutasítják a tömeges, hazai megfigyelést, amely szerintük alapvető jogokat sért. Az álláspontjuk szerint a jelenleg elérhető AI technológiák nem elég megbízhatóak ahhoz, hogy élet-halál döntéseket hozzanak harctéren, és az ilyen felhasználás veszélyeztetné a katonákat és civileket egyaránt.

Miért súlyos a besorolás?

A Hadügyminisztérium ellátási láncbeli kockázatként való megjelölése példa nélküli lépés lenne, hiszen ezt a besorolást jellemzően az Egyesült Államok ellenségeivel szemben alkalmazzák, és még soha nem használták nyilvánosan amerikai vállalat ellen. Az Anthropic mély csalódottságát fejezte ki emiatt, hiszen 2024 júniusa óta dolgoznak az amerikai kormány titkos hálózatain, támogatva az amerikai katonai műveleteket, és ezt a jövőben is szeretnék folytatni.

Jogilag és üzletileg is kérdéses lépés

A cég szerint a besorolás nemcsak jogilag vitatható, de veszélyes precedenst teremtene az amerikai vállalatok kormányzati együttműködésében. Pete Hegseth kijelentése, miszerint az elutasítás miatt senki sem üzletelhet az Anthropicc-al, nem áll meg törvényileg: az ilyen besorolás csak a Hadügyminisztérium szerződéseire vonatkozhat, nem érinti a cég kereskedelmi vagy magán ügyfeleit. Ez azt jelenti, hogy az egyéni és kereskedelmi felhasználók továbbra is zavartalanul használhatják a Claude modellt, míg a minisztériumi szerződésekben érintett partnerek csak az adott hadügyi munkára vonatkozóan érezhetik a korlátozást.

Az Anthropic álláspontja és további lépések

Az Anthropic világossá tette, hogy nem hajlandó engedni a tömeges megfigyelés vagy a teljesen autonóm fegyverek ügyében, és készek jogi úton is megkérdőjelezni a besorolást. A cég ügyfélszolgálata készen áll arra, hogy minden érintett felhasználó kérdésére válaszoljon és segítséget nyújtson. Közleményükben köszönetet mondtak a támogatóknak – a szakmai közösségnek, döntéshozóknak és a nyilvánosságnak egyaránt –, akik kiálltak álláspontjuk mellett.

Az Anthropicot érintő fejleményekről bővebben az eredeti közleményben olvashatnak az érdeklődők. A jelenlegi helyzet jól mutatja, milyen komplex kihívásokkal kell szembenézniük a mesterséges intelligencia fejlesztőinek és a kormányzati szerveknek, amikor az új technológiák biztonsági, etikai és jogi kérdései egyaránt előtérbe kerülnek.