• Mesterséges intelligencia

    Anthropic és az amerikai hadügy: etikai határok az AI alkalmazásában

    Az Anthropic, az egyik vezető mesterséges intelligencia fejlesztő cég, nemrégiben világossá tette álláspontját az amerikai hadügyi tárcával folytatott együttműködés kapcsán. Dario Amodei, a vállalat egyik alapítója, nyíltan beszélt arról, hogyan támogatják az Egyesült Államokat és más demokratikus országokat az AI segítségével a globális autoriter rezsimekkel szembeni küzdelemben, ugyanakkor hangsúlyozta a technológia alkalmazásának etikai határait is. AI a nemzetbiztonság szolgálatában Az Anthropic aktívan együttműködik az Egyesült Államok Védelmi Minisztériumával és hírszerző szerveivel, és az elsők között telepítette mesterséges intelligencia modelljeit az állam titkosított hálózataira, valamint a nemzeti laboratóriumokba. A cég Claude nevű AI rendszere számos kritikus feladatot lát el: hírszerzési elemzések, szimulációk, hadműveleti tervezés és kiberhadviselés terén is alkalmazzák. Érdekesség, hogy…

  • Mesterséges intelligencia

    Anthropic és az amerikai Hadügyminisztérium között feszült helyzet

    Az Anthropic nevű mesterséges intelligencia-fejlesztő cég nemrégiben hivatalos értesítést kapott az amerikai Hadügyminisztériumtól, amely szerint az vállalat nemzetbiztonsági kockázatot jelent az Egyesült Államok ellátási láncára nézve. Ez a lépés váratlanul érte a céget, amely azóta is bírálja a minősítést, és jogi úton kívánja megkérdőjelezni azt. Dario Amodei, az Anthropic vezetője részletesen beszélt a kialakult helyzetről, hangsúlyozva a félreértések és a jogi bizonytalanságok mögött húzódó részleteket. Mi áll a háttérben? Az Anthropic szerint a Hadügyminisztérium által használt jogi érvelés nem áll teljesen meg a lábán, és az érintett jogszabály, a 10 USC 3252-es paragrafus, kifejezetten szűk hatáskörrel rendelkezik. Ez a szabályozás elsősorban a kormányzat védelmét szolgálja, nem pedig a beszállítók büntetését.…