• Mesterséges intelligencia

    Ipari méretű AI-támadások: így védik Claude modellt a visszaélésektől

    Az utóbbi időszakban három jelentős mesterségesintelligencia-laboratórium, a DeepSeek, a Moonshot és a MiniMax, ipari méretű, illegális akciókat hajtott végre egy amerikai AI-modell, Claude képességeinek kisajtolására. Ezek a laborok több mint 16 millió interakciót generáltak a Claude-dal közel 24 ezer hamisított fiókon keresztül, megsértve a szolgáltatási feltételeket és a regionális hozzáférési szabályokat. Mi az a distilláció és miért veszélyes? A támadások középpontjában egy „distilláció” nevű technika áll, amely tulajdonképpen egy erősebb modell kimeneteiből tanít egy gyengébb képességű modellt. Ez a módszer a mesterséges intelligencia fejlesztők körében egyáltalán nem ismeretlen, sőt, gyakran alkalmazzák, hogy kisebb, olcsóbb verziókat készítsenek ügyfeleik számára. Ám a distilláció sötét oldala, hogy versenytársak illegálisan szerezhetnek hozzáférést és szívhatják…