• Mesterséges intelligencia,  Technikai SEO

    Csak néhány mérgezett dokumentum elegendő a nagy nyelvi modellek megtámadásához

    Az utóbbi években a nagy nyelvi modellek (LLM-ek) robbanásszerű fejlődése számos új lehetőséget nyitott meg az MI-alapú alkalmazások előtt. Ugyanakkor a biztonságuk egyre nagyobb kihívást jelent, különösen a „mérgezéses” támadások terén. Egy friss, az Egyesült Királyság AI Security Institute, az Alan Turing Institute és az Anthropic kutatóinak közös tanulmánya arra az aggasztó felfedezésre jutott, hogy akár már 250 rosszindulatúan módosított dokumentum is elegendő lehet ahhoz, hogy egy nagy nyelvi modellt „hátsóajtós” sebezhetőséggel fertőzzenek meg – függetlenül a modell méretétől vagy a betanítás során használt adatmennyiségtől. Mi az a „mérgezéses” támadás és a hátsóajtó? A nagy nyelvi modelleket hatalmas mennyiségű nyilvános szövegből képezik ki, melyek között blogok, személyes weboldalak is megtalálhatók.…