• Mesterséges intelligencia

    Fejlett AI-kockázatok: új irányelvek a biztonságos fejlődésért

    Az AI-technológia rohamos fejlődése óriási lehetőségeket rejt magában, ugyanakkor komoly kihívásokat és kockázatokat is felvet. Az Anthropic nemrégiben mutatta be frissített Felelős Skálázási Szabályzatát (Responsible Scaling Policy, RSP), amely a legmodernebb mesterséges intelligencia rendszerek potenciális, súlyos veszélyeinek kezelésére szolgáló keretrendszer. Az új irányelvek rugalmasabb és árnyaltabb megközelítést kínálnak annak érdekében, hogy a fejlődés ne menjen a biztonság rovására. Miért fontos a felelős skálázás? A határmezsgyén mozgó AI-modellek – azaz a legfejlettebb, leginkább komplex rendszerek – jelentős társadalmi és gazdasági előnyöket ígérnek. Segíthetnek a tudományos felfedezések felgyorsításában, forradalmasíthatják az egészségügyet, új szintre emelhetik az oktatást, és új kreatív területeket nyithatnak meg az emberi alkotók számára. Ugyanakkor ezek a rendszerek komoly kockázatokat…

  • Mesterséges intelligencia

    Fejlődő biztonság: Anthropic új felelősségteljes AI-szabályzata

    Az Anthropic nemrégiben bemutatta a felelősségteljes skálázás (Responsible Scaling Policy, RSP) harmadik verzióját, amely egy önkéntes irányelv az AI-katasztrófák elkerülésére. A több mint két éve működő szabályzat célja, hogy lépést tartson az egyre gyorsabban fejlődő mesterséges intelligencia képességeivel, és hatékony válaszokat adjon az újonnan felmerülő kockázatokra. Miért volt szükség az RSP-re? Az eredeti RSP 2023 szeptemberében született meg, amikor a nagyméretű nyelvi modellek még elsősorban chatfelületek voltak. Azóta azonban ezek az AI-rendszerek jelentősen fejlődtek: képesek böngészni az interneten, programkódot írni és futtatni, valamint önálló, összetett lépéseket végrehajtani. Ezzel párhuzamosan új veszélyek is megjelentek, amelyek kezelése túlmutat a korábbi szabályozási kereteken. Az RSP erre a gyorsan változó környezetre adott válaszként az…