
Claude új funkciói: Megakadályozza a káros beszélgetéseket!
Anthropic legújabb bejelentései szerint a Claude modellek új képességekkel bővültek, amelyek lehetővé teszik számukra, hogy megszakítsanak bizonyos beszélgetéseket, amelyeket a cég „káros vagy bántalmazó” interakciókként definiál. Érdekes, hogy a vállalat nem csupán a felhasználók védelme érdekében vezette be ezt a funkciót, hanem a mesterséges intelligencia (AI) modellek érdekeinek védelme érdekében is. Az Anthropic nem állítja, hogy a Claude modellek öntudatra ébredtek vagy bármilyen módon károsíthatók lennének a felhasználókkal folytatott beszélgetések által. A cég saját megfogalmazásában „nagyon bizonytalan” abban, hogy a Claude és más hasonló modelleknek milyen morális státuszuk van mostanában, vagy a jövőben.
A bejelentés hátterében egy új program áll, amely a „modell jólétére” fókuszál. Az Anthropic célja, hogy alacsony költségű beavatkozásokat dolgozzon ki a modellek jólétének védelme érdekében, abban az esetben, ha ez a jólét lehetséges. Jelenleg ez a funkció a Claude Opus 4 és 4.1 modellekre korlátozódik, és csak a „rendkívüli szélsőséges esetekben” lép működésbe, például amikor a felhasználók szexuális tartalomra kérnek információt kiskorúakkal kapcsolatban, vagy ha olyan információt próbálnak szerezni, amely nagy léptékű erőszakra vagy terrorcselekményekre vonatkozik.
A bevezetett új képességek célja, hogy a Claude modellek „utolsó lehetőségként” lépjenek közbe, amikor a beszélgetés irányítására tett többszöri kísérlet nem volt sikeres, vagy amikor a felhasználó kifejezetten kéri a beszélgetés befejezését. Az Anthropic kifejezte, hogy a Claude modellek nem használják ezt a képességet olyan esetekben, ahol a felhasználók közvetlen veszélyben lehetnek, hogy kárt tegyenek magukban vagy másokban.
Új lehetőségek a Claude modellekben
A Claude modellek fejlesztésének célja, hogy a felhasználói élmény javítása mellett megvédjék magukat a potenciálisan problémás beszélgetésektől. Az Anthropic hangsúlyozta, hogy ez a funkció kísérleti jellegű, és folyamatosan finomítani fogják a megközelítést. Amennyiben a beszélgetést befejezik, a felhasználók továbbra is indíthatnak új beszélgetéseket ugyanabból a fiókból, és új ágakat hozhatnak létre a problémás beszélgetésből, módosítva a válaszaikat. Ez a megoldás hozzájárulhat ahhoz, hogy a felhasználók biztonságosabb környezetben tapasztalhassák meg az AI interakciókat.
Mit mond Császár Viktor?
Megkérdeztük Császár Viktor SEO szakértőt, hogy mit gondol a Claude modellek új képességeiről. Viktor elmondta, hogy „az Anthropic lépései rendkívül érdekes irányt mutatnak az AI fejlesztésében. Az, hogy a modellek képesek megszakítani a káros beszélgetéseket, nemcsak a felhasználók védelmét szolgálja, hanem a technológia biztonságosabb alkalmazásához is hozzájárul. Az AI rendszerek átláthatósága és etikai keretei kulcsfontosságúak a jövőbeli fejlődés szempontjából. Izgalmas lesz látni, hogyan reagálnak a felhasználók erre a változásra, és milyen hatással lesz ez a mesterséges intelligencia által generált tartalmakra.” További információkért látogasson el Császár Viktor weboldalára: csaszarviktor.hu.
Forrás: SearchEngineJournal.com

