1 millió tokenes kontextus az Opus 4.6 és Sonnet 4.6 modellekben
Az AI-technológia újabb mérföldkőhöz érkezett: a Claude platform legfrissebb verziói, az Opus 4.6 és a Sonnet 4.6 mostantól elérhetővé teszik az 1 millió token hosszúságú kontextusablakot, ráadásul az eddiginél sokkal kedvezőbb árazással és egyszerűbb használattal. Ez a fejlesztés jelentős változást hoz a hosszú szövegek, akár több ezer oldalnyi dokumentum vagy komplex kódok kezelésében, hiszen immár nem kell kompromisszumokat kötni a kontextus méretével vagy a költségekkel.
Új árképzés, egyszerűbb hozzáférés
Korábban a hosszabb kontextus használata extra díjakat jelentett, most viszont az Opus 4.6 és Sonnet 4.6 esetében egységes ár vonatkozik az egész, 1 millió tokenes tartományra. Az Opus 4.6-ot 5 vagy 25 dollárért lehet használni millió tokenenként, míg a Sonnet 4.6 olcsóbb, 3 vagy 15 dolláros árakon fut. Fontos, hogy a tokenek számától függetlenül az ár per token nem változik, vagyis egy 900 ezer tokenes kérés ugyanannyiba kerül, mint egy 9 ezres. Ez a modell sokkal kiszámíthatóbb és költséghatékonyabb megoldást kínál a felhasználók számára.
Teljes kapacitás minden helyzetben
A frissítés azt is jelenti, hogy a maximális átbocsátási sebesség minden kontextushossz esetében érvényes, így a felhasználók nem veszítenek teljesítményt akkor sem, ha a teljes 1 millió tokenes ablakot kihasználják. Emellett megnövelték a médiafájlok támogatását is: mostantól egy kérésben akár 600 képet vagy PDF-oldalt is kezelhet a rendszer, szemben a korábbi 100-as limitvel. Ezek a fejlesztések már elérhetők a Claude platformon, a Microsoft Azure Foundry-ban, valamint a Google Cloud Vertex AI környezetében is.
Egyszerű integráció, kevesebb fejlesztési munka
A 1 millió tokenes kontextus mostantól nem igényel semmilyen speciális “beta” fejlesztői beállítást vagy extra kódmódosítást. A nagyobb, 200 ezer token feletti kérések automatikusan működnek, így a programozóknak nem kell külön fejleszteniük vagy figyelniük arra, hogy jelezzék a hosszú kontextus használatát. Ez különösen előnyös a csapatok és vállalati felhasználók számára, ahol a gyors és stabil működés az elsődleges.
Hosszú kontextus, megbízható teljesítmény
Az igazán nagy kérdés persze az, hogy az 1 millió tokenes kontextus mennyire képes valóban hatékonyan működni. Az Opus 4.6 erre a MRCR v2 teszten 78,3%-os eredményt ért el, ami a legjobb az azonos kategóriájú modellek között. Ez azt jelenti, hogy a rendszer képes komplex, összetett információk megértésére és feldolgozására, legyen szó egy teljes kódállományról, több ezer szerződésoldalról vagy akár egy hosszú, folyamatosan futó automatizált agent tevékenységének teljes nyomvonaláról.
Ez a képesség egyértelműen megkönnyíti a fejlesztők és ügyfelek munkáját, hiszen nem kell többé ide-oda vágni, tömöríteni vagy többször feldolgozni a szövegeket. A hosszú párbeszédek, a részletes elemzések és a komplex adathalmazok egyetlen, megszakítás nélküli kontextusként kezelhetők, ami új szintre emeli az AI-alapú munkafolyamatokat.
Ha érdekelnek a részletek, érdemes átnézni a Claude hivatalos bejelentését, ahol a fejlesztők pontosan bemutatják, hogyan működik az új rendszer, és milyen lehetőségeket nyit meg a gyakorlatban.