• Mesterséges intelligencia

    P-EAGLE: az LLM-ek gyorsabb működése párhuzamos spekulatív dekódolással

    A nagy nyelvi modellek (LLM-ek) egyre nagyobb szerepet kapnak a mesterséges intelligencia világában, a teljesítményük és hatékonyságuk azonban mindig kulcskérdés. Az EAGLE módszer eddig a legmodernebb megoldás volt a spekulatív dekódolás terén, ám annak autoregresszív jellege egy komoly korlátot jelentett a sebesség növelésében. Most azonban megérkezett a P-EAGLE, amely párhuzamos draft generálással törte át ezt a plafont, és akár 1,69-szeres gyorsulást tesz lehetővé a hagyományos EAGLE-hez képest. A technológia már elérhető és integrálható a vLLM keretrendszerbe, így a fejlesztők és kutatók számára könnyen hozzáférhetővé válik. Mi volt az EAGLE korlátja? Az EAGLE nagy előrelépést hozott a spekulatív dekódolásban, hiszen képes volt 2-3-szoros sebességnövekedést elérni a hagyományos autoregresszív dekódoláshoz képest. Ez…

  • Mesterséges intelligencia

    Intelligens AI fejlesztés szakértelemmel az Amazon Nova Forge segítségével

    Az utóbbi években a nagy nyelvi modellek (LLM-ek) jelentős előrelépést tettek az általános feladatok megoldásában, azonban a speciális, iparági vagy vállalati adatokkal kapcsolatos munkákban még mindig komoly kihívásokkal néznek szembe. A szakértői finomhangolás (supervised fine-tuning, SFT) teszi lehetővé, hogy egy alapmodell alkalmazkodjon az adott szervezet egyedi igényeihez, de ennek két eltérő módszere létezik: a paraméterhatékony finomhangolás (PEFT), amely csak a modell egy részét frissíti, és a teljes paraméterfrissítés, azaz full-rank SFT, ami minden paramétert átdolgoz. Míg az előbbi gyorsabb és olcsóbb, addig a teljes finomhangolás több domain-specifikus tudást képes beépíteni – ám ezzel együtt gyakran jelentkezik a „katasztrofális felejtés” problémája, amikor a modell elveszíti általános tudását és képességeit. Az Amazon…

  • Mesterséges intelligencia

    Gyors és biztonságos beágyazott chat AI vállalati alkalmazásokba

    Az üzleti alkalmazások fejlődése egyre inkább megköveteli, hogy a felhasználók minél gördülékenyebben és hatékonyabban érhessék el a szükséges információkat, miközben nem kell váltogatniuk különböző eszközök között. A beszélgető alapú mesterséges intelligencia (conversational AI) ebben komoly segítséget nyújthat, ám a beágyazott chat megoldások biztonságos és gyors implementálása gyakran hónapokig tartó fejlesztési munkát igényel. Az Amazon Quick Suite azonban egy olyan új lehetőséget kínál, amely megkönnyíti a vállalati környezetben való beillesztést, egyszerűsíti a felhasználói hitelesítést, és globális elérést biztosít egyetlen kattintással. Az Amazon Quick Suite Embedded Chat előnyei Az egyik legnagyobb kihívás, amellyel a szervezetek szembesülnek, hogy a munkatársaknak ott kell választ kapniuk kérdéseikre, ahol dolgoznak – legyen az CRM rendszer, ügyfélszolgálati…

  • Mesterséges intelligencia

    AWS és NVIDIA új szintre emeli az AI infrastruktúrát 2026-ban

    Az AI fejlesztése napjaink egyik legdinamikusabb területe, ahol már nem elég a kísérletezés: a vállalatoknak megbízható, nagy teljesítményű és biztonságos rendszerekre van szükségük, amelyek valódi üzleti eredményeket hoznak. Ezt a kihívást ismerte fel az AWS és az NVIDIA, akik a 2026-os NVIDIA GTC konferencián bejelentették stratégiai együttműködésük bővítését. Az új technológiai integrációk az AI megoldások fejlesztését és zavartalan működtetését segítik elő a gyakorlatban, akár a legnagyobb méretű modellek esetében is. Több mint egymillió NVIDIA GPU világszerte az AWS felhőjében 2026-tól az AWS több mint egymillió új NVIDIA GPU-val bővíti globális adatközpontjait, beleértve a legújabb Blackwell és Rubin GPU architektúrákat. Ez az eddigi legnagyobb GPU-kínálat, amelyet egyetlen felhőszolgáltató biztosít az AI…

  • Mesterséges intelligencia

    Hatékony ügyfélszolgálati elemzés az Amazon Nova alapmodellekkel

    Az ügyfélszolgálati központok működésének optimalizálása ma már elképzelhetetlen mélyreható adatelemzés nélkül. A mesterséges intelligencia fejlődésével pedig új dimenziók nyílnak meg a call center elemzések terén, különösen az Amazon legújabb alapmodelljei, az Amazon Nova FMs segítségével. Ezek a modellek nem csupán a beszélgetések feldolgozásában, hanem a komplex kérdések megválaszolásában és a szolgáltatás minőségének javításában is jelentős előrelépést hoznak. Miért fontosak az alapmodellek az ügyfélszolgálatban? Az ügyfélszolgálatok napi szinten hatalmas mennyiségű beszélgetést kezelnek, amelyekből értékes információkat lehet kinyerni a szolgáltatás fejlesztése érdekében. Az Amazon Nova alapmodellek ezen a ponton lépnek színre: képesek az emberi nyelv komplexitását értelmezni, kulcsfontosságú adatokat kihámozni, és olyan elemzéseket készíteni, amelyek korábban csak nagy erőforrás-befektetéssel voltak elérhetők. Az…

  • Technikai SEO

    Hogyan építette a Workhuman az önkiszolgáló riportokat Amazon QuickSight-tal

    A Workhuman, a humántőke-menedzsment területén vezető SaaS szolgáltató, jelentős kihívással nézett szembe: több mint hétmillió felhasználójuk számára egyre nehezebb volt hatékonyan és gyorsan egyedi riportokat készíteni a hagyományos, manuális módszerekkel. A riportkérések tömege túlterhelte az ügyfélszolgálati és elemzőcsapatokat, miközben az ügyfelek önálló adatelemzési lehetőségei korlátozottak voltak. A megoldás kulcsa egy intelligens, beágyazott analitikai platform fejlesztése lett, amelyet az Amazon QuickSight segítségével valósítottak meg. A kihívás: manuális riportok helyett önkiszolgáló analitika Amikor egy SaaS cég globális méretű ügyfélkört szolgál ki, a riportkérések kezelése gyorsan szűk keresztmetszetté válhat. A Workhuman esetében a régi riportkészítő eszközök nem voltak képesek lépést tartani az igényekkel. Az ügyfélszolgálati és analitikai csapatok egyre több, egyedi igényű, egyszeri…

  • Mesterséges intelligencia

    Forradalmi LLM-inferencia az AWS-en az llm-d segítségével

    Az mesterséges intelligencia fejlődése új korszakba lépett, ahol a nagy nyelvi modellek (LLM-ek) nem csupán egyszerű válaszokat adnak, hanem összetett gondolatmeneteket és agentikus folyamatokat futtatnak. Ez azonban jelentős kihívásokat támaszt az inferencia, vagyis a modellválaszok generálásának hatékonysága terén. Az AWS és az llm-d fejlesztőcsapata közösen dolgozik egy olyan megoldáson, amely lehetővé teszi az LLM-ek skálázható, hatékony és költségoptimalizált futtatását. Az új disaggregált inferencia technológia forradalmasíthatja a nagy nyelvi modellek üzemeltetését, különösen azoknál a vállalatoknál, ahol a teljesítmény és a költségek kulcsfontosságúak. Mi az az llm-d és miért fontos? Az llm-d egy nyílt forráskódú, Kubernetes-kompatibilis keretrendszer, amely a vLLM motorra épül, és kifejezetten a nagy nyelvi modellek elosztott futtatására fejlesztették ki.…

  • Mesterséges intelligencia

    Hogyan gyorsította fel a Ricoh az intelligens dokumentumfeldolgozást az AWS-sel

    A Ricoh nemrég áttörő lépést tett az intelligens dokumentumfeldolgozás terén, amikor az AWS felhőszolgáltatásaira építve egy skálázható, AI-alapú megoldást alkotott. A vállalat célja az volt, hogy a hagyományos, sok kézi beavatkozást igénylő folyamatokat automatizálva jelentősen lerövidítse az ügyfélbevezetési időt, miközben növeli a feldolgozott dokumentumok számát és a rendszer megbízhatóságát. Az új platform a generatív mesterséges intelligenciát, a szerver nélküli architektúrát és szabványosított keretrendszereket ötvözve válaszolja meg a modern vállalati kihívásokat, így a Ricoh ügyfelei már napok alatt végezhetik el azt, ami korábban hetekbe telt. Az egészségügyi szektor dokumentumkezelési kihívásai A Ricoh egészségügyi üzletága több mint 200 országban szolgál ki nagy egészségbiztosítókat, kezelő szervezeteket és egészségügyi szolgáltatókat. Naponta több száz ezer…

  • Mesterséges intelligencia

    Új generációs AI-modell: NVIDIA Nemotron 3 Nano az Amazon Bedrockon

    Az NVIDIA legújabb, fejlett nyelvi modellje, a Nemotron 3 Nano mostantól elérhető az Amazon Bedrock platformján, teljesen menedzselt és szerver nélküli szolgáltatásként. Ez a lépés nagy előrelépést jelent a generatív mesterséges intelligencia alkalmazások fejlesztésében, mivel a fejlesztőknek nem kell többé az infrastruktúra bonyodalmaival bajlódniuk, miközben kihasználhatják a modell kimagasló képességeit. Mi az a Nemotron 3 Nano? A Nemotron 3 Nano egy kisméretű nyelvi modell, amely a Mixture-of-Experts (MoE) hibrid architektúráját használja, így ötvözi a hatékony számítási teljesítményt és a magas pontosságot. Ez a modell különösen jól teljesít kódolási feladatokban, tudományos következtetésekben, matematikai problémák megoldásában, valamint eszközök hívásában és utasítások követésében. Az átláthatóság jegyében a modell súlyai, az adatbázisok és az…

  • Mesterséges intelligencia

    Hogyan válik hatékonnyá az Agentic AI a vállalatoknál?

    Az Agentic AI, vagyis az önálló ügynökként működő mesterséges intelligencia, egyre nagyobb teret nyer a vállalati működésben. Az AWS Generative AI Innovation Center legfrissebb elemzése szerint azonban nem pusztán a technológia jelenti a legnagyobb kihívást, hanem az, hogy miként integrálják és működtetik ezt az újfajta intelligens rendszert a szervezeten belül. A siker kulcsa pedig az, hogy pontosan meghatározzuk, kinek milyen szerepe és felelőssége van az Agentic AI bevezetésében és napi használatában. Az üzleti vezetők: mérhető eredményekre fókuszáljanak Ha Ön egy üzleti egység vagy profitközpont vezetője, akkor nem egy újabb technológiai kütyüre van szüksége, hanem arra, hogy az AI megoldás közvetlenül javítsa a kulcsfontosságú mutatókat, például csökkentse a nyitott ügyeket, rövidítse…