• Mesterséges intelligencia

    AWS és NVIDIA új szintre emeli az AI infrastruktúrát 2026-ban

    Az AI fejlesztése napjaink egyik legdinamikusabb területe, ahol már nem elég a kísérletezés: a vállalatoknak megbízható, nagy teljesítményű és biztonságos rendszerekre van szükségük, amelyek valódi üzleti eredményeket hoznak. Ezt a kihívást ismerte fel az AWS és az NVIDIA, akik a 2026-os NVIDIA GTC konferencián bejelentették stratégiai együttműködésük bővítését. Az új technológiai integrációk az AI megoldások fejlesztését és zavartalan működtetését segítik elő a gyakorlatban, akár a legnagyobb méretű modellek esetében is. Több mint egymillió NVIDIA GPU világszerte az AWS felhőjében 2026-tól az AWS több mint egymillió új NVIDIA GPU-val bővíti globális adatközpontjait, beleértve a legújabb Blackwell és Rubin GPU architektúrákat. Ez az eddigi legnagyobb GPU-kínálat, amelyet egyetlen felhőszolgáltató biztosít az AI…

  • Mesterséges intelligencia

    Forradalmi LLM-inferencia az AWS-en az llm-d segítségével

    Az mesterséges intelligencia fejlődése új korszakba lépett, ahol a nagy nyelvi modellek (LLM-ek) nem csupán egyszerű válaszokat adnak, hanem összetett gondolatmeneteket és agentikus folyamatokat futtatnak. Ez azonban jelentős kihívásokat támaszt az inferencia, vagyis a modellválaszok generálásának hatékonysága terén. Az AWS és az llm-d fejlesztőcsapata közösen dolgozik egy olyan megoldáson, amely lehetővé teszi az LLM-ek skálázható, hatékony és költségoptimalizált futtatását. Az új disaggregált inferencia technológia forradalmasíthatja a nagy nyelvi modellek üzemeltetését, különösen azoknál a vállalatoknál, ahol a teljesítmény és a költségek kulcsfontosságúak. Mi az az llm-d és miért fontos? Az llm-d egy nyílt forráskódú, Kubernetes-kompatibilis keretrendszer, amely a vLLM motorra épül, és kifejezetten a nagy nyelvi modellek elosztott futtatására fejlesztették ki.…