-
Mixture of Experts: a jövő hatékonyabb nyelvi modelljei
Az utóbbi években a nyelvi modellek fejlődése elsősorban a paraméterszám növelésével és a sűrű (dense) architektúrák méretezésével zajlott. Az olyan modellek, mint a GPT-2 vagy a GPT-3 hatalmas, több milliárd paraméterből állnak, és ez a megközelítés egy ideig valóban eredményes volt. Ugyanakkor a sűrű modellek képzése és futtatása egyre költségesebbé és erőforrás-igényesebbé válik, így új megoldások után kellett nézni. Ezek közül az egyik legígéretesebb a Mixture of Experts (MoE) megközelítés, amely a hagyományos Transformer architektúrát okosan átalakítva jelentősen javítja a számítási hatékonyságot. Mi is az a Mixture of Experts? A Mixture of Experts lényege, hogy a Transformer egyes rétegeiben – jellemzően a feed-forward blokkokban – nem egyetlen, nagy sűrű hálózat…
-
Gyorsabb éves tervezés a Perplexity segítségével
Az éves tervezés minden vállalat és csapat számára kulcsfontosságú, hiszen a következő év irányvonalát határozza meg. Ennek ellenére sokszor előfordul, hogy a tervek összeállítása kaotikus módon, szétszórt dokumentumokból és találgatások alapján történik. A Perplexity új útmutatója azonban megmutatja, hogyan lehet ezt a folyamatot egyszerűbbé és hatékonyabbá tenni, akár a visszatekintő elemzéstől egészen a végső jóváhagyásig. Az éves tervezés mint rendszer Sok csapat szembesül azzal, hogy bár az éves terveket január elsejére kellene elkészíteni, a prezentációk újraírása, a költségvetések módosítása még hónapokig elhúzódik. A Perplexity segítségével azonban ez a folyamat rendszerezhető és megismételhetővé válik. Az útmutatóban található sablonok és promptok minden tervezési fázishoz kínálnak támogatást, legyen szó a múlt év tapasztalatainak…