-
MARL: Új middleware csökkenti az LLM-ek tévedéseit finomhangolás nélkül
A mesterséges intelligencia nyelvi modellek (LLM-ek) rohamos fejlődése ellenére továbbra is jelentős kihívást jelent a „hallucináció”, azaz a téves vagy kitalált válaszok előállítása. A MARL nevű új runtime middleware azonban egy merőben újszerű megoldást kínál erre a problémára – anélkül, hogy magukat a modelleket finomhangolni kellene. Ez a szoftverréteg azonnal alkalmazható bármilyen OpenAI API-kompatibilis LLM-re, legyen az GPT-5.4, Claude, Gemini vagy akár a nyílt forráskódú Llama. Mi áll a MARL mögött? A metakognitív szakadék áthidalása A MARL fejlesztői az úgynevezett „metakognitív szakadékra” (MA-ER Gap) fókuszáltak, amely arra a képességre utal, hogy a mesterséges intelligencia felismerje saját hibáit és képes legyen azokat javítani. Bár a mai legfejlettebb LLM-ek már elképesztő pontossággal…