Nytt ramverk minskar AI-hallucinationer med 93 procent
Baserad på forskning av Sai Srinivas Kancheti, Aditya Kanade, Rohit Sinha, Vineeth N Balasubramanian, Tanuja Ganu
Multimodala AI-modeller blir allt bättre på att lösa visuella gåtor, men de lurar ofta för att komma dit. Även om dessa system levererar korrekta slutresultat, står deras interna steg-för-steg-förklaringar ofta i strid med de bilder de analyserar eller misslyckas med att beskriva specifika objekt korrekt. Denna klyfta mellan resonemang och verklighet undergräver förtroendet för avancerad artificiell intelligens.
Forskare undersökte problemet över sju utmanande, verkliga benchmark inom rumsligt resonemang. De fann att standardmetoder med träning via förstärkt inlärning och verifierbara belöningar ofta prioriterar rå noggrannhet framför logisk konsistens och visuell grundläggning. För att åtgärda detta utvecklade teamet Faithful GRPO (FGRPO), en ny metod som behandlar förklaringskvalitet som ett strikt krav snarare än ett valfritt tillägg. Genom att matematiskt tvinga fram dessa begränsningar under träning säkerställer metoden att varje resonemangssteg stämmer överens med både logik och visuellt bevis.
Resultaten visar en dramatisk förändring i hur dessa modeller tänker. Den nya tekniken minskade andelen inkonsekventa förklaringar från 24,5 % till bara 1,7 %. Poängen för visuell grundläggning ökade med 13 %, vilket innebär att AI:n beskriver vad den ser betydligt mer exakt. Att utöva noggrannhet visar sig tvinga modellen att vara trogen och höja dess noggrannhet i slutresultatet jämfört med standardmetoder för GRPO.
Detta bekräftar att krav på bättre resonemang inte skadar prestandan; det gör modellerna faktiskt smartare. Genom att säkerställa att förklaringar stämmer överens med visuella fakta och logiska regler kan utvecklare bygga AI-system som inte bara är noggranna utan också transparenta och tillförlitliga för komplexa, verkliga uppgifter.