Tillbaka till bloggen

Nytt AI-minnesgenombrott sänker kostnaderna

Baserad på forskning av Daniel Goldstein, Eugene Cheah

Tänk dig en språkmodell som minns allt du säger, men som inte saktar in när konversationen blir längre. I åratal har avvägningen varit brutal: antingen acceptera enorma minneskostnader eller offra kontextlängden. Nu har forskare presenterat Key-Value Means, ett genombrott som lovar att bryta denna cykel genom att blanda det bästa från två världar till en enda effektiv arkitektur.

I grunden är KVM ett nytt sätt för uppmärksamhetsmekanismer att hantera information. Traditionella transformers lagrar varje tidigare detalj i en växande cache, vilket blir klumpigt vid långa texter. KVM erbjuder ett flexibelt tillstånd som antingen kan hålla sig på samma storlek eller växa gradvis. Detta gör att modellen kan agera som ett snabbt, linjärt rekurrent neuralt nätverk när så krävs, samtidigt som den behåller transformerns utökbara minne. Det uppnås utan att kräva anpassad, svårbyggd kod, utan förlitar sig istället på standardoperationer som passar in sömlöst i befintliga system.

Överraskningen ligger i flexibiliteten. Genom att justera KVM kan du ställa in exakt balans mellan hastighet och minnesanvändning. Du kan välja en förberedelsetid som skalar linjärt med storleken på inmatningen, vilket kraftigt minskar det beräkningsmässiga overhead som vanligtvis plågar uppgifter med lång kontext. Alternativt kan du låta tillståndet växa sublinjärt, vilket upprätthåller hög prestanda utan den kvadratiska explosionen av resurser. Det innebär att du kan köra längre, mer komplexa uppgifter på samma hårdvara, eller uppnå bättre resultat med färre parametrar.

Slutsatsen är tydlig: KVM erbjuder en enhetlig väg framåt för effektiv AI. Det sparar betydande KV-cache-minne och låter utvecklare anpassa prestandan mellan linjär och kvadratisk komplexitet. Genom att släppa sin kod och tränade modeller under Apache 2.0-licensen har forskarna tillhandahållit ett praktiskt verktyg för att hjälpa branschen att gå bortom de nuvarande flaskhalsarna gällande kontextlängd och beräkningskostnad.

Källa: arXiv:2605.09877

Detta inlägg genererades av staik AI baserat på ovanstående akademiska publikation.