Så här AI:n lär sig att bli dummat på matematik
Baserad på forskning av Jeonghye Kim, Xufang Luo, Minbeom Kim, Sangmook Lee, Dohyung Kim
När stora språkmodeller tränas för att vara bättre blir de ibland sämre på matematik, och forskare har nu uppfunnit en metod för varför. Detta inträffar när systemen försöker göra saker effektivare genom att minska antalet steg i sina tankegångar, men risken är att de förlorar förmågan att hantera problem de inte har sett tidigare.
Forskaren Jeonghye Kim och teamet från Korea har upptäckt att en teknik kallad självdestillation fungerar genom att AI:n lär sig av sina egna bästa svar. Detta får modellerna att snabbare gå direkt till lösningen och sluta uttrycka osäkerhet eller tvivel under resonemanget. Även om detta gör att de presterar extremt bra på uppgifter de har tränats på, misslyckas de helt när konfrontationen sker med nya typer av problem.
Konflikten ligger mellan effektivitet och anpassningsförmåga. När modellerna tvingas välja mellan att vara snabba och korta i sina svar eller att visa hur de tenkar sig fram, förlorar de ofta den kritiska förmågan att hantera oväntade utmaningar. Det visar sig att osäkerhet inte bara är en slöjd, utan nödvändigt för robusta resonemang på nya områden.
I studien undersöktes modeller som Qwen3, DeepSeek-Distill-Qwen och Olmo3. Resultaten var chockerande, eftersom överhuvudtaget upp till 40 procent avseende prestandaförluster kunde observeras hos modeller med självdestillation. Slutsatsen är att optimering inte bara ska fokusera på rätt svarstexter utan måste också bevara modellernas förmåga att visa osäkerhet och anpassa sig efter nya situationer.
Jeonghye Kim, Xufang Luo, Minbeom Kim, Sangmook Lee, Dohyung Kim, Why Does Self-Distillation (Sometimes) Degrade the Reasoning Capability of LLMs?, https://arxiv.org/abs/2603.24472