AI:n lär sig projektets dolda regler för accepterade bidrag
Baserad på forskning av Mo Li, L. H. Xu, Qitai Tan, Ting Cao, Yunxin Liu
Stora språkmodeller har blivit skickliga på att skriva kod, men de misslyckas ofta när de ska integreras i etablerade projekt. Orsaken ligger inte i felaktig funktionslogik, utan i ett bristande anpassningsförmåga till existerande arkitektur och konventioner. Enligt ny forskning bör dessa artificiella agenter istället lära sig av historiken snarare än att endast granska den nuvarande koden.
Ett experiment visar på problemets kärna: även om en modell ges hela förloppet av ett kodlager räcker det inte med att se slutresultatet. För att verkligen kunna skriva accepterade bidrag måste agenten förstå hur filerna kommit att se ut idag genom att analysera tidigare åtgärder. Forskarna har därför tagit fram en metod som låter AI:n reflektera över äldre versioner av projektet för att bygga upp ett internt minne av specifika mönster, koddelning och inbyggda regler. Genom att jämföra sina egna lösningar med hur proffsen tidigare åtgärdade liknande problem lär sig modellen att efterlikna projektspecifik utveckling snarare än att förlita sig på allmän kunskap från sin grundläggande träning. När ett nytt uppdrag ska genomföras väger agenten nu in dessa upplärda färdigheter för att producera ändringar som känns naturliga i kontexten.
Resultaten bekräftade att denna tekniska anpassning märkbart ökar sannolikheten att ett bidrag accepteras av projektets ansvariga utan krav på omfattande justeringar. Metoden lyckades särskilt väl med att följa projektspecifik stil och använda befintliga gränssnitt korrekt, vilket tyder på att AI:s framtid inom mjukvaruutveckling beror på djupare historisk förståelse snarare än bara ny kodgenerering.
Li et al., "Learning to Commit: Generating Organic Pull Requests via Online Repository Memory", https://arxiv.org/abs/2603.26664