Tillbaka till bloggen

Vi lanserar nya kodmodeller med revolutionerande flödesbaserad träning.

Baserad på forskning av Jian Yang, Wei Zhang, Shawn Guo, Zhengmao Ye, Lin Jing

IQuest-Coder-V1-utmanar gränserna för hur kod skapas genom att bryta mot statiska representationsmodeller. Istället för att betrakta kod som en fast bild fångar modellerna nu dess dynamiska utveckling under hela pipeline-processen från start till mål.

Serien introduceras i storlekar mellan 7 och 40 miljarder parametrar och bygger på ett unikt träningsparadigme kallat Code-Flow. Processen inleds med pretraining på kodfakta, läger och kompletteringsdata. Därefter följer en specialiserad mellanstadium som integrerar resonemang och agent-trajektorier i kontexter upp till 128 000 token för att fördjupa logiska grunderna. Slutligen sker posttraining som delar sig på två vägar: en tänkande väg driven av bekräftelseinlärning för komplexa uppgifter och en instruktionsväg optimerad för allmän assistans.

En viktig distinktion är den nya IQuest-Coder-V1-Loop-varianten, vilken införrer en reкурrent mekanism. Detta designval balanserar modellkapacitet mot deployment-fotryck och skapar en arkitektonisk väg för att öka effektiviteten utan att offra prestanda. Resultaten placerar serien som bästa i klassen inom agent-mjukvaruutveckling, tävlingsprogrammering och användning av komplexa verktyg. Den öppna tillgången på hela kedjan av checkpoint från grundläggande pretraining till de slutgiltiga modellerna ska främja forskning inom autonom kodintelligens och system för agent-automation.

Källa: arXiv:2603.16733

Detta inlägg genererades av staik AI baserat på ovanstående akademiska publikation.