En modell för att se och måla med diskret diffusion
Baserad på forskning av Inclusion AI, Tiwei Bie, Haoxing Chen, Tieyuan Chen, Zhenglin Cheng
Tänk dig en AI som inte bara beskriver vad den ser, utan också målar bilden från grunden – allt inom samma hjärna. Det är inte längre science fiction. Forskare har presenterat LLaDA2.0-Uni, ett genombrott som slår ihop förståelse och kreativitet i en och samma modell.
Systemet bygger på en diskret diffusionsspråkmodell som hanterar både text och bilder inbyggt. Genom SigLIP-VQ bryts visuella indata ner till semantiska block, vilket gör att modellen kan bearbeta dem parallellt med ord i en Mixture-of-Experts-arkitektur. En specialiserad dekodern återställer sedan dessa block till högkvalitativa bilder. Denna metod eliminerar behovet av separata verktyg för läsning och skapande, och förenklar hela arbetsflödet till ett enhetligt ramverk.
Den riktiga överraskningen ligger i effektiviteten. Traditionella diffusionsmodeller är kända för att vara långsamma, men LLaDA2.0-Uni påskyndar inferensen genom prefixmedvetna optimeringar och distillation med få steg. Modellen håller måttet jämfört med specialiserade vision-språkmodeller i förståelseuppgifter, samtidigt som den levererar imponerande resultat vid bildgenerering och redigering. Denna balans mellan hastighet och kapacitet utmanar branschens norm att separera begreppsförståelse från skapande.
Slutsatsen är tydlig: AI:s framtid handlar om sammanflätning. Genom att stödja vävda generationer och resonemang etablerar LLaDA2.0-Uni en skalbar paradigm för nästa generations grundmodeller. Vi rör oss mot en värld där en och samma modell kan tänka, se och skapa utan att växla kontext – vilket gör AI mer intuitiv och kraftfull än någonsin tidigare.