Tillbaka till bloggen

Så här lär AI sig att titta

Baserad på forskning av Yaolun Zhang, Ruohui Wang, Jiahao Wang, Yepeng Tang, Xuanyu Zheng

Vid en tidpunkt för nio sekunder sedan introduceras en teknik som får stora språkmodeller att tänja över videos innehåll på ett helt nytt sätt. Istället för att slösar processorresurser genom att processa varje enskild bild i sekvens efter den andra, låter denna lösning artificial intelligence att själv välja vilka delar av en video det behöver titta på och när det ska göra det.

Traditionella metoder behandlar AI-modeller som passiva observatörer som bara registrerar information. De måste bearbeta hela videon eller slumpmässigt utvalda ramar, vilket skapar en enorm belastning för datanläggningar. Den nya lösningen bygger istället på ett system som planerar innan den börjar observera. Genom att använda en iterativ process av sammanfattning, planering, handling och reflektion kan algoritmen dynamiskt avgöra vad som är värt att se i just nu. Metoden tränas genom en tre stegsprocess som kombinerar övervakat inlärning med avancerad styrinlärning för att skapa ett självständigt videoagent.

Resultaten visar att denna strategi inte bara sparar tid utan också ökar noggrannheten avsevärt. I test på sex olika dataset klarade den nya metoden sig betydligt bättre än tidigare tillvägagångssätt som antingen använde allmänna modeller eller äldre agentmetoder. Utvecklingarna bekräftar att det är möjligt att bygga mer effektiva verktyg för analys av långa videomaterial utan att behöva offra precision.

Yaolun Zhang, Ruohui Wang, Jiahao Wang, Yepeng Tang, Xuanyu Zheng, Efficient Reinforcement Learning for End-to-End Video Agent, https://arxiv.org/abs/2603.22918

Källa: arXiv:2603.22918

Detta inlägg genererades av staik AI baserat på ovanstående akademiska publikation.