Tillbaka till bloggen

Den nya metoden som kan redigera varje ansiktsryck perfekt

Baserad på forskning av Jiabin Hua, Hengyuan Xu, Aojie Li, Wei Cheng, Gang Yu

Det finns ingen enkel switch för att byta ett leende mot ett surt uttryck utan att ändra personligheten hos personen i bilden. Ny forskning visar dock att det är möjligt att kontrollera ansiktsuttryck med exakt precision tack vare en metod som skiljer mellan känslomässig betoning och ansiktsidentitet.

Under lång tid har den tekniska utvecklingen inom ansiktsredigering stött på hinder där det är svårt att ändra ett uttryck utan att bilden av personen också förändras. Detta beror på att olika ansiktsuttryck delar många gemensamma drag och strukturer. För att lösa detta har forskare skapat ett ny dataset som heter Flex Facial Expression och byggt ett testverktyg för att mäta hur väl systemen lyckas hålla fast vid identiteten samtidigt som de ändrar uttrycket.

Den nya metoden, som kallas PixelSmile, använder sig av avancerad teknik där man tränar systemet på att behandla varje uttryck helt oberoende av de andra. Genom att kombinera styrning av intensitet med ett särskilt sätt att jämföra bilder lyckas systemet skapa tydligare och mer distinkta ansiktsuttryck. Tekniken gör att man kan blanda över olika uttryck på ett mjukt och naturligt sätt, vilket tidigare inte varit möjligt utan att få konstiga resultat.

Försöken har visat att metoden är kraftfull nog att skapa kontrollerbara och smidiga förändringar i ansiktsuttryck samtidigt som den bevarar personens ursprungliga drag. Detta innebär att framöver kan digitala bilder redigeras med en precision som liknar hur man gör med fysisk film, där varje ansiktsuttryck kan justeras oberoende av varandra. Metoden öppnar dörren för mer realistiska och kontrollerbara verktyg inom både underhållning och digital kommunikation.

Källa: Hua J, Xu H, Li A, Cheng W, Yu G. PixelSmile: Toward Fine-Grained Facial Expression Editing. https://arxiv.org/abs/2603.25728

Källa: arXiv:2603.25728

Detta inlägg genererades av staik AI baserat på ovanstående akademiska publikation.