Iedereen die een 3D-animatiefilm heeft bekeken of lang genoeg videospellen heeft gespeeld, heeft waarschijnlijk iets opgemerkt over de relatie tussen personages en kleding: we zien ze nooit hun kleren aantrekken. De reden hiervoor is dat het animeren van een 3D-teken om een stuk stof aan te trekken vaak tot rampzalige resultaten leidt, waarbij het karakter of het doek er niet 'realistisch' uitziet.
Onderzoekers van het Georgia Institute of Technology hebben geprobeerd dit probleem te verhelpen, en hun resultaten zijn indrukwekkend - zij het een beetje dwaas.
In de video in de koptekst kunnen we verschillende korte clips van humanoïde modellen zien die proberen kleding aan te trekken. Hoewel de animaties verre van natuurlijk zijn, proberen GIT's Karen Liu en haar team een manier te vinden om physics-rendered-doek in wisselwerking te laten staan met met de hand geanimeerde 3D-modellen zonder dat animators nodig zijn om ervoor te zorgen dat elke vezel niet klem komt te zitten op het personagemodel.
Doordat water en kleding door een physics-engine kunnen worden gerenderd, hebben animators vaak veel tijd bespaard en nu kan het onderzoek van GIT zorgen voor meer realisme in 3D-films en videogames.
"Het dichtst bij het aantrekken van kleding zul je zien in een geanimeerde film De ongelofelijken capes aantrekken, en dat is nog steeds een heel eenvoudig geval, omdat het niet echt veel fysiek contact tussen de personages en het doek met zich meebrengt. [...] Dit is het probleem dat we willen aanpakken omdat het genereren van dit soort scènes de fysieke interactie tussen twee heel verschillende fysieke systemen impliceert. "- Karen Liu, hoofd van GIT's onderzoeksteam over huidige kledinganimatiepraktijken
Een van de grootste uitdagingen voor het team van Karen Liu is het ontwikkelen van een padvindingsalgoritme dat zowel realistisch als vloeiend is. Volgens Liu: "Het personage moet de juiste beslissing nemen over hoe hij of zij de ledematen gaat bewegen, dus het heeft een duidelijk pad naar de opening." Dit is om een aantal redenen moeilijk, omdat mensen veel bewegingen maken waar we niet echt aan denken bij het aankleden.
Deze omvatten ongemakkelijke bewegingen zoals een beweging van de pols, of het wriemelen van onze armen door de mouwen.Zonder deze animaties kan een 3D-personage binnen enkele seconden griezelige niveaus van beweging bereiken, zelfs als we zichtbaar niet iets verkeerds kunnen zien.
Terwijl het team van Liu het probleem met vooraf gegenereerde 3D-ruimtes bijna is opgelost, willen ze ook zien hoe ze hun resultaten kunnen toepassen op real-time 3D. Dit betekent dat we deze algoritmen binnenkort in videogames zouden kunnen zien. Ze willen hun onderzoek ook op robots toepassen: de meeste robots zijn ontworpen om botsingen te voorkomen, maar het proces van het aantrekken van een shirt vereist veel kleine botsingen om te bereiken.
Maar wat betekent dit voor de gamingwereld?
Momenteel worden in video-games de meeste - zo niet alle - verkleedscènes pre-weergegeven. De dichtstbijzijnde voorbeelden van in-game uitkleden en aankleden zijn meestal een vervaging naar zwart of een personage dat zich achter een soort visueel blok verstopt voordat magisch van kleding verandert.
De meest beruchte veranderingen zijn "De Sims" waarbij personages op onverklaarbare wijze snel ronddraaien voordat ze weer verschijnen met een nieuwe set kleren. Hoewel kleding aantrekken misschien niet wereldschokkend lijkt voor gaming, kunnen deze ontwikkelingen helpen bij onderdompeling in videogames die sterk afhankelijk zijn van kledingveranderingen of naaktheid voor verhalen. Bepaalde scènes van The Witcher en Massa-effect komt in je op.
Ik zou zeker kunnen zien dat animaties zoals deze worden gebruikt in scènes tussen een ouder en kind, of tussen twee volwassen personages
Persoonlijk denk ik dat dit een interessant concept zal zijn voor de toekomst van videogames. Zelfs als game-ontwikkelaars dit onderzoek niet gebruiken als een manier om geanimeerde kleding te maken, kunnen we zien dat dit bruikbaar wordt voor andere toepassingen. We zouden bijvoorbeeld nieuwe videogames kunnen zien waarbij het doel van een game zou kunnen zijn om een personage een door natuurkundig werk voortgebracht object op of in een ander niet-fysiek weergegeven object te plaatsen. Weet niet zeker wat ze met dit concept zouden doen, maar ik ben er zeker van dat game-ontwikkelaars iets kunnen bedenken!
Wat vind je van dit onderzoek? Is het tijdverspilling? Kun je er enig gebruik voor bedenken in de toekomst van gaming?