MetaHumans: Unreal Engine 5 promette un nuovo livello di fotorealismo

MetaHuman Creator è uno strumento innovativo che punta a semplificare i processi di sviluppo garantendo al contempo livelli di qualità elevatissimi.

Articolo a cura di

A una decina di mesi dalla prima, spettacolare tech demo di Unreal Engine 5 (di cui vi abbiamo parlato in questo approfondimento sulla tech demo di Unreal Engine 5), la nuova iterazione di uno dei motori grafici più utilizzati nell'industria videoludica, il pubblico sta ancora aspettando di testare con mano le prodezze tecnologiche viste lo scorso maggio. L'engine di Epic Games sarà ufficialmente disponibile nel corso dei prossimi mesi, e possiamo tranquillamente supporre che sarà uno dei grandi protagonisti della generazione appena iniziata, esattamente come successo ai suoi predecessori.

Tra gli storici punti di forza del motore c'è sicuramente la sua notevole versatilità, sostenuta da tool progettati per semplificare i processi produttivi senza intaccare la qualità dei risultati. La stessa filosofia alla base di MetaHumans Creator, uno strumento di modellazione innovativo con il quale Epic punta a rendere ancor più completo ed efficiente il suo ecosistema, riducendo i tempi di lavorazione e permettendo agli sviluppatori di raggiungere livelli di realismo inediti. Da questo punto di vista, i due trailer pubblicati sembrano promettere davvero bene, sebbene sia sempre difficile valutare le effettive potenzialità di una tecnologia basandosi esclusivamente su tech demo create ad hoc.

Fotorealismo ai massimi livelli

MetaHumans Creator è uno strumento di modellazione progettato per permettere agli sviluppatori di creare personaggi fotorealistici senza necessariamente disporre di attrezzature per la scansione altamente avanzate, abbattendo quindi sia i costi di produzione che i tempi di lavorazione. Questo almeno stando alle dichiarazioni di Epic Games, che descrive il suo tool basato sul cloud come una risorsa eccezionalmente versatile e scalabile, pensata per integrarsi alla perfezione con gli altri strumenti di sviluppo offerti dall'Unreal Engine.

Tra i punti di forza di MetaHumans c'è quindi un'ampia libreria di asset ad altissima risoluzione, presumibilmente generati grazie alla fotogrammetria, che possono essere adattati e modificati in base al risultato che si vuole ottenere, sfruttando un sistema di editing tanto avanzato quanto relativamente semplice. I due video pubblicati da Epic Games rendono ben chiare le potenzialità di questa tecnologia: in termini di qualità complessiva, non abbiamo mai visto risultati così convincenti, almeno nell'ambito del fotorealismo.

Basta dare un'occhiata alle immagini per rendersi conto di come la stratificazione delle texture map e la gestione degli shader, con l'ausilio di a tecniche avanzate

come il subsurface scattering, siano in grado di dare letteralmente vita ai volti dei personaggi digitali, di riprodurre accuratamente tutte quelle imperfezioni e irregolarità che in genere caratterizzano la cute. Merita sicuramente una menzione la tecnologia utilizzata per la simulazione di peli e capelli, generati a partire da filamenti poligonali, detti anche strand, disposti in maniera irregolare in modo da apparire più credibili. La cosa che più ci ha colpito è senza dubbio la gestione fisica di questo particolare aspetto della modellazione, tendenzialmente superiore agli standard cui siamo abituati. Lo stesso può dirsi per le animazioni facciali dei personaggi presenti nel video, caratterizzate da una naturalezza praticamente inedita.

Espressività digitale

A prescindere dall'ottimo lavoro di mocap svolto dal team di Epic Games, possiamo confermarvi che non abbiamo mai visto un utilizzo così convincente delle tecniche di shape blending, quelle utilizzate per adattare lo scheletro di un modello ai suoi movimenti. L'estrema coerenza e l'organicità tra le animazioni scheletriche e quelle superficiali raggiungono livelli davvero sorprendenti, mentre la deformazione delle superfici organiche in relazione alle diverse espressioni, specialmente attorno alla bocca e agli occhi, ci ha lasciato veramente di stucco.

La formazione in tempo reale di increspature sulle labbra o pieghe cutanee, così come le variazioni morfologiche (delle rughe, ad esempio) in base al "linguaggio" del volto, lasciano supporre che il tool di Epic offrirà agli sviluppatore un notevole grado di flessibilità nella personalizzazione dei modelli, con contributo di automatismi di adattamento che - chiaramente - dovranno poi essere valutati in un contesto più concreto. Sebbene i trailer pubblicati da Epic siano infatti un'eccellente testimonianza del potenziale dell'ultima iterazione dell'Unreal Engine, al momento risulta difficile soppesare l'impatto che avrà MetaHumans Creator sul lavoro degli sviluppatori.

Tutto dipende dall'effettiva malleabilità del tool, anche in termini di ottimizzazione, nonché dall'ampiezza della libreria di asset a disposizione degli utenti. Per quanto intriganti, le tech demo mostrate non permettono di farsi un'idea chiara della linearità dei processi legati all'implementazione del motion capture, anche per quel che riguarda le animazioni corporee. In buona sostanza, bisogna ancora valutare come si comporterà questo strumento in uno scenario di sviluppo reale, e quanto andrà effettivamente a ridurre il carico di lavoro sulle spalle degli sviluppatori, in relazione alle specifiche esigenze dei loro progetti.

Nel frattempo, però, non possiamo fare a meno di accogliere con sincera curiosità - e una buona punta di entusiasmo - l'annuncio di Epic Games, che speriamo possa avere conseguenze più che positive non solo sulla qualità finale dei titoli in arrivo nei prossimi anni, ma anche sulle tempistiche di produzione. Pur tralasciando le restrizioni imposte dalla crisi sanitaria in corso, la crescente complessità dei titoli chiama a gran voce soluzioni tese a snellire i processi di sviluppo, ed Epic sembra intenzionata a rispondere altrettanto sonoramente. Ricordiamo che l'azienda americana ha pubblicato, a inizio 2021, un trailer dei giochi next-gen basati su Unreal Engine.