Actualités

Le nouveau MetaHuman Animator d’Unreal peut transformer une vidéo iPhone en une animation de jeu d’une précision effrayante en trois minutes

Photo of author

Publié par Dylan Lafarge

Publié le

Les images du prochain Hellblade 2 de Ninja Theory sont tout simplement étonnantes.

La présentation d’hier sur l’état d’Unreal 2023 a été plutôt éclipsée par une certaine annonce de jeu surprise, mais Epic a montré une technologie vraiment incroyable à venir sur Unreal Engine 5 dans un proche avenir. Nous avons pu voir de nouveaux outils d’environnement procéduraux impressionnants, Lords of the Fallen montrant les améliorations du moteur pour la création de personnages et des armures et vêtements réalistes, et plus encore. Mais ce qui m’a vraiment époustouflé, c’est la démo de scène de MetaHuman Animator.

Nous avons déjà vu MetaHuman – c’est un outil qui permet aux développeurs de générer des visages humains très réalistes, entièrement truqués pour l’animation. Cependant, animer ces visages d’une manière qui corresponde à leur aspect réaliste – en évitant la vallée étrange – a été un processus difficile et long jusqu’à présent. La capture de mouvement, c’est-à-dire demander aux acteurs d’effectuer les mouvements, puis transformer cette séquence en animation, a produit les meilleurs résultats, mais nécessite un équipement spécialisé et des mois de travail d’expert.

Eh bien, jusqu’à maintenant. Sur scène, Epic a présenté une nouvelle fonctionnalité appelée MetaHuman Animator, conçue pour rationaliser complètement le processus. Au cours de la démonstration sur scène, vous pouvez voir l’acteur et développeur Melina Juergens, star des jeux Hellblade, enregistrer une vidéo de son visage sur un iPhone, avant qu’un technicien ne la télécharge, la traite et la transforme automatiquement en une séquence animée complète dans le l’espace de littéralement trois minutes.

La vidéo finale n’est pas complètement terminée – un animateur entrerait idéalement et en retoucherait des éléments, et évidemment l’intégrerait à la scène du jeu – mais elle semble à 90% du chemin, et c’est étonnant. Vous n’avez même pas besoin de le mapper sur un MetaHuman modelé sur le visage de cette personne – vous pouvez l’utiliser avec tous les visages que vous avez prêts, qu’ils soient photoréalistes ou stylisés et caricaturaux.

En lire plus  Cette carte d'extension 21 SSD devrait vous trier pour le stockage de jeux pendant au moins une décennie

Le potentiel ici est énorme. Non seulement les grands studios pourront créer des animations faciales en une fraction du temps, permettant des interactions de plus en plus réalistes dans les jeux à venir, mais les petits développeurs pourront créer des scènes de qualité mocap avec juste un téléphone et un PC, au lieu d’un studio entier plein de caméras 4D et de ces petites choses à points blancs.

Ensuite, juste pour montrer, Epic a révélé des images du développement de Hellblade 2 utilisant la technologie avec l’équipement mocap de Ninja Theory, une vidéo qui, selon elle, « n’a été ni peaufinée ni modifiée de quelque manière que ce soit » au-delà du traitement automatique du programme. C’est un bref aperçu, mais je pense que c’est probablement l’animation de jeu vidéo la plus photoréaliste que j’aie jamais vue.

Si les développeurs sont aussi excités que moi à ce sujet, préparez-vous pour toute une génération de jeux qui concernent principalement des personnages livrant des monologues shakespeariens en très gros plan. En 2030, vous serez intimement familiarisé avec chaque ride et chaque pore du visage de Doom Guy.