Le géant chinois Tencent vient de franchir une étape majeure dans la création numérique en rendant public HY-Motion 1.0, un modèle de génération de mouvements 3D basé sur l'intelligence artificielle. Capable de transformer de simples commandes textuelles en animations complexes et fluides grâce à une architecture de plus d'un milliard de paramètres, cet outil open source promet de bouleverser les pipelines de production pour les développeurs de jeux vidéo et les créateurs de contenu.
Un bond technologique grâce au Billion-Scale DiT
Au cœur de cette innovation, on retrouve l'architecture Diffusion Transformer (DiT), une technologie de pointe que Tencent a réussi à porter à une échelle massive. Avec plus d'un milliard de paramètres, Tencent HY-Motion 1.0 s'impose comme l'un des modèles les plus robustes du marché pour traduire le langage naturel en mouvements. Concrètement, cela signifie que l'intelligence artificielle comprend avec une précision chirurgicale les nuances des instructions données par l'utilisateur pour les retranscrire en animations 3D de haute fidélité.
Cette puissance de calcul permet d'obtenir une fluidité de mouvement inédite, dépassant les standards actuels de l'industrie. Les actifs générés ne sont pas de simples fichiers isolés ; ils sont conçus pour être intégrés directement dans les flux de travail standards de l'animation 3D, facilitant ainsi grandement la tâche des studios qui souhaitent accélérer leur phase de prototypage ou de production de mouvements secondaires.
✨We are excited to open-source Tencent HY-Motion 1.0, a billion-parameter text-to-motion model built on the Diffusion Transformer (DiT) architecture and flow matching. Tencent HY-Motion 1.0 empowers developers and individual creators alike by transforming natural language into… pic.twitter.com/I2BNJkyEB3
— Tencent HY (@TencentHunyuan) December 30, 2025
Une stratégie d'apprentissage complète pour plus de réalisme
L'une des grandes forces de ce projet réside dans son processus d'entraînement. Tencent affirme être le premier dans l'industrie à utiliser un cycle complet combinant le pré-entraînement, le Fine-Tuning Supervisé (SFT) et l'apprentissage par renforcement (RL). Cette approche tripartite n'est pas qu'un détail technique : elle garantit que les animations produites respectent non seulement la sémantique de la demande, mais aussi la plausibilité physique des mouvements.
Rappelons que la gestion de la physique est souvent le point faible des outils de génération automatique, entraînant régulièrement des artefacts visuels ou des postures impossibles. En optimisant la précision sémantique et la cohérence physique, HY-Motion 1.0 assure que les personnages ne se contentent pas de bouger, mais qu'ils le font de manière naturelle et crédible dans un environnement tridimensionnel.
Un catalogue de mouvements exhaustif pour les créateurs
Pour accompagner cette technologie, Tencent a mis en place un pipeline de données méticuleux permettant de couvrir un spectre de mouvements extrêmement large. Le modèle intègre ainsi :
- Plus de 200 catégories de mouvements différentes.
- Une répartition en 6 classes majeures couvrant l'essentiel des besoins en animation.
- Une compatibilité totale avec les moteurs de jeu et logiciels de création 3D actuels.
- Une capacité de "instruction-following" permettant de varier les styles et les rythmes.
Comme nous l'évoquions lors des récentes avancées de Tencent dans le domaine de la tech, le groupe continue de muscler son offre d'outils à destination des créateurs. Avec cette mise à disposition en open source, le studio derrière des succès mondiaux et des technologies de Cloud massives confirme sa volonté de démocratiser des outils de pointe, permettant même aux développeurs indépendants d'accéder à des animations de qualité Triple A sans passer par de coûteuses séances de Motion Capture.
Cette ouverture du code source de Tencent HY-Motion 1.0 pourrait bien redéfinir les standards de l'animation procédurale dans les années à venir.
Source : hunyuan.tencent.com











