論文の概要: UniMoGen: Universal Motion Generation
- arxiv url: http://arxiv.org/abs/2505.21837v1
- Date: Wed, 28 May 2025 00:03:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.333613
- Title: UniMoGen: Universal Motion Generation
- Title(参考訳): UniMoGen:ユニバーサルモーションジェネレーション
- Authors: Aliasghar Khani, Arianna Rampini, Evan Atherton, Bruno Roy,
- Abstract要約: 骨格非依存運動生成のための新しいUNet拡散モデルUniMoGenを紹介する。
UniMoGenは、予め定義された最大関節数を必要とせずに、多様な文字のモーションデータに基づいてトレーニングすることができる。
UniMoGenの主な特徴は、スタイルと軌道入力による制御性、過去のフレームからの動作を継続する機能である。
- 参考スコア(独自算出の注目度): 1.7749928168018234
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Motion generation is a cornerstone of computer graphics, animation, gaming, and robotics, enabling the creation of realistic and varied character movements. A significant limitation of existing methods is their reliance on specific skeletal structures, which restricts their versatility across different characters. To overcome this, we introduce UniMoGen, a novel UNet-based diffusion model designed for skeleton-agnostic motion generation. UniMoGen can be trained on motion data from diverse characters, such as humans and animals, without the need for a predefined maximum number of joints. By dynamically processing only the necessary joints for each character, our model achieves both skeleton agnosticism and computational efficiency. Key features of UniMoGen include controllability via style and trajectory inputs, and the ability to continue motions from past frames. We demonstrate UniMoGen's effectiveness on the 100style dataset, where it outperforms state-of-the-art methods in diverse character motion generation. Furthermore, when trained on both the 100style and LAFAN1 datasets, which use different skeletons, UniMoGen achieves high performance and improved efficiency across both skeletons. These results highlight UniMoGen's potential to advance motion generation by providing a flexible, efficient, and controllable solution for a wide range of character animations.
- Abstract(参考訳): モーション生成はコンピュータグラフィックス、アニメーション、ゲーム、ロボティクスの基盤であり、現実的で多様なキャラクターの動きを創造することができる。
既存の手法の重大な制限は、特定の骨格構造に依存していることである。
この問題を解決するために,骨格非依存のモーション生成用に設計された新しいUNetベースの拡散モデルUniMoGenを紹介する。
UniMoGenは、予め定義された最大関節数を必要とせずに、人間や動物のような多様なキャラクターの運動データに基づいて訓練することができる。
各キャラクタに必要な関節のみを動的に処理することにより,スケルトン非依存と計算効率の両方を実現する。
UniMoGenの主な特徴は、スタイルと軌道入力による制御性、過去のフレームからの動作を継続する機能である。
我々はUniMoGenの有効性を100スタイルのデータセットで示し、様々なキャラクターの動き生成において最先端の手法より優れていることを示す。
さらに、異なるスケルトンを使用する100スタイルとLAFAN1データセットの両方でトレーニングされた場合、UniMoGenはハイパフォーマンスを実現し、両スケルトン間で効率が向上する。
これらの結果は、UniMoGenが幅広いキャラクターアニメーションに対して柔軟で効率的で制御可能なソリューションを提供することによって、モーション生成を前進させる可能性を強調している。
関連論文リスト
- GENMO: A GENeralist Model for Human MOtion [64.16188966024542]
本稿では,1つのフレームワークで動作推定と生成を橋渡しする汎用人体運動モデル GENMO を提案する。
我々の重要な洞察は、出力運動が観測された条件信号を正確に満たさなければならないような制約された動き生成として運動推定を再構成することである。
我々の新しいアーキテクチャは、可変長動きと混合マルチモーダル条件(テキスト、オーディオ、ビデオ)を異なる時間間隔で処理し、柔軟な制御を提供する。
論文 参考訳(メタデータ) (2025-05-02T17:59:55Z) - Scaling Large Motion Models with Million-Level Human Motions [67.40066387326141]
我々は、モーション生成のための最初の100万レベルのデータセットであるMotionLibを紹介する。
我々はBeat-M0という名の大きなモーションモデルを訓練し、幅広い人間の活動において堅牢なパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-10-04T10:48:54Z) - Large Motion Model for Unified Multi-Modal Motion Generation [50.56268006354396]
Large Motion Model (LMM) は、動き中心のマルチモーダルフレームワークであり、メインストリームのモーション生成タスクをジェネラリストモデルに統合する。
LMMは3つの原則的な側面からこれらの課題に取り組む。
論文 参考訳(メタデータ) (2024-04-01T17:55:11Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Single Motion Diffusion [33.81898532874481]
SinMDMは、任意の位相を持つ単一運動列の内部モチーフを学習し、それらに忠実な任意の長さの運動を合成するモデルである。
SinMDMは、空間的および時間的相互関係、モーション展開、スタイル転送、群衆アニメーションなど、さまざまな状況に適用することができる。
以上の結果から,SinMDMは品質と時間空間効率の両方で既存手法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-12T13:02:19Z) - MoDi: Unconditional Motion Synthesis from Diverse Data [51.676055380546494]
多様な動きを合成する無条件生成モデルであるMoDiを提案する。
我々のモデルは、多様な、構造化されていない、ラベルなしのモーションデータセットから完全に教師なしの設定で訓練されている。
データセットに構造が欠けているにもかかわらず、潜在空間は意味的にクラスタ化可能であることを示す。
論文 参考訳(メタデータ) (2022-06-16T09:06:25Z) - UniCon: Universal Neural Controller For Physics-based Character Motion [70.45421551688332]
大規模動作データセットから学習することで,異なるスタイルで数千の動作を習得する物理ベースのユニバーサルニューラルコントローラ(UniCon)を提案する。
UniConは、キーボード駆動制御をサポートし、ロコモーションとアクロバティックスキルの大きなプールから引き出されたモーションシーケンスを作成し、ビデオで撮影した人を物理ベースの仮想アバターにテレポートする。
論文 参考訳(メタデータ) (2020-11-30T18:51:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。