論文の概要: RoleMotion: A Large-Scale Dataset towards Robust Scene-Specific Role-Playing Motion Synthesis with Fine-grained Descriptions
- arxiv url: http://arxiv.org/abs/2512.01582v1
- Date: Mon, 01 Dec 2025 11:59:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.833865
- Title: RoleMotion: A Large-Scale Dataset towards Robust Scene-Specific Role-Playing Motion Synthesis with Fine-grained Descriptions
- Title(参考訳): RoleMotion: きめ細かい記述によるロバストなシーンに特有なロールプレイングモーション合成に向けた大規模データセット
- Authors: Junran Peng, Yiheng Huang, Silei Shen, Zeji Wei, Jingwei Yang, Baojie Wang, Yonghao He, Chuanchen Luo, Man Zhang, Xucheng Yin, Wei Sui,
- Abstract要約: RoleMotionは、ロールプレイングと機能的なモーションデータを含む大規模な人間のモーションデータセットである。
データセットには、25の古典的なシーン、110の機能的役割、500以上の行動、10296の高品質な人体と手の動きシーケンスが含まれている。
- 参考スコア(独自算出の注目度): 30.667328312674368
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we introduce RoleMotion, a large-scale human motion dataset that encompasses a wealth of role-playing and functional motion data tailored to fit various specific scenes. Existing text datasets are mainly constructed decentrally as amalgamation of assorted subsets that their data are nonfunctional and isolated to work together to cover social activities in various scenes. Also, the quality of motion data is inconsistent, and textual annotation lacks fine-grained details in these datasets. In contrast, RoleMotion is meticulously designed and collected with a particular focus on scenes and roles. The dataset features 25 classic scenes, 110 functional roles, over 500 behaviors, and 10296 high-quality human motion sequences of body and hands, annotated with 27831 fine-grained text descriptions. We build an evaluator stronger than existing counterparts, prove its reliability, and evaluate various text-to-motion methods on our dataset. Finally, we explore the interplay of motion generation of body and hands. Experimental results demonstrate the high-quality and functionality of our dataset on text-driven whole-body generation.
- Abstract(参考訳): 本稿では,ロールプレイングと機能的モーションデータを含む大規模なヒューマンモーションデータセットであるRoleMotionを紹介する。
既存のテキストデータセットは、主に、様々な場面における社会的活動をカバーするために、データの非機能化と孤立化を図ったサブセットの集約として、分散的に構築されている。
また、動きデータの品質は一貫性がなく、テキストアノテーションはこれらのデータセットに詳細な詳細を欠いている。
対照的にRoleMotionは微妙にデザインされ、シーンやロールに特化して収集される。
データセットには25の古典的なシーン、110の機能的役割、500以上の行動、10296の高品質な人体と手の動きシーケンスがあり、27831の細かいテキスト記述が注釈付けされている。
既存のものよりも強力な評価器を構築し、その信頼性を証明し、データセット上で様々なテキスト・ツー・モーション・メソッドを評価する。
最後に,身体と手の動き生成の相互作用について検討する。
実験結果から,テキスト駆動による全身生成におけるデータセットの品質と機能について検証した。
関連論文リスト
- InterAct: Advancing Large-Scale Versatile 3D Human-Object Interaction Generation [54.09384502044162]
大規模な3D HOIベンチマークであるInterActを導入する。
まず、さまざまなソースから21.81時間のHOIデータを統合し、標準化し、詳細なテキストアノテーションで強化する。
第2に、アーティファクトの削減と手の動きの修正によりデータ品質を向上させる統一的な最適化フレームワークを提案する。
第3に,6つのベンチマークタスクを定義し,HOI生成モデリングの視点を統一し,最先端性能を実現する。
論文 参考訳(メタデータ) (2025-09-11T15:43:54Z) - FineMotion: A Dataset and Benchmark with both Spatial and Temporal Annotation for Fine-grained Motion Generation and Editing [36.42160163142448]
442,000以上の人間の動作スニペットを含むFineMotionデータセットを提案する。
データセットには、モーションシーケンス全体の人体部分の動きを記述した約95kの詳細な段落が含まれている。
論文 参考訳(メタデータ) (2025-07-26T07:54:29Z) - How to Move Your Dragon: Text-to-Motion Synthesis for Large-Vocabulary Objects [37.10752536568922]
多様なオブジェクトカテゴリのためのモーション合成は、3Dコンテンツ作成に大きな可能性を秘めている。
我々は、広範囲の高品質なモーションやアノテーションを含む包括的なモーションデータセットの欠如に対処する。
本稿では,一貫したダイナミクスを保ちながら,多様な動作データを生成するrig拡張手法を提案する。
論文 参考訳(メタデータ) (2025-03-06T09:39:09Z) - InterDance:Reactive 3D Dance Generation with Realistic Duet Interactions [67.37790144477503]
動きの質、データスケール、さまざまなダンスジャンルを大幅に向上させる大規模なデュエットダンスデータセットであるInterDanceを提案する。
本稿では,対話のリアリズムを段階的に最適化するためのインタラクション改善指導戦略を備えた拡散型フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-22T11:53:51Z) - Articulate3D: Holistic Understanding of 3D Scenes as Universal Scene Description [56.69740649781989]
3Dシーン理解は、コンピュータビジョンにおける長年の課題であり、混合現実、ウェアラブルコンピューティング、そして具体化されたAIを実現する上で重要な要素である。
室内280のシーンに高品質な手動アノテーションを付加した専門的な3DデータセットであるArticulate3Dを紹介する。
我々はまた,部分分割を同時に予測できる新しい統一フレームワークUSDNetと,オブジェクトの動作属性の完全な仕様を提示する。
論文 参考訳(メタデータ) (2024-12-02T11:33:55Z) - Towards Open Domain Text-Driven Synthesis of Multi-Person Motions [36.737740727883924]
我々は、大規模な画像とビデオのデータセットからポーズ情報を推定することで、人間のポーズと動きのデータセットをキュレートする。
本手法は,多種多様なテキストプロンプトから多目的運動列を多種多様な多様性と忠実度で生成する最初の方法である。
論文 参考訳(メタデータ) (2024-05-28T18:00:06Z) - Generating Human Interaction Motions in Scenes with Text Control [66.74298145999909]
本稿では,デノナイズ拡散モデルに基づくテキスト制御されたシーン認識動作生成手法TeSMoを提案する。
我々のアプローチは、シーンに依存しないテキスト-モーション拡散モデルの事前学習から始まります。
トレーニングを容易にするため,シーン内に注釈付きナビゲーションと対話動作を組み込む。
論文 参考訳(メタデータ) (2024-04-16T16:04:38Z) - Synthesizing Physical Character-Scene Interactions [64.26035523518846]
仮想キャラクタとその周辺環境間のこのような相互作用を合成する必要がある。
本稿では,逆模倣学習と強化学習を用いて物理シミュレーション文字を学習するシステムを提案する。
我々のアプローチは、物理学に基づくキャラクターモーション生成を広い適用性に一歩近づいた。
論文 参考訳(メタデータ) (2023-02-02T05:21:32Z) - Learning Action-Effect Dynamics from Pairs of Scene-graphs [50.72283841720014]
本稿では,画像のシーングラフ表現を利用して,自然言語で記述された行動の効果を推論する手法を提案する。
提案手法は,既存のモデルと比較して,性能,データ効率,一般化能力の点で有効である。
論文 参考訳(メタデータ) (2022-12-07T03:36:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。