論文の概要: SemGeoMo: Dynamic Contextual Human Motion Generation with Semantic and Geometric Guidance
- arxiv url: http://arxiv.org/abs/2503.01291v1
- Date: Mon, 03 Mar 2025 08:28:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:18:28.262590
- Title: SemGeoMo: Dynamic Contextual Human Motion Generation with Semantic and Geometric Guidance
- Title(参考訳): SemGeoMo: セマンティックおよび幾何学的ガイダンスを用いた動的コンテキストヒューマンモーション生成
- Authors: Peishan Cong, Ziyi Wang, Yuexin Ma, Xiangyu Yue,
- Abstract要約: 本研究では,動的文脈の人間の動作生成に有効なSemGeoMoを提案する。
提案手法は,3つのデータセット上での最先端性能を実現し,多様な相互作用シナリオに対して優れた一般化能力を示す。
- 参考スコア(独自算出の注目度): 19.912122939216477
- License:
- Abstract: Generating reasonable and high-quality human interactive motions in a given dynamic environment is crucial for understanding, modeling, transferring, and applying human behaviors to both virtual and physical robots. In this paper, we introduce an effective method, SemGeoMo, for dynamic contextual human motion generation, which fully leverages the text-affordance-joint multi-level semantic and geometric guidance in the generation process, improving the semantic rationality and geometric correctness of generative motions. Our method achieves state-of-the-art performance on three datasets and demonstrates superior generalization capability for diverse interaction scenarios. The project page and code can be found at https://4dvlab.github.io/project_page/semgeomo/.
- Abstract(参考訳): 与えられた動的環境で合理的で高品質な人間の対話動作を生成することは、仮想ロボットと物理ロボットの両方に人間の振る舞いを理解し、モデル化し、転送し、適用するために重要である。
本稿では,テキスト・アフォード・ジョイント・マルチレベル・セマンティック・ガイダンスを生成プロセスで完全に活用し,生成動作の意味論的合理性と幾何的正当性を向上する,動的文脈的ヒューマン・モーション・ジェネレーションのための効果的な方法であるSemGeoMoを提案する。
提案手法は,3つのデータセット上での最先端性能を実現し,多様な相互作用シナリオに対して優れた一般化能力を示す。
プロジェクトページとコードはhttps://4dvlab.github.io/project_page/semgeomo/で見ることができる。
関連論文リスト
- PackDiT: Joint Human Motion and Text Generation via Mutual Prompting [22.53146582495341]
PackDiTは、様々なタスクを同時に実行できる最初の拡散ベースの生成モデルである。
我々はHumanML3Dデータセット上でPackDiTをトレーニングし、FIDスコア0.106で最先端のテキスト・トゥ・モーションのパフォーマンスを達成する。
さらに本実験は, 拡散モデルが, 自動回帰モデルに匹敵する性能を達成し, 動画像生成に有効であることを示す。
論文 参考訳(メタデータ) (2025-01-27T22:51:45Z) - EgoGaussian: Dynamic Scene Understanding from Egocentric Video with 3D Gaussian Splatting [95.44545809256473]
エゴガウスアン(EgoGaussian)は、3Dシーンを同時に再構築し、RGBエゴセントリックな入力のみから3Dオブジェクトの動きを動的に追跡する手法である。
動的オブジェクトと背景再構築の品質の両面で,最先端技術と比較して大きな改善が見られた。
論文 参考訳(メタデータ) (2024-06-28T10:39:36Z) - THOR: Text to Human-Object Interaction Diffusion via Relation Intervention [51.02435289160616]
我々は、リレーショナルインターベンション(THOR)を用いたテキスト誘導型ヒューマンオブジェクト相互作用拡散モデルを提案する。
各拡散段階において、テキスト誘導された人間と物体の動きを開始し、その後、人と物体の関係を利用して物体の動きに介入する。
テキスト記述をシームレスに統合するText2HOIデータセットであるText-BEHAVEを,現在最大規模で公開されている3D HOIデータセットに構築する。
論文 参考訳(メタデータ) (2024-03-17T13:17:25Z) - Scaling Up Dynamic Human-Scene Interaction Modeling [58.032368564071895]
TRUMANSは、現在利用可能な最も包括的なモーションキャプチャーHSIデータセットである。
人体全体の動きや部分レベルの物体の動きを複雑に捉えます。
本研究では,任意の長さのHSI配列を効率的に生成する拡散型自己回帰モデルを提案する。
論文 参考訳(メタデータ) (2024-03-13T15:45:04Z) - Controllable Human-Object Interaction Synthesis [77.56877961681462]
本研究では,3次元シーンにおける同期物体の動きと人間の動きを生成するための制御可能な人間-物体相互作用合成(CHOIS)を提案する。
ここでは,高レベルな計画から効果的に抽出できるスタイルや意図を言語記述が通知し,シーン内の動きをグラウンド化する。
我々のモジュールは経路計画モジュールとシームレスに統合され、3D環境における長期的相互作用の生成を可能にします。
論文 参考訳(メタデータ) (2023-12-06T21:14:20Z) - CG-HOI: Contact-Guided 3D Human-Object Interaction Generation [29.3564427724612]
テキストから動的3次元人-物体相互作用(HOI)を生成する最初の方法であるCG-HOIを提案する。
意味的に豊かな人間の動きは、しばしば孤立して起こるので、人間と物体の両方の動きを相互依存的にモデル化する。
我々は,接触に基づく人間と物体の相互作用が現実的かつ物理的に妥当なシーケンスを生成することを示す。
論文 参考訳(メタデータ) (2023-11-27T18:59:10Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - TEMOS: Generating diverse human motions from textual descriptions [53.85978336198444]
テキスト記述から多種多様な人間の動作を生成するという課題に対処する。
本研究では,人間の動作データを用いた可変オートエンコーダ(VAE)トレーニングを利用したテキスト条件生成モデルTEMOSを提案する。
TEMOSフレームワークは,従来のような骨格に基づくアニメーションと,より表現力のあるSMPLボディモーションの両方を生成可能であることを示す。
論文 参考訳(メタデータ) (2022-04-25T14:53:06Z) - Modelling Human Kinetics and Kinematics during Walking using
Reinforcement Learning [0.0]
実世界の人間の運動に匹敵する3次元歩行運動をシミュレーションにより自動生成する手法を開発した。
本手法は, 異なる運動構造と歩行特性を持つヒト-サブジェクトをまたいでよく一般化することを示す。
論文 参考訳(メタデータ) (2021-03-15T04:01:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。