論文の概要: Uni-Inter: Unifying 3D Human Motion Synthesis Across Diverse Interaction Contexts
- arxiv url: http://arxiv.org/abs/2511.13032v1
- Date: Mon, 17 Nov 2025 06:32:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.723754
- Title: Uni-Inter: Unifying 3D Human Motion Synthesis Across Diverse Interaction Contexts
- Title(参考訳): Uni-Inter: 双方向インタラクションコンテキストにおける3次元モーション合成の統合
- Authors: Sheng Liu, Yuanzhi Liang, Jiepeng Wang, Sidan Du, Chi Zhang, Xuelong Li,
- Abstract要約: We present Uni-Inter, a unified framework for human motion generation that support a wide range of interaction scenarios。
Uni-Interは、異種インタラクティブエンティティを共有空間にエンコードするボリューム表現であるUnified Interactive Volume (UIV)を導入している。
- 参考スコア(独自算出の注目度): 59.78384600454231
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present Uni-Inter, a unified framework for human motion generation that supports a wide range of interaction scenarios: including human-human, human-object, and human-scene-within a single, task-agnostic architecture. In contrast to existing methods that rely on task-specific designs and exhibit limited generalization, Uni-Inter introduces the Unified Interactive Volume (UIV), a volumetric representation that encodes heterogeneous interactive entities into a shared spatial field. This enables consistent relational reasoning and compound interaction modeling. Motion generation is formulated as joint-wise probabilistic prediction over the UIV, allowing the model to capture fine-grained spatial dependencies and produce coherent, context-aware behaviors. Experiments across three representative interaction tasks demonstrate that Uni-Inter achieves competitive performance and generalizes well to novel combinations of entities. These results suggest that unified modeling of compound interactions offers a promising direction for scalable motion synthesis in complex environments.
- Abstract(参考訳): 人間の動作生成のための統一的なフレームワークUni-Interは、人間-人、人-物、人間-場面を含む幅広い相互作用シナリオを、タスク非依存の単一アーキテクチャでサポートする。
タスク固有の設計に依存し、限定的な一般化を示す既存の方法とは対照的に、Uni-Interは異種対話エンティティを共有空間空間にエンコードするボリューム表現であるUnified Interactive Volume (UIV)を導入している。
これにより、一貫した関係推論と複合相互作用モデリングが可能になる。
運動生成は、UIV上での協調的確率的予測として定式化され、モデルがきめ細かな空間依存を捕捉し、コヒーレントでコンテキスト対応な振る舞いを生成できる。
3つの代表的相互作用タスクに対する実験は、Uni-Interが競争性能を達成し、新しい組み合わせの実体を一般化することを示した。
これらの結果は、複合相互作用の統一モデリングが複雑な環境でのスケーラブルな運動合成に有望な方向を与えることを示唆している。
関連論文リスト
- Learning Human-Object Interaction as Groups [52.28258599873394]
GroupHOIは、幾何学的近接性および意味的類似性の観点から文脈情報を伝播するフレームワークである。
これは、より困難な非言語間相互作用検出タスクにおいて、主要なパフォーマンスを示す。
論文 参考訳(メタデータ) (2025-10-21T07:25:10Z) - Visual-Geometric Collaborative Guidance for Affordance Learning [63.038406948791454]
本稿では,視覚的・幾何学的手がかりを取り入れた視覚・幾何学的協調学習ネットワークを提案する。
本手法は,客観的指標と視覚的品質の代表的なモデルより優れている。
論文 参考訳(メタデータ) (2024-10-15T07:35:51Z) - THOR: Text to Human-Object Interaction Diffusion via Relation Intervention [51.02435289160616]
我々は、リレーショナルインターベンション(THOR)を用いたテキスト誘導型ヒューマンオブジェクト相互作用拡散モデルを提案する。
各拡散段階において、テキスト誘導された人間と物体の動きを開始し、その後、人と物体の関係を利用して物体の動きに介入する。
テキスト記述をシームレスに統合するText2HOIデータセットであるText-BEHAVEを,現在最大規模で公開されている3D HOIデータセットに構築する。
論文 参考訳(メタデータ) (2024-03-17T13:17:25Z) - InterControl: Zero-shot Human Interaction Generation by Controlling Every Joint [67.6297384588837]
関節間の所望距離を維持するために,新しい制御可能な運動生成手法であるInterControlを導入する。
そこで本研究では,既成の大規模言語モデルを用いて,ヒューマンインタラクションのための結合ペア間の距離を生成できることを実証した。
論文 参考訳(メタデータ) (2023-11-27T14:32:33Z) - Compositional Human-Scene Interaction Synthesis with Semantic Control [16.93177243590465]
高レベルのセマンティック仕様によって制御された所定の3Dシーンと相互作用する人間を合成することを目的としている。
本研究では,3次元人体表面点と3次元物体を共同符号化したトランスフォーマーを用いた新しい生成モデルを設計する。
人間が同時に複数の物体と相互作用できる相互作用の構成的性質に着想を得て、相互作用のセマンティクスを原子間相互作用-対象対の様々な数の合成として定義する。
論文 参考訳(メタデータ) (2022-07-26T11:37:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。