論文の概要: ChainHOI: Joint-based Kinematic Chain Modeling for Human-Object Interaction Generation
- arxiv url: http://arxiv.org/abs/2503.13130v1
- Date: Mon, 17 Mar 2025 12:55:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 14:56:58.283932
- Title: ChainHOI: Joint-based Kinematic Chain Modeling for Human-Object Interaction Generation
- Title(参考訳): Chainhoi:人間と物体の相互作用生成のための関節型キネマティックチェインモデリング
- Authors: Ling-An Zeng, Guohong Huang, Yi-Lin Wei, Shengbo Gu, Yu-Ming Tang, Jingke Meng, Wei-Shi Zheng,
- Abstract要約: ChainHOIはテキスト駆動型ヒューマンオブジェクトインタラクション生成の新しいアプローチである。
結合鎖と運動鎖の両方のレベルでの相互作用を明示的にモデル化する。
- 参考スコア(独自算出の注目度): 25.777159581915658
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose ChainHOI, a novel approach for text-driven human-object interaction (HOI) generation that explicitly models interactions at both the joint and kinetic chain levels. Unlike existing methods that implicitly model interactions using full-body poses as tokens, we argue that explicitly modeling joint-level interactions is more natural and effective for generating realistic HOIs, as it directly captures the geometric and semantic relationships between joints, rather than modeling interactions in the latent pose space. To this end, ChainHOI introduces a novel joint graph to capture potential interactions with objects, and a Generative Spatiotemporal Graph Convolution Network to explicitly model interactions at the joint level. Furthermore, we propose a Kinematics-based Interaction Module that explicitly models interactions at the kinetic chain level, ensuring more realistic and biomechanically coherent motions. Evaluations on two public datasets demonstrate that ChainHOI significantly outperforms previous methods, generating more realistic, and semantically consistent HOIs. Code is available \href{https://github.com/qinghuannn/ChainHOI}{here}.
- Abstract(参考訳): 本稿では,テキスト駆動型ヒューマンオブジェクトインタラクション(HOI)生成の新しいアプローチであるChainHOIを提案する。
トークンとしてフルボディポーズを用いた相互作用を暗黙的にモデル化する既存の方法とは異なり、結合レベルの相互作用を明示的にモデル化することは、潜在ポーズ空間における相互作用をモデル化するのではなく、結合間の幾何学的および意味的な関係を直接キャプチャするので、現実的なHOIを生成するのにより自然で効果的である、と我々は主張する。
この目的のために、ChainHOIは、オブジェクトとの潜在的な相互作用をキャプチャする新しいジョイントグラフと、結合レベルでの相互作用を明示的にモデル化する生成時空間グラフ畳み込みネットワークを導入している。
さらに、運動連鎖レベルでの相互作用を明示的にモデル化し、より現実的でバイオメカニカルなコヒーレントな動きを確実にするキネマティクスに基づく相互作用モジュールを提案する。
2つの公開データセットの評価は、ChainHOIが従来の方法よりも大幅に優れ、より現実的でセマンティックに一貫性のあるHOIを生成することを示している。
コードは href{https://github.com/qinghuannn/ChainHOI}{here} で入手できる。
関連論文リスト
- Efficient Explicit Joint-level Interaction Modeling with Mamba for Text-guided HOI Generation [25.770855154106453]
本稿では,テキスト誘導型人-物体相互作用を生成するための効率的な共同対話モデル(EJIM)を提案する。
EJIMはDual-branch HOI Mambaを特徴としている。
EJIM は推定時間の 5% しか使用せず, 従来の作業よりも大きなマージンで上回っていることを示す。
論文 参考訳(メタデータ) (2025-03-29T15:23:21Z) - Text-Derived Relational Graph-Enhanced Network for Skeleton-Based Action Segmentation [14.707224594220264]
本稿では,モデリングと監視の両面を強化するために,テキストDerived Graph Network (TRG-Net)を提案する。
モデリングでは、動的時空間融合モデリング (Dynamic Spatio-Temporal Fusion Modeling, D) 法は、JGT (Text-Derived Joint Graphs) とチャネル適応を組み込む。
ARIS(Absolute-Relative Inter-Class Supervision)法では、絶対クラスを正規化するためにアクション特徴とテキスト埋め込みの対比学習を用いる。
論文 参考訳(メタデータ) (2025-03-19T11:38:14Z) - InterDreamer: Zero-Shot Text to 3D Dynamic Human-Object Interaction [27.10256777126629]
本稿では,テキスト・インタラクション・ペア・データを直接学習することなく,人間と物体の相互作用を生成できる可能性を示す。
人間の行動が物体の動きにどのように影響するかをモデル化し、単純な物理を理解するために設計された世界モデルを導入する。
これらのコンポーネントを統合することで、新しいフレームワークであるInterDreamerは、ゼロショット方式でテキスト整列した3D HOIシーケンスを生成することができる。
論文 参考訳(メタデータ) (2024-03-28T17:59:30Z) - THOR: Text to Human-Object Interaction Diffusion via Relation Intervention [51.02435289160616]
我々は、リレーショナルインターベンション(THOR)を用いたテキスト誘導型ヒューマンオブジェクト相互作用拡散モデルを提案する。
各拡散段階において、テキスト誘導された人間と物体の動きを開始し、その後、人と物体の関係を利用して物体の動きに介入する。
テキスト記述をシームレスに統合するText2HOIデータセットであるText-BEHAVEを,現在最大規模で公開されている3D HOIデータセットに構築する。
論文 参考訳(メタデータ) (2024-03-17T13:17:25Z) - Scaling Up Dynamic Human-Scene Interaction Modeling [58.032368564071895]
TRUMANSは、現在利用可能な最も包括的なモーションキャプチャーHSIデータセットである。
人体全体の動きや部分レベルの物体の動きを複雑に捉えます。
本研究では,任意の長さのHSI配列を効率的に生成する拡散型自己回帰モデルを提案する。
論文 参考訳(メタデータ) (2024-03-13T15:45:04Z) - Learning Mutual Excitation for Hand-to-Hand and Human-to-Human Interaction Recognition [21.007782102151282]
相互励起グラフ畳み込み層を積み重ねた相互励起グラフ畳み込みネットワーク(me-GCN)を提案する。
Me-GCは各レイヤとグラフ畳み込み操作の各ステージで相互情報を学習する。
提案するme-GCは,最先端GCN法およびTransformer法より優れている。
論文 参考訳(メタデータ) (2024-02-04T10:00:00Z) - InterControl: Zero-shot Human Interaction Generation by Controlling Every Joint [67.6297384588837]
関節間の所望距離を維持するために,新しい制御可能な運動生成手法であるInterControlを導入する。
そこで本研究では,既成の大規模言語モデルを用いて,ヒューマンインタラクションのための結合ペア間の距離を生成できることを実証した。
論文 参考訳(メタデータ) (2023-11-27T14:32:33Z) - A Probabilistic Model Of Interaction Dynamics for Dyadic Face-to-Face
Settings [1.9544213396776275]
我々は,対面設定における対の参加者間の相互作用のダイナミクスを捉える確率論的モデルを開発した。
この相互作用エンコーディングは、あるエージェントの将来のダイナミクスを予測する際に、生成に影響を与えるために使用される。
我々のモデルは, 相互作用する力学に基づいて, モード間のデライン化に成功していることを示す。
論文 参考訳(メタデータ) (2022-07-10T23:31:27Z) - Dynamic Representation Learning with Temporal Point Processes for
Higher-Order Interaction Forecasting [8.680676599607123]
本稿では,これらの問題に対処するためのハイパーエッジ予測のための時間点プロセスモデルを提案する。
私たちの知る限りでは、動的ネットワークのハイパーエッジを予測するために時間点プロセスを使った最初の研究である。
論文 参考訳(メタデータ) (2021-12-19T14:24:37Z) - VIRT: Improving Representation-based Models for Text Matching through
Virtual Interaction [50.986371459817256]
本稿では,VIRT と呼ばれる新しいtextitVirtual InteRacTion 機構を提案する。
VIRTは、表現ベースのエンコーダに、対話ベースのモデルのように振舞いを模倣する仮想インタラクションを実行するよう要求する。
論文 参考訳(メタデータ) (2021-12-08T09:49:28Z) - A Graph-based Interactive Reasoning for Human-Object Interaction
Detection [71.50535113279551]
本稿では,HOIを推論するインタラクティブグラフ(Interactive Graph, in-Graph)という,グラフに基づくインタラクティブ推論モデルを提案する。
In-GraphNet と呼ばれる HOI を検出するための新しいフレームワークを構築した。
私たちのフレームワークはエンドツーエンドのトレーニングが可能で、人間のポーズのような高価なアノテーションはありません。
論文 参考訳(メタデータ) (2020-07-14T09:29:03Z) - Cascaded Human-Object Interaction Recognition [175.60439054047043]
マルチステージで粗大なHOI理解のためのカスケードアーキテクチャを提案する。
各段階で、インスタンスローカライゼーションネットワークは、HOI提案を段階的に洗練し、インタラクション認識ネットワークにフィードする。
慎重に設計された人間中心の関係機能により、これらの2つのモジュールは効果的な相互作用理解に向けて協調的に機能する。
論文 参考訳(メタデータ) (2020-03-09T17:05:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。