論文の概要: PA-HOI: A Physics-Aware Human and Object Interaction Dataset
- arxiv url: http://arxiv.org/abs/2508.06205v1
- Date: Fri, 08 Aug 2025 10:36:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.200584
- Title: PA-HOI: A Physics-Aware Human and Object Interaction Dataset
- Title(参考訳): PA-HOI:物理を意識した人間とオブジェクトのインタラクションデータセット
- Authors: Ruiyan Wang, Lin Zuo, Zonghao Lin, Qiang Wang, Zhengxue Cheng, Rong Xie, Jun Ling, Li Song,
- Abstract要約: PA-HOIモーションキャプチャーデータセットを導入し、物体の物理的特性が人間の運動力学に与える影響を強調した。
データセットは、人間と物体の相互作用の592の動作シーケンスと、異なる性別の被験者によって実行される各シーケンスから構成される。
このデータセットは、異なる物体の物理的属性が人間の姿勢、速度、運動スケール、相互作用戦略にどのように影響するかを理解するために、既存の物体の範囲を大きく広げることで際立っている。
- 参考スコア(独自算出の注目度): 15.985215689392179
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Human-Object Interaction (HOI) task explores the dynamic interactions between humans and objects in physical environments, providing essential biomechanical and cognitive-behavioral foundations for fields such as robotics, virtual reality, and human-computer interaction. However, existing HOI data sets focus on details of affordance, often neglecting the influence of physical properties of objects on human long-term motion. To bridge this gap, we introduce the PA-HOI Motion Capture dataset, which highlights the impact of objects' physical attributes on human motion dynamics, including human posture, moving velocity, and other motion characteristics. The dataset comprises 562 motion sequences of human-object interactions, with each sequence performed by subjects of different genders interacting with 35 3D objects that vary in size, shape, and weight. This dataset stands out by significantly extending the scope of existing ones for understanding how the physical attributes of different objects influence human posture, speed, motion scale, and interacting strategies. We further demonstrate the applicability of the PA-HOI dataset by integrating it with existing motion generation methods, validating its capacity to transfer realistic physical awareness.
- Abstract(参考訳): ヒューマン・オブジェクト・インタラクション(HOI)タスクは、物理的環境における人間と物体の動的相互作用を探求し、ロボット工学、バーチャルリアリティ、人間とコンピュータの相互作用といった分野に不可欠な生体力学的および認知的行動基盤を提供する。
しかし,既存のHOIデータセットでは,人間の長期動作に対する物体の物理的特性の影響を無視することが多い。
このギャップを埋めるために、PA-HOIモーションキャプチャーデータセットを導入し、人間の姿勢、移動速度、その他の運動特性など、物体の物理的特性が人間の運動力学に与える影響を強調した。
データセットは、人間と物体の相互作用の562のモーションシーケンスで構成され、各シーケンスはサイズ、形状、重量の異なる35の3Dオブジェクトと相互作用する異なる性別の被験者によって実行される。
このデータセットは、異なる物体の物理的属性が人間の姿勢、速度、運動スケール、相互作用戦略にどのように影響するかを理解するために、既存の物体の範囲を大きく広げることで際立っている。
さらに、PA-HOIデータセットを既存の動き生成手法と統合し、現実的な身体的認識を伝達する能力を検証することで、適用性を示す。
関連論文リスト
- FORCE: Physics-aware Human-object Interaction [39.810254311528354]
FORCEモデルは、物理的属性をモデル化することによって、多様でニュアンスのある人間と物体の相互作用に対するアプローチである。
我々の重要な洞察は、人間の動きは人間の力と知覚される抵抗の相互関係によって決定されるということである。
人間の力を取り入れた実験は、多クラス動作の学習を容易にする。
論文 参考訳(メタデータ) (2024-03-17T14:52:05Z) - THOR: Text to Human-Object Interaction Diffusion via Relation Intervention [51.02435289160616]
我々は、リレーショナルインターベンション(THOR)を用いたテキスト誘導型ヒューマンオブジェクト相互作用拡散モデルを提案する。
各拡散段階において、テキスト誘導された人間と物体の動きを開始し、その後、人と物体の関係を利用して物体の動きに介入する。
テキスト記述をシームレスに統合するText2HOIデータセットであるText-BEHAVEを,現在最大規模で公開されている3D HOIデータセットに構築する。
論文 参考訳(メタデータ) (2024-03-17T13:17:25Z) - ParaHome: Parameterizing Everyday Home Activities Towards 3D Generative Modeling of Human-Object Interactions [10.364340631868322]
そこで我々は,人間と物体の動的3次元運動を,共通のホーム環境内で捉えるために設計したParaHomeシステムを紹介した。
我々のシステムは70台のRGBカメラとIMUベースのボディスーツやハンドモーションキャプチャーグローブなどのウェアラブルモーションキャプチャー装置を備えた多視点セットアップを備えている。
ParaHomeシステムを利用することで、38人の参加者とともに、207回のキャプチャで486分間のシーケンスを含む、新たな人間とオブジェクトのインタラクションデータセットを収集する。
論文 参考訳(メタデータ) (2024-01-18T18:59:58Z) - Full-Body Articulated Human-Object Interaction [61.01135739641217]
CHAIRSは16.2時間の多目的相互作用からなる大規模な動きキャプチャーされたf-AHOIデータセットである。
CHAIRSは、対話的なプロセス全体を通して、人間と明瞭なオブジェクトの両方の3Dメッシュを提供する。
HOIにおける幾何学的関係を学習することにより,人間のポーズ推定を利用した最初のモデルが考案された。
論文 参考訳(メタデータ) (2022-12-20T19:50:54Z) - Learn to Predict How Humans Manipulate Large-sized Objects from
Interactive Motions [82.90906153293585]
本稿では,動きデータと動的記述子を融合させるグラフニューラルネットワークHO-GCNを提案する。
動的記述子を消費するネットワークは、最先端の予測結果が得られ、未確認オブジェクトへのネットワークの一般化に役立つことを示す。
論文 参考訳(メタデータ) (2022-06-25T09:55:39Z) - Object Properties Inferring from and Transfer for Human Interaction
Motions [51.896592493436984]
本稿では,人間のインタラクション動作のみからオブジェクト特性を推測する,きめ細かい動作認識手法を提案する。
我々は、慣性モーションキャプチャー装置を用いて、演奏者の多数のビデオと3D骨格の動きを収集する。
特に, 相互作用対象の重み, 脆弱性, デリカシーを推定することにより, 相互作用対象の同定を学習する。
論文 参考訳(メタデータ) (2020-08-20T14:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。