論文の概要: FORCE: Dataset and Method for Intuitive Physics Guided Human-object Interaction
- arxiv url: http://arxiv.org/abs/2403.11237v1
- Date: Sun, 17 Mar 2024 14:52:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 17:46:37.445706
- Title: FORCE: Dataset and Method for Intuitive Physics Guided Human-object Interaction
- Title(参考訳): FORCE:直観的物理ガイドによる人間と物体の相互作用のためのデータセットと方法
- Authors: Xiaohan Zhang, Bharat Lal Bhatnagar, Sebastian Starke, Ilya Petrov, Vladimir Guzov, Helisa Dhamo, Eduardo Pérez-Pellitero, Gerard Pons-Moll,
- Abstract要約: 本稿では,物理属性をモデル化し,多種多様でニュアンスのある人間と物体の相互作用をキネマティックに表現するForceモデルを提案する。
我々の重要な洞察は、人間の動きは人間の力と知覚される抵抗の相互関係によって決定されるということである。
人間の力を取り入れた実験は、多クラス動作の学習を容易にする。
- 参考スコア(独自算出の注目度): 39.810254311528354
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interactions between human and objects are influenced not only by the object's pose and shape, but also by physical attributes such as object mass and surface friction. They introduce important motion nuances that are essential for diversity and realism. Despite advancements in recent kinematics-based methods, this aspect has been overlooked. Generating nuanced human motion presents two challenges. First, it is non-trivial to learn from multi-modal human and object information derived from both the physical and non-physical attributes. Second, there exists no dataset capturing nuanced human interactions with objects of varying physical properties, hampering model development. This work addresses the gap by introducing the FORCE model, a kinematic approach for synthesizing diverse, nuanced human-object interactions by modeling physical attributes. Our key insight is that human motion is dictated by the interrelation between the force exerted by the human and the perceived resistance. Guided by a novel intuitive physics encoding, the model captures the interplay between human force and resistance. Experiments also demonstrate incorporating human force facilitates learning multi-class motion. Accompanying our model, we contribute the FORCE dataset. It features diverse, different-styled motion through interactions with varying resistances.
- Abstract(参考訳): 人間と物体の相互作用は、物体のポーズや形状だけでなく、物体の質量や表面摩擦といった物理的特性にも影響される。
彼らは多様性とリアリズムに不可欠な重要な動きニュアンスを導入している。
最近のキネマティクスに基づく手法の進歩にもかかわらず、この側面は見過ごされている。
ニュアンスド・ヒューマン・モーションの生成には2つの課題がある。
第一に、物理的属性と非物理的属性の両方から派生したマルチモーダルな人間や対象情報から学ぶことは自明ではない。
第二に、さまざまな物理的特性を持つオブジェクトとの微妙な人間のインタラクションをキャプチャするデータセットは存在せず、モデルの開発を妨げている。
本研究は,物理属性をモデル化し,多種多様でニュアンスのある人間と物体の相互作用を合成するための運動論的アプローチであるForceモデルを導入することにより,このギャップに対処する。
我々の重要な洞察は、人間の動きは人間の力と知覚される抵抗の相互関係によって決定されるということである。
新たな直感的な物理エンコーディングによって導かれるこのモデルは、人間の力と抵抗の間の相互作用を捉えている。
人間の力を取り入れた実験は、多クラス動作の学習を容易にする。
モデルを伴って、Forceデータセットをコントリビュートします。
様々な抵抗との相互作用を通じて、多様で異なるスタイルの運動を特徴とする。
関連論文リスト
- HUMOS: Human Motion Model Conditioned on Body Shape [54.20419874234214]
身体形状に基づく生成運動モデルを構築するための新しいアプローチを提案する。
非ペアデータを使ってこのモデルをトレーニングすることが可能であることを示す。
得られたモデルは、多種多様で、物理的に妥当で、動的に安定した人間の動きを生成する。
論文 参考訳(メタデータ) (2024-09-05T23:50:57Z) - PhysDreamer: Physics-Based Interaction with 3D Objects via Video Generation [62.53760963292465]
PhysDreamerは物理に基づくアプローチで、静的な3Dオブジェクトにインタラクティブなダイナミクスを与える。
本稿では, 弾性物体の多様な例について考察し, ユーザスタディを通じて合成された相互作用の現実性を評価する。
論文 参考訳(メタデータ) (2024-04-19T17:41:05Z) - in2IN: Leveraging individual Information to Generate Human INteractions [29.495166514135295]
In2IN(in2IN)は、人間と人間の動作生成を個別に記述した新しい拡散モデルである。
In2INで生成された動きと、HumanML3Dで事前訓練された1人の動きによって生成された動きとを組み合わせたモデル合成手法であるDualMDMを提案する。
論文 参考訳(メタデータ) (2024-04-15T17:59:04Z) - THOR: Text to Human-Object Interaction Diffusion via Relation Intervention [51.02435289160616]
我々は、リレーショナルインターベンション(THOR)を用いたテキスト誘導型ヒューマンオブジェクト相互作用拡散モデルを提案する。
各拡散段階において、テキスト誘導された人間と物体の動きを開始し、その後、人と物体の関係を利用して物体の動きに介入する。
テキスト記述をシームレスに統合するText2HOIデータセットであるText-BEHAVEを,現在最大規模で公開されている3D HOIデータセットに構築する。
論文 参考訳(メタデータ) (2024-03-17T13:17:25Z) - CG-HOI: Contact-Guided 3D Human-Object Interaction Generation [29.3564427724612]
テキストから動的3次元人-物体相互作用(HOI)を生成する最初の方法であるCG-HOIを提案する。
意味的に豊かな人間の動きは、しばしば孤立して起こるので、人間と物体の両方の動きを相互依存的にモデル化する。
我々は,接触に基づく人間と物体の相互作用が現実的かつ物理的に妥当なシーケンスを生成することを示す。
論文 参考訳(メタデータ) (2023-11-27T18:59:10Z) - Object Motion Guided Human Motion Synthesis [22.08240141115053]
大規模物体の操作におけるフルボディ人体動作合成の問題点について検討する。
条件付き拡散フレームワークであるOMOMO(Object Motion Guided Human Motion synthesis)を提案する。
我々は、操作対象物にスマートフォンを装着するだけで、全身の人間の操作動作をキャプチャする新しいシステムを開発した。
論文 参考訳(メタデータ) (2023-09-28T08:22:00Z) - Full-Body Articulated Human-Object Interaction [61.01135739641217]
CHAIRSは16.2時間の多目的相互作用からなる大規模な動きキャプチャーされたf-AHOIデータセットである。
CHAIRSは、対話的なプロセス全体を通して、人間と明瞭なオブジェクトの両方の3Dメッシュを提供する。
HOIにおける幾何学的関係を学習することにより,人間のポーズ推定を利用した最初のモデルが考案された。
論文 参考訳(メタデータ) (2022-12-20T19:50:54Z) - Object Properties Inferring from and Transfer for Human Interaction
Motions [51.896592493436984]
本稿では,人間のインタラクション動作のみからオブジェクト特性を推測する,きめ細かい動作認識手法を提案する。
我々は、慣性モーションキャプチャー装置を用いて、演奏者の多数のビデオと3D骨格の動きを収集する。
特に, 相互作用対象の重み, 脆弱性, デリカシーを推定することにより, 相互作用対象の同定を学習する。
論文 参考訳(メタデータ) (2020-08-20T14:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。