論文の概要: Object Properties Inferring from and Transfer for Human Interaction
Motions
- arxiv url: http://arxiv.org/abs/2008.08999v1
- Date: Thu, 20 Aug 2020 14:36:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 04:10:16.020978
- Title: Object Properties Inferring from and Transfer for Human Interaction
Motions
- Title(参考訳): ヒトの相互作用運動に対する物体特性の推算と伝達
- Authors: Qian Zheng, Weikai Wu, Hanting Pan, Niloy Mitra, Daniel Cohen-Or, Hui
Huang
- Abstract要約: 本稿では,人間のインタラクション動作のみからオブジェクト特性を推測する,きめ細かい動作認識手法を提案する。
我々は、慣性モーションキャプチャー装置を用いて、演奏者の多数のビデオと3D骨格の動きを収集する。
特に, 相互作用対象の重み, 脆弱性, デリカシーを推定することにより, 相互作用対象の同定を学習する。
- 参考スコア(独自算出の注目度): 51.896592493436984
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans regularly interact with their surrounding objects. Such interactions
often result in strongly correlated motion between humans and the interacting
objects. We thus ask: "Is it possible to infer object properties from skeletal
motion alone, even without seeing the interacting object itself?" In this
paper, we present a fine-grained action recognition method that learns to infer
such latent object properties from human interaction motion alone. This
inference allows us to disentangle the motion from the object property and
transfer object properties to a given motion. We collected a large number of
videos and 3D skeletal motions of the performing actors using an inertial
motion capture device. We analyze similar actions and learn subtle differences
among them to reveal latent properties of the interacting objects. In
particular, we learn to identify the interacting object, by estimating its
weight, or its fragility or delicacy. Our results clearly demonstrate that the
interaction motions and interacting objects are highly correlated and indeed
relative object latent properties can be inferred from the 3D skeleton
sequences alone, leading to new synthesis possibilities for human interaction
motions. Dataset will be available at http://vcc.szu.edu.cn/research/2020/IT.
- Abstract(参考訳): 人間は周囲の物体と定期的に対話する。
このような相互作用は、しばしば人間と相互作用する物体の間の強い相関運動をもたらす。
したがって、「相互作用する物体自体を見ることなく、骨格運動のみから物体の性質を推測することは可能か?
本稿では,このような潜在物体特性を人間のインタラクション動作のみから推測する,細粒度な行動認識手法を提案する。
この推論により、オブジェクトプロパティから動きを外し、オブジェクトプロパティを所定の動きに移すことができます。
我々は,慣性モーションキャプチャー装置を用いて,演奏者の多数のビデオと3D骨格運動を収集した。
類似した動作を分析し、それらの間の微妙な違いを学習し、相互作用するオブジェクトの潜在性を明らかにする。
特に, 相互作用対象の重量, 脆弱性, デリカシーを推定することにより, 相互作用対象の同定を学習する。
その結果, 相互作用運動と相互作用物体は高い相関関係にあり, 相対的物体潜在性は3次元骨格配列のみから推測できることが明らかとなり, ヒトの相互作用運動に対する新たな合成の可能性が示唆された。
Datasetはhttp://vcc.szu.edu.cn/research/2020/ITで利用できる。
関連論文リスト
- PhysDreamer: Physics-Based Interaction with 3D Objects via Video Generation [62.53760963292465]
PhysDreamerは物理に基づくアプローチで、静的な3Dオブジェクトにインタラクティブなダイナミクスを与える。
本稿では, 弾性物体の多様な例について考察し, ユーザスタディを通じて合成された相互作用の現実性を評価する。
論文 参考訳(メタデータ) (2024-04-19T17:41:05Z) - LEMON: Learning 3D Human-Object Interaction Relation from 2D Images [56.6123961391372]
人間の物体と物体の相互作用関係の学習は、AIと相互作用モデリングの具体化に不可欠である。
既存のほとんどの手法は、孤立した相互作用要素を予測することを学ぶことで目標に近づいている。
本稿では,相互の相互作用意図をマイニングし,幾何相関の抽出を導出するための曲率を用いた統一モデルLEMONを提案する。
論文 参考訳(メタデータ) (2023-12-14T14:10:57Z) - CG-HOI: Contact-Guided 3D Human-Object Interaction Generation [29.3564427724612]
テキストから動的3次元人-物体相互作用(HOI)を生成する最初の方法であるCG-HOIを提案する。
意味的に豊かな人間の動きは、しばしば孤立して起こるので、人間と物体の両方の動きを相互依存的にモデル化する。
我々は,接触に基づく人間と物体の相互作用が現実的かつ物理的に妥当なシーケンスを生成することを示す。
論文 参考訳(メタデータ) (2023-11-27T18:59:10Z) - Object Motion Guided Human Motion Synthesis [22.08240141115053]
大規模物体の操作におけるフルボディ人体動作合成の問題点について検討する。
条件付き拡散フレームワークであるOMOMO(Object Motion Guided Human Motion synthesis)を提案する。
我々は、操作対象物にスマートフォンを装着するだけで、全身の人間の操作動作をキャプチャする新しいシステムを開発した。
論文 参考訳(メタデータ) (2023-09-28T08:22:00Z) - GRIP: Generating Interaction Poses Using Spatial Cues and Latent Consistency [57.9920824261925]
手は器用で多用途なマニピュレータであり、人間が物体や環境とどのように相互作用するかの中心である。
現実的な手オブジェクトの相互作用をモデル化することは、コンピュータグラフィックス、コンピュータビジョン、混合現実の応用において重要である。
GRIPは、体と物体の3次元運動を入力として取り、物体の相互作用の前、中、後の両方の両手の現実的な動きを合成する学習ベースの手法である。
論文 参考訳(メタデータ) (2023-08-22T17:59:51Z) - NIFTY: Neural Object Interaction Fields for Guided Human Motion
Synthesis [21.650091018774972]
我々は、特定の物体に付随する神経相互作用場を作成し、人間のポーズを入力として与えられた有効な相互作用多様体までの距離を出力する。
この相互作用場は、対象条件付きヒトの運動拡散モデルのサンプリングを導く。
いくつかの物体で座ったり持ち上げたりするための現実的な動きを合成し、動きの質や動作完了の成功の観点から、代替のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-07-14T17:59:38Z) - Full-Body Articulated Human-Object Interaction [61.01135739641217]
CHAIRSは16.2時間の多目的相互作用からなる大規模な動きキャプチャーされたf-AHOIデータセットである。
CHAIRSは、対話的なプロセス全体を通して、人間と明瞭なオブジェクトの両方の3Dメッシュを提供する。
HOIにおける幾何学的関係を学習することにより,人間のポーズ推定を利用した最初のモデルが考案された。
論文 参考訳(メタデータ) (2022-12-20T19:50:54Z) - IMoS: Intent-Driven Full-Body Motion Synthesis for Human-Object
Interactions [69.95820880360345]
そこで本研究では,仮想人物の全身動作を3Dオブジェクトで合成する最初のフレームワークを提案する。
本システムでは,オブジェクトと仮想文字の関連意図を入力テキストとして記述する。
その結果, 80%以上のシナリオにおいて, 合成された全身運動は参加者よりリアルに見えることがわかった。
論文 参考訳(メタデータ) (2022-12-14T23:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。