論文の概要: Estimating 3D Motion and Forces of Human-Object Interactions from
Internet Videos
- arxiv url: http://arxiv.org/abs/2111.01591v1
- Date: Tue, 2 Nov 2021 13:40:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-03 14:07:11.661113
- Title: Estimating 3D Motion and Forces of Human-Object Interactions from
Internet Videos
- Title(参考訳): インターネットビデオによる物体間相互作用の3次元運動と力の推定
- Authors: Zongmian Li, Jiri Sedlar, Justin Carpentier, Ivan Laptev, Nicolas
Mansard, Josef Sivic
- Abstract要約: 一つのRGBビデオからオブジェクトと対話する人の3D動作を再構築する手法を提案する。
本手法では,被験者の3次元ポーズを物体のポーズ,接触位置,人体の接触力とともに推定する。
- 参考スコア(独自算出の注目度): 49.52070710518688
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce a method to automatically reconstruct the 3D
motion of a person interacting with an object from a single RGB video. Our
method estimates the 3D poses of the person together with the object pose, the
contact positions and the contact forces exerted on the human body. The main
contributions of this work are three-fold. First, we introduce an approach to
jointly estimate the motion and the actuation forces of the person on the
manipulated object by modeling contacts and the dynamics of the interactions.
This is cast as a large-scale trajectory optimization problem. Second, we
develop a method to automatically recognize from the input video the 2D
position and timing of contacts between the person and the object or the
ground, thereby significantly simplifying the complexity of the optimization.
Third, we validate our approach on a recent video+MoCap dataset capturing
typical parkour actions, and demonstrate its performance on a new dataset of
Internet videos showing people manipulating a variety of tools in unconstrained
environments.
- Abstract(参考訳): 本稿では,1枚のRGBビデオからオブジェクトと対話する人の3D動作を自動的に再構築する手法を提案する。
本手法は,物体の姿勢,接触位置,人体に作用する接触力と合わせて,人物の3dポーズを推定する。
この作品の主な貢献は3倍である。
まず,接点と相互作用のダイナミクスをモデル化し,操作対象上での動作と動作力を共同で推定する手法を提案する。
これは大規模な軌道最適化問題として考えられている。
次に,入力映像から物体や地盤との接触の2次元位置とタイミングを自動的に認識する手法を開発し,最適化の複雑さを大幅に単純化する。
第3に、典型的なパークアアクションをキャプチャする最近のビデオ+モキャップデータセットにおける我々のアプローチを検証するとともに、制約のない環境でさまざまなツールを操作する人々が示す、インターネットビデオの新しいデータセットでそのパフォーマンスを実証する。
関連論文リスト
- EgoGaussian: Dynamic Scene Understanding from Egocentric Video with 3D Gaussian Splatting [95.44545809256473]
エゴガウスアン(EgoGaussian)は、3Dシーンを同時に再構築し、RGBエゴセントリックな入力のみから3Dオブジェクトの動きを動的に追跡する手法である。
動的オブジェクトと背景再構築の品質の両面で,最先端技術と比較して大きな改善が見られた。
論文 参考訳(メタデータ) (2024-06-28T10:39:36Z) - DO3D: Self-supervised Learning of Decomposed Object-aware 3D Motion and
Depth from Monocular Videos [76.01906393673897]
本研究では,モノクラービデオから3次元運動と深度を協調的に学習する自己教師手法を提案する。
本システムでは,深度を推定する深度推定モジュールと,エゴモーションと3次元物体の動きを推定する新しい分解対象3次元運動推定モジュールを備える。
我々のモデルは評価されたすべての設定において優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-03-09T12:22:46Z) - ParaHome: Parameterizing Everyday Home Activities Towards 3D Generative
Modeling of Human-Object Interactions [11.32229757116179]
そこで我々は,人間と物体の動的3次元運動を,共通のホーム環境内で捉えるために設計されたParaHomeシステムを紹介した。
ParaHomeシステムを利用することで、人間と物体の相互作用の大規模なデータセットを収集する。
論文 参考訳(メタデータ) (2024-01-18T18:59:58Z) - ROAM: Robust and Object-Aware Motion Generation Using Neural Pose
Descriptors [73.26004792375556]
本稿では,3次元オブジェクト認識キャラクタ合成における新しいシーンオブジェクトへのロバストさと一般化が,参照オブジェクトを1つも持たないモーションモデルをトレーニングすることで実現可能であることを示す。
我々は、オブジェクト専用のデータセットに基づいて訓練された暗黙的な特徴表現を活用し、オブジェクトの周りのSE(3)-同変記述体フィールドをエンコードする。
本研究では,3次元仮想キャラクタの動作と相互作用の質,および未知のオブジェクトを持つシナリオに対するロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-08-24T17:59:51Z) - D3D-HOI: Dynamic 3D Human-Object Interactions from Videos [49.38319295373466]
本稿では,D3D-HOIについて紹介する。D3D-HOIは3次元オブジェクトのポーズ,形状,動きを,人間と物体の相互作用の時,地上の真理アノテーションを付加したモノクロビデオのデータセットである。
我々のデータセットは、様々な現実世界のシーンとカメラの視点から捉えた、いくつかの共通したオブジェクトで構成されている。
我々は、推定された3次元人間のポーズを利用して、物体の空間的レイアウトとダイナミクスをより正確に推定する。
論文 参考訳(メタデータ) (2021-08-19T00:49:01Z) - Kinematics-Guided Reinforcement Learning for Object-Aware 3D Ego-Pose
Estimation [25.03715978502528]
本研究では,物体の相互作用と人体動態を3次元エゴ位置推定のタスクに組み込む手法を提案する。
我々は人体の運動モデルを用いて、人間の運動の全範囲を表現し、身体の力学モデルを用いて、物理学シミュレータ内の物体と相互作用する。
これは、エゴセントリックなビデオからオブジェクトと物理的に有効な3Dフルボディインタラクションシーケンスを推定する最初の試みである。
論文 参考訳(メタデータ) (2020-11-10T00:06:43Z) - Contact and Human Dynamics from Monocular Video [73.47466545178396]
既存のディープモデルは、ほぼ正確に見えるエラーを含むビデオから2Dと3Dキネマティックのポーズを予測する。
本稿では,最初の2次元と3次元のポーズ推定を入力として,映像系列から3次元の人間の動きを推定する物理に基づく手法を提案する。
論文 参考訳(メタデータ) (2020-07-22T21:09:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。