論文の概要: Contact-aware Human Motion Forecasting
- arxiv url: http://arxiv.org/abs/2210.03954v1
- Date: Sat, 8 Oct 2022 07:53:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 17:21:02.858171
- Title: Contact-aware Human Motion Forecasting
- Title(参考訳): 接触型人間の動き予測
- Authors: Wei Mao, Miaomiao Liu, Richard Hartley, Mathieu Salzmann
- Abstract要約: 我々は,3Dシーンと過去の人間の動作を与えられた将来の人間のポーズを予測することで,シーン認識型3Dモーション予測の課題に取り組む。
提案手法は,現在最先端のヒトの動作予測と,合成データと実データの両方においてヒトの合成手法より優れる。
- 参考スコア(独自算出の注目度): 87.04827994793823
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we tackle the task of scene-aware 3D human motion forecasting,
which consists of predicting future human poses given a 3D scene and a past
human motion. A key challenge of this task is to ensure consistency between the
human and the scene, accounting for human-scene interactions. Previous attempts
to do so model such interactions only implicitly, and thus tend to produce
artifacts such as "ghost motion" because of the lack of explicit constraints
between the local poses and the global motion. Here, by contrast, we propose to
explicitly model the human-scene contacts. To this end, we introduce
distance-based contact maps that capture the contact relationships between
every joint and every 3D scene point at each time instant. We then develop a
two-stage pipeline that first predicts the future contact maps from the past
ones and the scene point cloud, and then forecasts the future human poses by
conditioning them on the predicted contact maps. During training, we explicitly
encourage consistency between the global motion and the local poses via a prior
defined using the contact maps and future poses. Our approach outperforms the
state-of-the-art human motion forecasting and human synthesis methods on both
synthetic and real datasets. Our code is available at
https://github.com/wei-mao-2019/ContAwareMotionPred.
- Abstract(参考訳): 本稿では,3dシーンと過去の人間の動きとが与える将来のポーズを予測することで,シーン認識型3dヒューマンモーション予測の課題に取り組む。
このタスクの重要な課題は、人間とシーン間の一貫性を確保することであり、人間とシーンの相互作用を説明することである。
このような相互作用を暗黙的にモデル化しようとする以前の試みは、局所的なポーズと大域的な動きの間に明確な制約がないため、"ghost motion"のような人工物を生み出す傾向があった。
ここでは,人間同士の接触を明示的にモデル化することを提案する。
この目的のために,各関節と各3次元シーンポイント間の接触関係を瞬時にキャプチャする距離ベースの接触マップを導入する。
次に,過去とシーンポイントの雲から将来の接触マップを予測し,予測した接触マップ上で条件付けして,将来の人間のポーズを予測する2段階のパイプラインを開発する。
学習中,我々は,接点マップと将来のポーズを用いて,事前定義された条件により,グローバル動作とローカルポーズの一貫性を明示的に推奨する。
本手法は,合成データと実データの両方において,最先端のヒューマンモーション予測とヒューマンシンセシス手法を上回っている。
私たちのコードはhttps://github.com/wei-mao-2019/ContAwareMotionPred.comから入手可能です。
関連論文リスト
- Social-Transmotion: Promptable Human Trajectory Prediction [65.80068316170613]
Social-Transmotionは、多種多様な視覚的手がかりを利用して人間の行動を予測する、汎用トランスフォーマーベースのモデルである。
提案手法は,JTA,JRDB,歩行者,道路交通のサイクリスト,ETH-UCYなど,複数のデータセットで検証されている。
論文 参考訳(メタデータ) (2023-12-26T18:56:49Z) - Scene-aware Human Motion Forecasting via Mutual Distance Prediction [13.067687949642641]
本研究では,人体とシーン間の相互距離による人間とシーンの相互作用をモデル化する。
このような相互距離は局所的な動きと大域的な動きの両方を制約し、結果として全身的な動きは予測される。
2つのステップでパイプラインを構築し、まず将来の相互距離を予測し、次に将来の人間の動きを予測する。
論文 参考訳(メタデータ) (2023-10-01T08:32:46Z) - Staged Contact-Aware Global Human Motion Forecasting [7.930326095134298]
バーチャルリアリティー、ロボティクス、スポーツなどの多様体応用には、シーン認識のグローバルな人間の動き予測が不可欠である。
本稿では,3次元環境下でのグローバルな人間の動きを予測するための新しい3段階パイプラインSTAGを提案する。
STAGは、シーン認識のGTA-IMデータセット上で、ポーズと軌道予測の全体的な1.8%と16.2%の改善を達成する。
論文 参考訳(メタデータ) (2023-09-16T10:47:48Z) - Learning Motion Priors for 4D Human Body Capture in 3D Scenes [81.54377747405812]
LEMO: LEMO: LEARING Human Motion priors for 4D human body capture。
提案手法では, 連続して復元されたポーズによって現れるジッタを減少させる新規な動きを事前に導入する。
また, 接触摩擦項と, 物体ごとの自己監督訓練により得られる接触認識運動充填剤を設計した。
パイプラインでは、高品質な4D人体撮影、スムーズな動きの再構築、身体とシーンの相互作用を実演しています。
論文 参考訳(メタデータ) (2021-08-23T20:47:09Z) - Synthesizing Long-Term 3D Human Motion and Interaction in 3D Scenes [27.443701512923177]
人間のモーション合成とシーンアレイアンス推論を橋渡しすることを提案する。
本研究では,3次元シーン構造上での長期人間の動作条件を合成する階層的生成フレームワークを提案する。
実験では,自然および物理的に再現可能な人間の動きをシーン内で生成する従来の手法よりも大幅に改善した。
論文 参考訳(メタデータ) (2020-12-10T09:09:38Z) - PLACE: Proximity Learning of Articulation and Contact in 3D Environments [70.50782687884839]
本研究では,人体と周囲の3Dシーンとの近接性をモデル化した新しいインタラクション生成手法PLACEを提案する。
我々の知覚学的研究は、PLACEが実際の人間とシーンの相互作用のリアリズムにアプローチし、最先端の手法を著しく改善することを示している。
論文 参考訳(メタデータ) (2020-08-12T21:00:10Z) - Socially and Contextually Aware Human Motion and Pose Forecasting [48.083060946226]
本研究では,人間の動作(あるいは骨格ポーズ)と体骨格のポーズ予測の両課題に対処するための新しい枠組みを提案する。
我々は,この予測課題における重要な手がかりとして,シーンと社会的文脈の両方を取り入れることを検討する。
提案手法は,2つのソーシャルデータセットのベースラインよりも優れた性能を実現する。
論文 参考訳(メタデータ) (2020-07-14T06:12:13Z) - Long-term Human Motion Prediction with Scene Context [60.096118270451974]
人間の動きを予測するための新しい3段階フレームワークを提案する。
提案手法はまず,まず複数の人間の動作目標を抽出し,各目標に向けて3次元人間の動作経路を計画し,最後に各経路に続く3次元人間のポーズシーケンスを予測する。
論文 参考訳(メタデータ) (2020-07-07T17:59:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。