論文の概要: Long-term Human Motion Prediction with Scene Context
- arxiv url: http://arxiv.org/abs/2007.03672v3
- Date: Fri, 31 Jul 2020 17:23:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 20:08:34.798738
- Title: Long-term Human Motion Prediction with Scene Context
- Title(参考訳): シーンコンテキストによる長期人間の動作予測
- Authors: Zhe Cao, Hang Gao, Karttikeya Mangalam, Qi-Zhi Cai, Minh Vo, Jitendra
Malik
- Abstract要約: 人間の動きを予測するための新しい3段階フレームワークを提案する。
提案手法はまず,まず複数の人間の動作目標を抽出し,各目標に向けて3次元人間の動作経路を計画し,最後に各経路に続く3次元人間のポーズシーケンスを予測する。
- 参考スコア(独自算出の注目度): 60.096118270451974
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human movement is goal-directed and influenced by the spatial layout of the
objects in the scene. To plan future human motion, it is crucial to perceive
the environment -- imagine how hard it is to navigate a new room with lights
off. Existing works on predicting human motion do not pay attention to the
scene context and thus struggle in long-term prediction. In this work, we
propose a novel three-stage framework that exploits scene context to tackle
this task. Given a single scene image and 2D pose histories, our method first
samples multiple human motion goals, then plans 3D human paths towards each
goal, and finally predicts 3D human pose sequences following each path. For
stable training and rigorous evaluation, we contribute a diverse synthetic
dataset with clean annotations. In both synthetic and real datasets, our method
shows consistent quantitative and qualitative improvements over existing
methods.
- Abstract(参考訳): 人間の動きはゴール指向であり、シーン内の物体の空間配置に影響される。
将来の人間の動きを計画するためには、環境を知覚することが不可欠だ。
人間の動きを予測する既存の研究は、シーンの文脈に注意を払わないため、長期的な予測に苦慮している。
本研究では,この課題に対処するためのシーンコンテキストを活用する新しい3段階フレームワークを提案する。
1つのシーンイメージと2Dポーズ履歴が与えられた後、まず複数の人間の動作目標を抽出し、各目標に向けて3Dヒューマンパスを計画し、最終的に各パスに続く3Dヒューマンポーズシーケンスを予測する。
安定したトレーニングと厳密な評価のために,クリーンアノテーションを用いた多様な合成データセットを寄贈する。
合成データと実データの両方において,本手法は既存の手法に比べて一貫した定量的,定性的な改善を示す。
関連論文リスト
- Multimodal Sense-Informed Prediction of 3D Human Motions [16.71099574742631]
本研究は,2つのモーダル情報に対して高忠実度を生成するマルチモーダル・インフォームド・モーション・予測手法を提案する。
視線情報は人間の意図と見なされ、動きとシーンの特徴が組み合わさって、世代を監督するために第3の意図に注意を向ける。
実世界の2つのベンチマークにおいて,提案手法は3次元人間のポーズと軌道予測の両方において最先端の性能を達成する。
論文 参考訳(メタデータ) (2024-05-05T12:38:10Z) - Scene-aware Human Motion Forecasting via Mutual Distance Prediction [13.067687949642641]
本研究では,人体とシーン間の相互距離による人間とシーンの相互作用をモデル化する。
このような相互距離は局所的な動きと大域的な動きの両方を制約し、結果として全身的な動きは予測される。
2つのステップでパイプラインを構築し、まず将来の相互距離を予測し、次に将来の人間の動きを予測する。
論文 参考訳(メタデータ) (2023-10-01T08:32:46Z) - Staged Contact-Aware Global Human Motion Forecasting [7.930326095134298]
バーチャルリアリティー、ロボティクス、スポーツなどの多様体応用には、シーン認識のグローバルな人間の動き予測が不可欠である。
本稿では,3次元環境下でのグローバルな人間の動きを予測するための新しい3段階パイプラインSTAGを提案する。
STAGは、シーン認識のGTA-IMデータセット上で、ポーズと軌道予測の全体的な1.8%と16.2%の改善を達成する。
論文 参考訳(メタデータ) (2023-09-16T10:47:48Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - HUMANISE: Language-conditioned Human Motion Generation in 3D Scenes [54.61610144668777]
本稿では,3次元シーンで3次元人間の動きを生成できる新しいシーン・アンド・ランゲージ・コンディショニング・ジェネレーション・モデルを提案する。
実験により,我々のモデルは3次元シーンにおいて多様で意味的に一貫した人間の動きを生成できることを示した。
論文 参考訳(メタデータ) (2022-10-18T10:14:11Z) - Contact-aware Human Motion Forecasting [87.04827994793823]
我々は,3Dシーンと過去の人間の動作を与えられた将来の人間のポーズを予測することで,シーン認識型3Dモーション予測の課題に取り組む。
提案手法は,現在最先端のヒトの動作予測と,合成データと実データの両方においてヒトの合成手法より優れる。
論文 参考訳(メタデータ) (2022-10-08T07:53:19Z) - Towards Diverse and Natural Scene-aware 3D Human Motion Synthesis [117.15586710830489]
本研究では,ターゲットアクションシーケンスの誘導の下で,多様なシーンを意識した人間の動作を合成する問題に焦点をあてる。
この因子化スキームに基づいて、各サブモジュールが1つの側面をモデリングする責任を負う階層的なフレームワークが提案されている。
実験の結果,提案手法は,多様性と自然性の観点から,従来の手法よりも著しく優れていた。
論文 参考訳(メタデータ) (2022-05-25T18:20:01Z) - Scene-aware Generative Network for Human Motion Synthesis [125.21079898942347]
シーンと人間の動きの相互作用を考慮した新しい枠組みを提案する。
人間の動きの不確実性を考慮すると、このタスクを生成タスクとして定式化する。
我々は、人間の動きと文脈シーンとの整合性を強制するための識別器を備えた、GANに基づく学習アプローチを導出する。
論文 参考訳(メタデータ) (2021-05-31T09:05:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。