論文の概要: Progressively Generating Better Initial Guesses Towards Next Stages for
High-Quality Human Motion Prediction
- arxiv url: http://arxiv.org/abs/2203.16051v1
- Date: Wed, 30 Mar 2022 04:35:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 15:07:00.286777
- Title: Progressively Generating Better Initial Guesses Towards Next Stages for
High-Quality Human Motion Prediction
- Title(参考訳): ハイクオリティ・ヒューマン・モーション・予測のための新しい段階に向けての進化的初期ガイダンスの作成
- Authors: Tiezheng Ma, Yongwei Nie, Chengjiang Long, Qing Zhang, and Guiqing Li
- Abstract要約: 提案手法は,予測精度の向上に有効であることを示す。
そこで本研究では,2段階の予測フレームワークを提案し,推定値の計算のみを行うinit-predictionネットワークを提案する。
我々は、このアイデアをさらに拡張し、各ステージが次のステージの初期推定を予測するマルチステージ予測フレームワークを設計する。
- 参考スコア(独自算出の注目度): 33.51444435524345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a high-quality human motion prediction method that
accurately predicts future human poses given observed ones. Our method is based
on the observation that a good initial guess of the future poses is very
helpful in improving the forecasting accuracy. This motivates us to propose a
novel two-stage prediction framework, including an init-prediction network that
just computes the good guess and then a formal-prediction network that predicts
the target future poses based on the guess. More importantly, we extend this
idea further and design a multi-stage prediction framework where each stage
predicts initial guess for the next stage, which brings more performance gain.
To fulfill the prediction task at each stage, we propose a network comprising
Spatial Dense Graph Convolutional Networks (S-DGCN) and Temporal Dense Graph
Convolutional Networks (T-DGCN). Alternatively executing the two networks helps
extract spatiotemporal features over the global receptive field of the whole
pose sequence. All the above design choices cooperating together make our
method outperform previous approaches by large margins: 6%-7% on Human3.6M,
5%-10% on CMU-MoCap, and 13%-16% on 3DPW.
- Abstract(参考訳): 本稿では,観察された人間の将来のポーズを正確に予測する高品質な人間の動作予測手法を提案する。
本手法は,予測精度の向上に有効であることを示す。
これは、良い推測を計算するためのinit-prediction networkと、推測に基づいてターゲットの将来を予測するformal-prediction networkを含む、新しい2段階予測フレームワークを提案する動機付けとなります。
さらに重要なのは、このアイデアをさらに拡張し、各ステージが次のステージの最初の推測を予測し、パフォーマンス向上をもたらす多段階予測フレームワークを設計することです。
各段階での予測タスクを実現するために,空間密グラフ畳み込みネットワーク(s-dgcn)と時間密グラフ畳み込みネットワーク(t-dgcn)からなるネットワークを提案する。
あるいは、2つのネットワークの実行は、全ポーズシーケンスのグローバルな受容領域上の時空間的特徴の抽出に役立ちます。
ヒト3.6Mでは6%-7%、CMU-MoCapでは5%-10%、3DPWでは13%-16%である。
関連論文リスト
- VEDIT: Latent Prediction Architecture For Procedural Video Representation Learning [59.68917139718813]
そこで本研究では,市販の冷凍型ビジュアルエンコーダを用いて,予測および手続き計画において,最先端(SoTA)の性能を達成可能であることを示す。
観察されたステップから凍結したクリップレベルの埋め込みを条件付けて、目に見えないステップの動作を予測することで、予測のための堅牢な表現を学習することができる。
論文 参考訳(メタデータ) (2024-10-04T14:52:09Z) - ADAPT: Efficient Multi-Agent Trajectory Prediction with Adaptation [0.0]
ADAPTはダイナミックウェイトラーニングによってシーン内の全てのエージェントの軌道を共同で予測するための新しいアプローチである。
提案手法は, 単一エージェントと複数エージェントの設定において, 最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2023-07-26T13:41:51Z) - Learning Snippet-to-Motion Progression for Skeleton-based Human Motion
Prediction [14.988322340164391]
人間の動きを予測するために既存のグラフ畳み込みネットワークは、主にワンステップのスキームを採用している。
人間の動きはトランジションパターンを持ち、各トランジションを表すスニペットに分割することができる。
動作予測をサブタスクに分割するスニペット・ツー・モーション・マルチステージ・フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-26T07:36:38Z) - DeFeeNet: Consecutive 3D Human Motion Prediction with Deviation Feedback [23.687223152464988]
既存のワンオフ予測モデルに付加可能な,シンプルで効果的なネットワークであるDeFeeNetを提案する。
提案するネットワークは,基本モデルによらず連続的な人間の動作予測性能を向上させる。
論文 参考訳(メタデータ) (2023-04-10T10:18:23Z) - A generic diffusion-based approach for 3D human pose prediction in the
wild [68.00961210467479]
3D人間のポーズ予測、すなわち、過去の観察されたポーズのシーケンスが与えられた後の人間の3Dポーズのシーケンスを予測することは、困難な時間課題である。
本稿では,不完全な要素(予測や観測に関係しない)をノイズとして扱える統一的な定式化法を提案し,それらを認知し,妥当なポーズを予測する条件拡散モデルを提案する。
本研究は,4つの標準データセットについて検討し,現状よりも大幅に改善された。
論文 参考訳(メタデータ) (2022-10-11T17:59:54Z) - MSR-GCN: Multi-Scale Residual Graph Convolution Networks for Human
Motion Prediction [34.565986275769745]
本稿では,人間のポーズ予測のためのマルチスケール残差グラフ畳み込みネットワーク(MSR-GCN)を提案する。
提案手法は、Human3.6MデータセットとCMU Mocapデータセットの2つの標準ベンチマークデータセットで評価される。
論文 参考訳(メタデータ) (2021-08-16T15:26:23Z) - Online Multi-Agent Forecasting with Interpretable Collaborative Graph
Neural Network [65.11999700562869]
複数の協調予測器からの予測を協調グラフに従って集約する新しい協調予測ユニット(CoPU)を提案する。
本手法は,3つのタスクの最先端処理を平均28.6%,17.4%,21.0%で上回っている。
論文 参考訳(メタデータ) (2021-07-02T08:20:06Z) - Panoptic Segmentation Forecasting [71.75275164959953]
我々の目標は、最近の観測結果から近い将来の予測を行うことです。
この予測能力、すなわち予測能力は、自律的なエージェントの成功に不可欠なものだと考えています。
そこで我々は,2成分モデルを構築した。一方のコンポーネントは,オードメトリーを予測して背景物の力学を学習し,他方のコンポーネントは検出された物の力学を予測する。
論文 参考訳(メタデータ) (2021-04-08T17:59:16Z) - An Adversarial Human Pose Estimation Network Injected with Graph
Structure [75.08618278188209]
本稿では,いくつかの関節が見えない場合に,可視関節の局所化精度を向上させるために,新しいGAN(Generative Adversarial Network)を設計する。
ネットワークは、2つのシンプルで効率的なモジュール、カスケード機能ネットワーク(CFN)とグラフ構造ネットワーク(GSN)で構成されています。
論文 参考訳(メタデータ) (2021-03-29T12:07:08Z) - Long-Horizon Visual Planning with Goal-Conditioned Hierarchical
Predictors [124.30562402952319]
未来に予測し、計画する能力は、世界で行動するエージェントにとって基本である。
視覚的予測と計画のための現在の学習手法は、長期的タスクでは失敗する。
本稿では,これらの制約を克服可能な視覚的予測と計画のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-23T17:58:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。