論文の概要: Temporal Consistency Two-Stream CNN for Human Motion Prediction
- arxiv url: http://arxiv.org/abs/2104.05015v1
- Date: Sun, 11 Apr 2021 13:50:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 14:11:52.239710
- Title: Temporal Consistency Two-Stream CNN for Human Motion Prediction
- Title(参考訳): 人間の動き予測のための時間一貫性2ストリームCNN
- Authors: Jin Tang, Jin Zhang, Jianqin Yin
- Abstract要約: 本研究では,二流関節情報を融合して人間の運動を予測する新しい時間的融合(tf)モジュールを提案する。
TFモジュールは、最初の予測ポーズと与えられたポーズの間の時間的連続性を高めることができる。
私たちのアプローチは、3つのベンチマークデータセットで印象的な結果をもたらします。
- 参考スコア(独自算出の注目度): 26.69027886823277
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fusion is critical for a two-stream network. In this paper, we propose a
novel temporal fusion (TF) module to fuse the two-stream joints' information to
predict human motion, including a temporal concatenation and a reinforcement
trajectory spatial-temporal (TST) block, specifically designed to keep
prediction temporal consistency. In particular, the temporal concatenation
keeps the temporal consistency of preliminary predictions from two streams.
Meanwhile, the TST block improves the spatial-temporal feature coupling.
However, the TF module can increase the temporal continuities between the first
predicted pose and the given poses and between each predicted pose. The fusion
is based on a two-stream network that consists of a dynamic velocity stream
(V-Stream) and a static position stream (P-Stream) because we found that the
joints' velocity information improves the short-term prediction, while the
joints' position information is better at long-term prediction, and they are
complementary in motion prediction. Finally, our approach achieves impressive
results on three benchmark datasets, including H3.6M, CMU-Mocap, and 3DPW in
both short-term and long-term predictions, confirming its effectiveness and
efficiency.
- Abstract(参考訳): 核融合は2ストリームネットワークにとって重要である。
本稿では、時間的結合や時間的整合性を維持するために特別に設計された強化軌道空間時間ブロックを含む2ストリーム関節の情報を融合して人間の動きを予測する新しい時間的融合(TF)モジュールを提案する。
特に、時間的結合は2つのストリームからの予備予測の時間的一貫性を維持する。
一方、TSTブロックは空間的時間的特徴結合を改善する。
しかし、tfモジュールは、第1の予測ポーズと所定のポーズと、各予測ポーズ間の時間的連続性を高めることができる。
この融合は, 動的速度流(V-Stream)と静的位置流(P-Stream)からなる2ストリームネットワークに基づいており, ジョイントの速度情報が短期予測を改善する一方, ジョイントの位置情報は長期予測において良好であり, 運動予測において相補的であることを見出した。
最後に,H3.6M,CMU-Mocap,3DPWの3つのベンチマークデータセットに対して,短期および長期の予測を行い,その有効性と有効性を確認した。
関連論文リスト
- SFTformer: A Spatial-Frequency-Temporal Correlation-Decoupling
Transformer for Radar Echo Extrapolation [15.56594998349013]
レーダエコーの空間形態と時間的進化はある程度の相関関係を示すが、それらは独立性を持っている。
レーダエコーのダイナミックスを効果的にモデル化するために,時空間相関分離変換器(SFTformer)を提案する。
HKO-7 と ChinaNorth-2021 データセットの実験結果から,SFTfomer の短時間 (1h), 中期 (2h), 長期 (3h) 降水量に優れた性能を示した。
論文 参考訳(メタデータ) (2024-02-28T04:43:41Z) - FFINet: Future Feedback Interaction Network for Motion Forecasting [46.247396728154904]
本稿では、軌道予測のための現在の観測と潜在的な未来の相互作用を集約する、新しいFuture Feedback Interaction Network(FFINet)を提案する。
我々のFFINetはArgoverse 1とArgoverse 2の動作予測ベンチマークの最先端性能を実現している。
論文 参考訳(メタデータ) (2023-11-08T07:57:29Z) - Streaming Motion Forecasting for Autonomous Driving [71.7468645504988]
ストリーミングデータにおける将来の軌跡を問うベンチマークを導入し,これを「ストリーミング予測」と呼ぶ。
我々のベンチマークは本質的に、スナップショットベースのベンチマークでは見過ごされていない安全上の問題であるエージェントの消失と再出現を捉えている。
我々は,任意のスナップショットベースの予測器をストリーミング予測器に適応させることのできる,"Predictive Streamer"と呼ばれるプラグアンドプレイメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-02T17:13:16Z) - Long-term Wind Power Forecasting with Hierarchical Spatial-Temporal
Transformer [112.12271800369741]
風力発電は、再生可能、汚染のないその他の利点により、世界中の注目を集めている。
正確な風力発電予測(WPF)は、電力系統の運用における電力変動を効果的に低減することができる。
既存の手法は主に短期的な予測のために設計されており、効果的な時空間的特徴増強が欠如している。
論文 参考訳(メタデータ) (2023-05-30T04:03:15Z) - CARD: Channel Aligned Robust Blend Transformer for Time Series
Forecasting [50.23240107430597]
本稿では,CARD(Channel Aligned Robust Blend Transformer)という特殊なトランスを設計する。
まず、CARDはチャネルに沿ったアテンション構造を導入し、信号間の時間的相関をキャプチャする。
第二に、マルチスケール知識を効率的に活用するために、異なる解像度のトークンを生成するトークンブレンドモジュールを設計する。
第3に,潜在的な過度な問題を軽減するため,時系列予測のためのロバストな損失関数を導入する。
論文 参考訳(メタデータ) (2023-05-20T05:16:31Z) - PSTN: Periodic Spatial-temporal Deep Neural Network for Traffic
Condition Prediction [8.255993195520306]
本稿では,交通条件の予測性能を改善するために,周期的深部ニューラルネットワーク(PSTN)を3つのモジュールで提案する。
まず、歴史交通情報を折り畳み、グラフ畳み込みネットワークと時間畳み込みネットワークからなるモジュールに供給する。
論文 参考訳(メタデータ) (2021-08-05T07:42:43Z) - Physics-informed Tensor-train ConvLSTM for Volumetric Velocity
Forecasting of Loop Current [6.016102212809306]
ループカレント(英: Loop Current)は、メキシコ湾におけるループカレント(LC)の速度、垂直構造、持続時間の週間予測である。
本稿では3次元地理空間データ予測のための物理インフォームド空間訓練ConvLSTMの有効性を示す。
論文 参考訳(メタデータ) (2020-08-04T19:55:57Z) - A Spatial-Temporal Attentive Network with Spatial Continuity for
Trajectory Prediction [74.00750936752418]
空間連続性をもつ空間時間減衰ネットワーク(STAN-SC)という新しいモデルを提案する。
まず、最も有用かつ重要な情報を探るために、空間的時間的注意機構を提示する。
第2に、生成軌道の空間的連続性を維持するために、シーケンスと瞬間状態情報に基づく共同特徴系列を実行する。
論文 参考訳(メタデータ) (2020-03-13T04:35:50Z) - TTPP: Temporal Transformer with Progressive Prediction for Efficient
Action Anticipation [46.28067541184604]
ビデオアクション予測は、観察されたフレームから将来のアクションカテゴリを予測することを目的としている。
現在の最先端のアプローチは主に、履歴情報を隠された状態にエンコードするために、リカレントニューラルネットワークを利用する。
本稿では,プログレッシブ予測フレームワークを用いた簡易かつ効率的な時間変換器を提案する。
論文 参考訳(メタデータ) (2020-03-07T07:59:42Z) - Spatial-Temporal Transformer Networks for Traffic Flow Forecasting [74.76852538940746]
本稿では,長期交通予測の精度を向上させるため,時空間変圧器ネットワーク(STTN)の新たなパラダイムを提案する。
具体的には、有向空間依存を動的にモデル化することにより、空間変換器と呼ばれる新しいグラフニューラルネットワークを提案する。
提案モデルにより,長期間にわたる空間的依存関係に対する高速かつスケーラブルなトレーニングが可能になる。
論文 参考訳(メタデータ) (2020-01-09T10:21:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。