論文の概要: Learning Constrained Dynamic Correlations in Spatiotemporal Graphs for
Motion Prediction
- arxiv url: http://arxiv.org/abs/2204.01297v5
- Date: Sat, 3 Jun 2023 05:36:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 05:32:21.864774
- Title: Learning Constrained Dynamic Correlations in Spatiotemporal Graphs for
Motion Prediction
- Title(参考訳): 運動予測のための時空間グラフの学習制約付き動的相関
- Authors: Jiajun Fu, Fuxing Yang, Yonghao Dang, Xiaoli Liu, Jianqin Yin
- Abstract要約: 複雑な時間的特徴モデリングのため、人間の動作予測は困難である。
グラフ畳み込みネットワーク(GCN)内では、グラフ隣接行列が特徴集約を駆動する。
本稿では,最先端GCの28.6%しか必要としない動的時間GC(D-STD-GC)を提案する。
- 参考スコア(独自算出の注目度): 4.504430414983527
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human motion prediction is challenging due to the complex spatiotemporal
feature modeling. Among all methods, graph convolution networks (GCNs) are
extensively utilized because of their superiority in explicit connection
modeling. Within a GCN, the graph correlation adjacency matrix drives feature
aggregation and is the key to extracting predictive motion features.
State-of-the-art methods decompose the spatiotemporal correlation into spatial
correlations for each frame and temporal correlations for each joint. Directly
parameterizing these correlations introduces redundant parameters to represent
common relations shared by all frames and all joints. Besides, the
spatiotemporal graph adjacency matrix is the same for different motion samples
and cannot reflect sample-wise correspondence variances. To overcome these two
bottlenecks, we propose dynamic spatiotemporal decompose GC (DSTD-GC), which
only takes 28.6% parameters of the state-of-the-art GC. The key of DSTD-GC is
constrained dynamic correlation modeling, which explicitly parameterizes the
common static constraints as a spatial/temporal vanilla adjacency matrix shared
by all frames/joints and dynamically extracts correspondence variances for each
frame/joint with an adjustment modeling function. For each sample, the common
constrained adjacency matrices are fixed to represent generic motion patterns,
while the extracted variances complete the matrices with specific pattern
adjustments. Meanwhile, we mathematically reformulate GCs on spatiotemporal
graphs into a unified form and find that DSTD-GC relaxes certain constraints of
other GC, which contributes to a better representation capability. By combining
DSTD-GC with prior knowledge, we propose a powerful spatiotemporal GCN called
DSTD-GCN, which outperforms SOTA methods by $3.9\% \sim 8.7\%$ in prediction
accuracy with $55.0\% \sim 96.9\%$ fewer parameters.
- Abstract(参考訳): 複雑な時空間的特徴モデリングのため、人間の運動予測は困難である。
グラフ畳み込みネットワーク(GCN)は、明示的な接続モデリングにおいてその優位性のために広く利用されている。
GCN内では、グラフ相関隣接行列が特徴集約を駆動し、予測運動特徴を抽出する鍵となる。
各フレームの時空間相関と各関節の時空間相関に時空間相関を分解する。
これらの相関を直接パラメータ化することは、すべてのフレームとすべての関節で共有される共通関係を表現するために冗長パラメータを導入する。
さらに、時空間グラフの隣接行列は、異なる動きサンプルに対して同じであり、サンプルワイド対応のばらつきを反映できない。
これら2つのボトルネックを克服するために、動的時空間分解GC(DSTD-GC)を提案する。
dstd-gcの鍵は、全てのフレーム/ジョイントで共有される空間的/時間的バニラ隣接行列として、共通の静的制約を明示的にパラメータ化し、調整モデリング関数で各フレーム/ジョイントの対応分散を動的に抽出する制約付き動的相関モデリングである。
各サンプルについて、共通の制約付き隣接行列は一般的な運動パターンを表すために固定され、抽出された分散は特定のパターン調整で行列を完備する。
一方、時空間グラフ上のGCを統一形式に数学的に再構成し、DSTD-GCが他のGCの制約を緩和し、表現能力を向上する。
DSTD-GCと事前知識を組み合わせることで、DSTD-GCNと呼ばれる強力な時空間GCNを提案し、SOTA法を$3.9\% \sim 8.7\%$と$5.0\% \sim 96.9\%$より少ないパラメータで上回る。
関連論文リスト
- A Decoupled Spatio-Temporal Framework for Skeleton-based Action
Segmentation [89.86345494602642]
既存の手法は、弱い時間的モデリング能力に制限されている。
この問題に対処するために、Decoupled Scoupled Framework (DeST)を提案する。
DeSTは計算量が少なく、現在の最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2023-12-10T09:11:39Z) - Mending of Spatio-Temporal Dependencies in Block Adjacency Matrix [3.529869282529924]
本稿では,時間的依存を考慮に入れた新たなエンドツーエンド学習アーキテクチャを提案する。
提案手法は,SurgVisDomやC2D2などのベンチマークデータセット上での優れた性能を示す。
論文 参考訳(メタデータ) (2023-10-04T06:42:33Z) - Overcoming Topology Agnosticism: Enhancing Skeleton-Based Action
Recognition through Redefined Skeletal Topology Awareness [24.83836008577395]
グラフ畳み込みネットワーク(GCN)は長い間、骨格に基づく行動認識の最先端を定義してきた。
彼らはモデルの重みとともに隣接行列を最適化する傾向がある。
このプロセスは、骨接続データの段階的な崩壊を引き起こし、マッピングしようとしたトポロジとは無関係なモデルで終わる。
本稿では,骨の接続性をグラフ距離のパワーを利用して符号化する革新的な経路を提案する。
論文 参考訳(メタデータ) (2023-05-19T06:40:12Z) - DG-STGCN: Dynamic Spatial-Temporal Modeling for Skeleton-based Action
Recognition [77.87404524458809]
骨格に基づく行動認識のための新しいフレームワーク,すなわち動的グループ時空間GCN(DG-STGCN)を提案する。
DG-GCNとDG-TCNの2つのモジュールで構成される。
DG-STGCNは最先端の手法よりも一貫して優れており、しばしば顕著な差がある。
論文 参考訳(メタデータ) (2022-10-12T03:17:37Z) - Spatial-Temporal Gating-Adjacency GCN for Human Motion Prediction [14.42671575251554]
本稿では,多様な行動型に対する複雑な時空間依存性を学習するために,時空間ゲーティング・アジャシエイトGCNを提案する。
GAGCNは短期および長期の予測において最先端の性能を達成する。
論文 参考訳(メタデータ) (2022-03-03T01:20:24Z) - Imputing Missing Observations with Time Sliced Synthetic Minority
Oversampling Technique [0.3973560285628012]
本稿では,データセット内の各サンプルに対して均一な不規則な時系列を構成することを目的とした,単純かつ斬新な時系列計算手法を提案する。
我々は、観測時間の重複しないビン(「スライス」と呼ばれる)の中間点で定義される格子を固定し、各サンプルが所定の時間にすべての特徴に対して値を持つことを保証する。
これにより、完全に欠落した観察をインプットし、データ全体の時系列の均一な分類を可能にし、特別な場合には個々の欠落した特徴をインプットすることができる。
論文 参考訳(メタデータ) (2022-01-14T19:23:24Z) - Spatio-Temporal Joint Graph Convolutional Networks for Traffic
Forecasting [75.10017445699532]
近年、時間グラフモデリング問題として交通予測の定式化に焦点が移っている。
本稿では,道路網における交通予測の精度向上のための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-25T08:45:14Z) - On the spatial attention in Spatio-Temporal Graph Convolutional Networks
for skeleton-based human action recognition [97.14064057840089]
カルチャーネットワーク(GCN)は、スケルトンをグラフとしてモデル化することで、スケルトンに基づく人間の行動認識の性能を約束する。
最近提案されたG時間に基づく手法のほとんどは、ネットワークの各層におけるグラフ構造を学習することで、性能を向上させる。
論文 参考訳(メタデータ) (2020-11-07T19:03:04Z) - Graph Gamma Process Generalized Linear Dynamical Systems [60.467040479276704]
実マルチ変数時系列をモデル化するために,グラフガンマ過程(GGP)線形力学系を導入する。
時間的パターン発見のために、モデルの下での潜在表現は、時系列を多変量部分列の同相集合に分解するために使用される。
非零次ノード数が有限であるランダムグラフを用いて、潜時状態遷移行列の空間パターンと次元の両方を定義する。
論文 参考訳(メタデータ) (2020-07-25T04:16:34Z) - Disentangling and Unifying Graph Convolutions for Skeleton-Based Action
Recognition [79.33539539956186]
本稿では,マルチスケールグラフ畳み込みと,G3Dという空間時間グラフ畳み込み演算子を結合する簡単な方法を提案する。
これらの提案を結合することにより,MS-G3Dという強力な特徴抽出器を開発し,そのモデルが3つの大規模データセット上で従来の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-03-31T11:28:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。