論文の概要: Learning Dynamic Correlations in Spatiotemporal Graphs for Motion
Prediction
- arxiv url: http://arxiv.org/abs/2204.01297v1
- Date: Mon, 4 Apr 2022 08:11:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-05 15:24:54.386729
- Title: Learning Dynamic Correlations in Spatiotemporal Graphs for Motion
Prediction
- Title(参考訳): 運動予測のための時空間グラフの学習動的相関
- Authors: Jiajun Fu, Fuxing Yang, Jianqin Yin
- Abstract要約: D-STD-GCは、ヒト空間グラフデータセットにおける最先端の手法よりも、最も少ないパラメータで予測精度が高い。
また,D-STD-GCは,ヒト空間グラフデータセットにおける最先端の手法よりも少ないパラメータで予測精度が高いことを示す。
- 参考スコア(独自算出の注目度): 3.915705113721551
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human motion prediction is a challenge task due to the dynamic spatiotemporal
graph correlations in different motion sequences. How to efficiently represent
spatiotemporal graph correlations and model dynamic correlation variances
between different motion sequences is a challenge for spatiotemporal graph
representation in motion prediction. In this work, we present Dynamic
SpatioTemporal Graph Convolution (DSTD-GC). The proposed DSTD-GC decomposes
dynamic spatiotemporal graph modeling into a combination of Dynamic Spatial
Graph Convolution (DS-GC) and Dynamic Temporal Graph Convolution (DT-GC). As
human motions are subject to common constraints like body connections and
present dynamic motion patterns from different samples, we present Constrained
Dynamic Correlation Modeling strategy to represent the spatial/temporal graph
as a shared spatial/temporal correlation and a function to extract
temporal-specific /spatial-specific adjustments for each sample. The modeling
strategy represents the spatiotemporal graph with 28.6\% parameters of the
state-of-the-art static decomposition representation while also explicitly
models sample-specific spatiotemporal correlation variances. Moreover, we also
mathematically reformulating spatiotemporal graph convolutions and their
decomposed variants into a unified form and find that DSTD-GC relaxes strict
constraints of other graph convolutions, leading to a stronger representation
capability. Combining DSTD-GC with prior knowledge, we propose a powerful
spatiotemporal graph convolution network called DSTD-GCN which outperforms
state-of-the-art methods on the Human3.6M and CMU Mocap datasets in prediction
accuracy with fewest parameters.
- Abstract(参考訳): 人間の動き予測は、異なる動き列における動的時空間グラフ相関による課題である。
時空間グラフ相関を効率的に表現する方法と、異なる動き列間のモデル動的相関分散は、動き予測における時空間グラフ表現の課題である。
本稿ではDSTD-GC(Dynamic SpatioTemporal Graph Convolution)を提案する。
DSTD-GCは動的時空間グラフ畳み込み(DS-GC)と動的時空間グラフ畳み込み(DT-GC)を組み合わせた動的時空間グラフモデリングを分解する。
人間の動きは, 人体とのつながりや, 異なるサンプルからの動的動きパターンなどの共通制約を受けるため, 空間的・時間的相関関係として空間的・時間的相関を表現し, サンプルごとに時間的・時空間的調整を抽出する機能を示す。
モデリング戦略は時空間グラフを28.6 %のパラメータで表現し、サンプル固有の時空間相関分散を明示的にモデル化する。
さらに、時空間グラフ畳み込みとその分解された変種を統一形式に数学的に再構成し、DSTD-GCは他のグラフ畳み込みの厳密な制約を緩和し、より強力な表現能力をもたらす。
DSTD-GCと事前知識を組み合わせたDSTD-GCNという強力な時空間グラフ畳み込みネットワークを提案する。
関連論文リスト
- A Decoupled Spatio-Temporal Framework for Skeleton-based Action
Segmentation [89.86345494602642]
既存の手法は、弱い時間的モデリング能力に制限されている。
この問題に対処するために、Decoupled Scoupled Framework (DeST)を提案する。
DeSTは計算量が少なく、現在の最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2023-12-10T09:11:39Z) - Mending of Spatio-Temporal Dependencies in Block Adjacency Matrix [3.529869282529924]
本稿では,時間的依存を考慮に入れた新たなエンドツーエンド学習アーキテクチャを提案する。
提案手法は,SurgVisDomやC2D2などのベンチマークデータセット上での優れた性能を示す。
論文 参考訳(メタデータ) (2023-10-04T06:42:33Z) - Overcoming Topology Agnosticism: Enhancing Skeleton-Based Action
Recognition through Redefined Skeletal Topology Awareness [24.83836008577395]
グラフ畳み込みネットワーク(GCN)は長い間、骨格に基づく行動認識の最先端を定義してきた。
彼らはモデルの重みとともに隣接行列を最適化する傾向がある。
このプロセスは、骨接続データの段階的な崩壊を引き起こし、マッピングしようとしたトポロジとは無関係なモデルで終わる。
本稿では,骨の接続性をグラフ距離のパワーを利用して符号化する革新的な経路を提案する。
論文 参考訳(メタデータ) (2023-05-19T06:40:12Z) - DG-STGCN: Dynamic Spatial-Temporal Modeling for Skeleton-based Action
Recognition [77.87404524458809]
骨格に基づく行動認識のための新しいフレームワーク,すなわち動的グループ時空間GCN(DG-STGCN)を提案する。
DG-GCNとDG-TCNの2つのモジュールで構成される。
DG-STGCNは最先端の手法よりも一貫して優れており、しばしば顕著な差がある。
論文 参考訳(メタデータ) (2022-10-12T03:17:37Z) - Spatial-Temporal Gating-Adjacency GCN for Human Motion Prediction [14.42671575251554]
本稿では,多様な行動型に対する複雑な時空間依存性を学習するために,時空間ゲーティング・アジャシエイトGCNを提案する。
GAGCNは短期および長期の予測において最先端の性能を達成する。
論文 参考訳(メタデータ) (2022-03-03T01:20:24Z) - Imputing Missing Observations with Time Sliced Synthetic Minority
Oversampling Technique [0.3973560285628012]
本稿では,データセット内の各サンプルに対して均一な不規則な時系列を構成することを目的とした,単純かつ斬新な時系列計算手法を提案する。
我々は、観測時間の重複しないビン(「スライス」と呼ばれる)の中間点で定義される格子を固定し、各サンプルが所定の時間にすべての特徴に対して値を持つことを保証する。
これにより、完全に欠落した観察をインプットし、データ全体の時系列の均一な分類を可能にし、特別な場合には個々の欠落した特徴をインプットすることができる。
論文 参考訳(メタデータ) (2022-01-14T19:23:24Z) - Spatio-Temporal Joint Graph Convolutional Networks for Traffic
Forecasting [75.10017445699532]
近年、時間グラフモデリング問題として交通予測の定式化に焦点が移っている。
本稿では,道路網における交通予測の精度向上のための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-25T08:45:14Z) - On the spatial attention in Spatio-Temporal Graph Convolutional Networks
for skeleton-based human action recognition [97.14064057840089]
カルチャーネットワーク(GCN)は、スケルトンをグラフとしてモデル化することで、スケルトンに基づく人間の行動認識の性能を約束する。
最近提案されたG時間に基づく手法のほとんどは、ネットワークの各層におけるグラフ構造を学習することで、性能を向上させる。
論文 参考訳(メタデータ) (2020-11-07T19:03:04Z) - Graph Gamma Process Generalized Linear Dynamical Systems [60.467040479276704]
実マルチ変数時系列をモデル化するために,グラフガンマ過程(GGP)線形力学系を導入する。
時間的パターン発見のために、モデルの下での潜在表現は、時系列を多変量部分列の同相集合に分解するために使用される。
非零次ノード数が有限であるランダムグラフを用いて、潜時状態遷移行列の空間パターンと次元の両方を定義する。
論文 参考訳(メタデータ) (2020-07-25T04:16:34Z) - Disentangling and Unifying Graph Convolutions for Skeleton-Based Action
Recognition [79.33539539956186]
本稿では,マルチスケールグラフ畳み込みと,G3Dという空間時間グラフ畳み込み演算子を結合する簡単な方法を提案する。
これらの提案を結合することにより,MS-G3Dという強力な特徴抽出器を開発し,そのモデルが3つの大規模データセット上で従来の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-03-31T11:28:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。