論文の概要: Structure-Aware Human-Action Generation
- arxiv url: http://arxiv.org/abs/2007.01971v3
- Date: Sun, 16 Aug 2020 20:05:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 13:01:45.208316
- Title: Structure-Aware Human-Action Generation
- Title(参考訳): 構造認識型ヒューマンアクション生成
- Authors: Ping Yu, Yang Zhao, Chunyuan Li, Junsong Yuan, Changyou Chen
- Abstract要約: グラフ畳み込みネットワーク(GCN)は構造情報を利用して構造表現を学習する有望な方法である。
本稿では, 時間空間における完全な行動グラフを適応的にスパース化するために, 強力な自己認識機構を活用するためのGCNの変種を提案する。
提案手法は,重要な過去のフレームに動的に対応し,GCNフレームワークに適用するためのスパースグラフを構築し,その構造情報をアクションシーケンスで適切にキャプチャする。
- 参考スコア(独自算出の注目度): 126.05874420893092
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Generating long-range skeleton-based human actions has been a challenging
problem since small deviations of one frame can cause a malformed action
sequence. Most existing methods borrow ideas from video generation, which
naively treat skeleton nodes/joints as pixels of images without considering the
rich inter-frame and intra-frame structure information, leading to potential
distorted actions. Graph convolutional networks (GCNs) is a promising way to
leverage structure information to learn structure representations. However,
directly adopting GCNs to tackle such continuous action sequences both in
spatial and temporal spaces is challenging as the action graph could be huge.
To overcome this issue, we propose a variant of GCNs to leverage the powerful
self-attention mechanism to adaptively sparsify a complete action graph in the
temporal space. Our method could dynamically attend to important past frames
and construct a sparse graph to apply in the GCN framework, well-capturing the
structure information in action sequences. Extensive experimental results
demonstrate the superiority of our method on two standard human action datasets
compared with existing methods.
- Abstract(参考訳): 長距離骨格に基づく人間の行動の生成は、あるフレームの小さな偏差が不正な動作シーケンスを引き起こす可能性があるため、難しい問題となっている。
既存のほとんどの手法は、フレーム間のリッチな情報やフレーム内構造を考慮せずに、スケルトンノード/ジョイントを画像のピクセルとして鼻で扱うビデオ生成のアイデアを借用している。
グラフ畳み込みネットワーク(GCN)は構造情報を利用して構造表現を学習する有望な方法である。
しかし、空間空間と時間空間の両方において、このような連続的なアクションシーケンスにGCNを直接適用することは、アクショングラフが巨大になるため困難である。
この問題を克服するために,我々は,時間空間における完全なアクショングラフを適応的にスパースするために,強力なセルフアテンション機構を利用するgcnsの変種を提案する。
本手法は,過去の重要なフレームに動的に対応し,gcnフレームワークに適用可能な疎グラフを構築し,動作シーケンスの構造情報をよく把握する。
従来の手法と比較して,2つの標準人行動データセットにおいて,本手法の優位性を示した。
関連論文リスト
- Learning to Model Graph Structural Information on MLPs via Graph Structure Self-Contrasting [50.181824673039436]
本稿では,グラフ構造情報をメッセージパッシングなしで学習するグラフ構造自己コントラスト(GSSC)フレームワークを提案する。
提案するフレームワークは,構造情報を事前知識として暗黙的にのみ組み込む,MLP(Multi-Layer Perceptrons)に基づいている。
これはまず、近傍の潜在的非形式的あるいはノイズの多いエッジを取り除くために構造的スペーシングを適用し、その後、スペーシングされた近傍で構造的自己コントラストを行い、ロバストなノード表現を学ぶ。
論文 参考訳(メタデータ) (2024-09-09T12:56:02Z) - Dynamic Dense Graph Convolutional Network for Skeleton-based Human
Motion Prediction [14.825185477750479]
本稿では,高密度グラフを構築し,動的メッセージパッシングを実装した動的Dense Graph Convolutional Network (DD-GCN)を提案する。
そこで本研究では,データから動的に学習し,ユニークなメッセージを生成する動的メッセージパッシングフレームワークを提案する。
ベンチマークによるHuman 3.6MとCMU Mocapデータセットの実験は、DD-GCNの有効性を検証する。
論文 参考訳(メタデータ) (2023-11-29T07:25:49Z) - Local-Global Information Interaction Debiasing for Dynamic Scene Graph
Generation [51.92419880088668]
マルチタスク学習に基づく新しいDynSGGモデルDynSGG-MTLを提案する。
長期的人間の行動は、大域的な制約に適合する複数のシーングラフを生成するためにモデルを監督し、尾の述語を学べないモデルを避ける。
論文 参考訳(メタデータ) (2023-08-10T01:24:25Z) - Overcoming Topology Agnosticism: Enhancing Skeleton-Based Action
Recognition through Redefined Skeletal Topology Awareness [24.83836008577395]
グラフ畳み込みネットワーク(GCN)は長い間、骨格に基づく行動認識の最先端を定義してきた。
彼らはモデルの重みとともに隣接行列を最適化する傾向がある。
このプロセスは、骨接続データの段階的な崩壊を引き起こし、マッピングしようとしたトポロジとは無関係なモデルで終わる。
本稿では,骨の接続性をグラフ距離のパワーを利用して符号化する革新的な経路を提案する。
論文 参考訳(メタデータ) (2023-05-19T06:40:12Z) - Pose-Guided Graph Convolutional Networks for Skeleton-Based Action
Recognition [32.07659338674024]
グラフ畳み込みネットワーク(GCN)は、人体骨格を空間的および時間的グラフとしてモデル化することができる。
本研究では,高性能な人行動認識のためのマルチモーダルフレームワークとして,ポーズ誘導型GCN(PG-GCN)を提案する。
このモジュールの中核となる考え方は、トレーニング可能なグラフを使用して、スケルトンストリームから、ポーズストリームの機能を集約することで、より堅牢な機能表現能力を持つネットワークを実現することだ。
論文 参考訳(メタデータ) (2022-10-10T02:08:49Z) - SpatioTemporal Focus for Skeleton-based Action Recognition [66.8571926307011]
グラフ畳み込みネットワーク(GCN)は骨格に基づく行動認識において広く採用されている。
近年提案されている骨格に基づく行動認識法の性能は以下の要因によって制限されていると論じる。
近年の注目機構に着想を得て,アクション関連関係情報を取得するためのマルチグラインド・コンテキスト集中モジュール MCF を提案する。
論文 参考訳(メタデータ) (2022-03-31T02:45:24Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - Multi Scale Temporal Graph Networks For Skeleton-based Action
Recognition [5.970574258839858]
グラフ畳み込みネットワーク(GCN)は、関連するノードの特徴を効果的に捉え、モデルの性能を向上させる。
まず、時間的特徴と空間的特徴の整合性を無視し、特徴をノード単位とフレーム単位で抽出する。
本稿では,行動認識のための時間グラフネットワーク(TGN)と呼ばれる新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-12-05T08:08:25Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。