論文の概要: REGINA - Reasoning Graph Convolutional Networks in Human Action
Recognition
- arxiv url: http://arxiv.org/abs/2105.06711v1
- Date: Fri, 14 May 2021 08:46:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-17 12:43:18.181095
- Title: REGINA - Reasoning Graph Convolutional Networks in Human Action
Recognition
- Title(参考訳): ReGINA - 人間の行動認識におけるグラフ畳み込みネットワークの推論
- Authors: Bruno Degardin, Vasco Lopes and Hugo Proen\c{c}a
- Abstract要約: 本稿では,人行動認識におけるグラフ畳み込みネットワークの推論手法について述べる。
提案された戦略は既存のGCNベースの方法で簡単に統合できる。
- 参考スコア(独自算出の注目度): 1.2891210250935146
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: It is known that the kinematics of the human body skeleton reveals valuable
information in action recognition. Recently, modeling skeletons as
spatio-temporal graphs with Graph Convolutional Networks (GCNs) has been
reported to solidly advance the state-of-the-art performance. However,
GCN-based approaches exclusively learn from raw skeleton data, and are expected
to extract the inherent structural information on their own. This paper
describes REGINA, introducing a novel way to REasoning Graph convolutional
networks IN Human Action recognition. The rationale is to provide to the GCNs
additional knowledge about the skeleton data, obtained by handcrafted features,
in order to facilitate the learning process, while guaranteeing that it remains
fully trainable in an end-to-end manner. The challenge is to capture
complementary information over the dynamics between consecutive frames, which
is the key information extracted by state-of-the-art GCN techniques. Moreover,
the proposed strategy can be easily integrated in the existing GCN-based
methods, which we also regard positively. Our experiments were carried out in
well known action recognition datasets and enabled to conclude that REGINA
contributes for solid improvements in performance when incorporated to other
GCN-based approaches, without any other adjustment regarding the original
method. For reproducibility, the REGINA code and all the experiments carried
out will be publicly available at https://github.com/DegardinBruno.
- Abstract(参考訳): 人体骨格の運動学は、行動認識において貴重な情報を明らかにすることが知られている。
近年,グラフ畳み込みネットワーク (GCNs) を用いた時空間グラフのモデル化により,最先端の性能向上が図られている。
しかし、GCNベースのアプローチは生の骨格データからのみ学習し、独自の構造情報を抽出することが期待されている。
本稿では,人間の行動認識におけるグラフ畳み込みネットワークの推論法を提案する。
その根拠は、学習プロセスを容易にするために手作りの機能によって得られた骨格データに関するさらなる知識をGCNに提供し、エンドツーエンドで完全にトレーニングできることを保証することである。
課題は、最新のGCN技術によって抽出された重要な情報である連続フレーム間のダイナミクスに関する補完的な情報を取得することである。
また,提案手法は既存のGCNベースの手法と容易に統合でき,肯定的に検討する。
本実験は、よく知られた行動認識データセットを用いて実施され、REGINAが他のGCNベースのアプローチに組み込んだ場合、元の手法に関する調整を伴わずに、パフォーマンスの向上に寄与することが結論付けられた。
再現性については、REGINAコードとすべての実験がhttps://github.com/DegardinBruno.comで公開される。
関連論文リスト
- DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - Pose-Guided Graph Convolutional Networks for Skeleton-Based Action
Recognition [32.07659338674024]
グラフ畳み込みネットワーク(GCN)は、人体骨格を空間的および時間的グラフとしてモデル化することができる。
本研究では,高性能な人行動認識のためのマルチモーダルフレームワークとして,ポーズ誘導型GCN(PG-GCN)を提案する。
このモジュールの中核となる考え方は、トレーニング可能なグラフを使用して、スケルトンストリームから、ポーズストリームの機能を集約することで、より堅牢な機能表現能力を持つネットワークを実現することだ。
論文 参考訳(メタデータ) (2022-10-10T02:08:49Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - Robust Knowledge Adaptation for Dynamic Graph Neural Networks [61.8505228728726]
動的グラフニューラルネットワークのための強化学習による堅牢な知識適応フレームワークであるAda-DyGNNを提案する。
我々のアプローチは、強化学習による堅牢な知識適応を探求する最初の試みである。
3つのベンチマークデータセットの実験は、Ada-DyGNNが最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2022-07-22T02:06:53Z) - Joint-bone Fusion Graph Convolutional Network for Semi-supervised
Skeleton Action Recognition [65.78703941973183]
本稿では,CD-JBF-GCNをエンコーダとし,ポーズ予測ヘッドをデコーダとして使用する新しい相関駆動型ジョイントボーン・フュージョングラフ畳み込みネットワークを提案する。
具体的には、CD-JBF-GCは、関節ストリームと骨ストリームの間の運動伝達を探索することができる。
自己教師型トレーニング段階におけるポーズ予測に基づくオートエンコーダにより、未ラベルデータから動作表現を学習することができる。
論文 参考訳(メタデータ) (2022-02-08T16:03:15Z) - UNIK: A Unified Framework for Real-world Skeleton-based Action
Recognition [11.81043814295441]
UNIKは、データセットをまたいで一般化できる新しい骨格に基づく行動認識手法である。
実世界のビデオにおける行動認識のクロスドメイン一般化可能性について検討するため,提案したUNIKと同様に最先端のアプローチを再評価する。
その結果,提案したUNIKは,Poseticsを事前学習した上で,4つのターゲットアクション分類データセットに転送した場合に,最先端の処理性能を向上することがわかった。
論文 参考訳(メタデータ) (2021-07-19T02:00:28Z) - Skeleton-based Hand-Gesture Recognition with Lightweight Graph
Convolutional Networks [14.924672048447338]
グラフ畳み込みネットワーク(GCN)は、グラフのような任意の不規則領域にディープラーニングを拡張することを目的としている。
GCN設計の一環として,入力グラフのトポロジを学習する新しい手法を提案する。
骨格をベースとした手の位置認識の課題に対する実験は, 学習したGCNの高効率性を示す。
論文 参考訳(メタデータ) (2021-04-09T09:06:53Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - Knowledge Embedding Based Graph Convolutional Network [35.35776808660919]
本稿では,知識埋め込みに基づくグラフ畳み込みネットワーク(KE-GCN)という新しいフレームワークを提案する。
KE-GCNはグラフベースの信念伝播におけるグラフ畳み込みネットワーク(GCN)のパワーと高度な知識埋め込み手法の強みを組み合わせたものである。
理論的解析により、KE-GCNはいくつかのよく知られたGCN法のエレガントな統一を具体例として示している。
論文 参考訳(メタデータ) (2020-06-12T17:12:51Z) - Distilling Knowledge from Graph Convolutional Networks [146.71503336770886]
既存の知識蒸留法は畳み込みニューラルネットワーク(CNN)に焦点を当てている
本稿では,事前学習したグラフ畳み込みネットワーク(GCN)モデルから知識を抽出する手法を提案する。
提案手法は,GCNモデルに対する最先端の知識蒸留性能を実現する。
論文 参考訳(メタデータ) (2020-03-23T18:23:11Z) - Feedback Graph Convolutional Network for Skeleton-based Action
Recognition [38.782491442635205]
フィードバックグラフ畳み込みネットワーク(FGCN)という新しいネットワークを提案する。
これは、GCNとアクション認識にフィードバックメカニズムを導入する最初の作業である。
3つのデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-03-17T07:20:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。