論文の概要: Skeleton Split Strategies for Spatial Temporal Graph Convolution
Networks
- arxiv url: http://arxiv.org/abs/2108.01309v1
- Date: Tue, 3 Aug 2021 05:57:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-04 14:09:00.981952
- Title: Skeleton Split Strategies for Spatial Temporal Graph Convolution
Networks
- Title(参考訳): 時空間グラフ畳み込みネットワークのためのスケルトン分割戦略
- Authors: Motasem S. Alsawadi and Miguel Rio
- Abstract要約: 人体の骨格表現は、この作業に有効であることが証明されている。
骨格グラフ上で畳み込み操作を行うための新しい手法のセットを示す。
- 参考スコア(独自算出の注目度): 2.132096006921048
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A skeleton representation of the human body has been proven to be effective
for this task. The skeletons are presented in graphs form-like. However, the
topology of a graph is not structured like Euclidean-based data. Therefore, a
new set of methods to perform the convolution operation upon the skeleton graph
is presented. Our proposal is based upon the ST-GCN framework proposed by Yan
et al. [1]. In this study, we present an improved set of label mapping methods
for the ST-GCN framework. We introduce three split processes (full distance
split, connection split, and index split) as an alternative approach for the
convolution operation. To evaluate the performance, the experiments presented
in this study have been trained using two benchmark datasets: NTU-RGB+D and
Kinetics. Our results indicate that all of our split processes outperform the
previous partition strategies and are more stable during training without using
the edge importance weighting additional training parameter. Therefore, our
proposal can provide a more realistic solution for real-time applications
centred on daily living recognition systems activities for indoor environments.
- Abstract(参考訳): 人体の骨格表現は、この作業に有効であることが証明されている。
骨格はグラフ形式で表現される。
しかし、グラフのトポロジーはユークリッドベースのデータのように構成されない。
そこで,スケルトングラフ上で畳み込み演算を行う新しい手法を提案する。
我々の提案はYanらによって提案されたST-GCNフレームワークに基づいている。
[1].
本研究では,ST-GCNフレームワークにおけるラベルマッピング手法の改良について述べる。
畳み込み操作の代替手法として,3つの分割プロセス(完全距離分割,接続分割,インデックス分割)を導入する。
評価のために,NTU-RGB+DとKineeticsの2つのベンチマークデータセットを用いて実験を行った。
以上の結果から, 分割プロセスはすべて従来の分割戦略より優れており, 付加的なトレーニングパラメータの重み付けを伴わずに, トレーニング中により安定であることが示唆された。
そこで本提案手法は,屋内環境を対象とした日常生活認識システムを中心としたリアルタイムアプリケーションに,より現実的なソリューションを提供する。
関連論文リスト
- Skeleton2vec: A Self-supervised Learning Framework with Contextualized
Target Representations for Skeleton Sequence [56.092059713922744]
予測対象として高レベルな文脈化機能を使用することで,優れた性能が得られることを示す。
具体的には、シンプルで効率的な3D行動表現学習フレームワークであるSkeleton2vecを提案する。
提案するSkeleton2vecは,従来の手法より優れ,最先端の結果が得られる。
論文 参考訳(メタデータ) (2024-01-01T12:08:35Z) - Boosting Low-Data Instance Segmentation by Unsupervised Pre-training
with Saliency Prompt [103.58323875748427]
この研究は、低データ体制のための新しい教師なし事前学習ソリューションを提供する。
近年のPrompting技術の成功に触発されて,QEISモデルを強化した新しい事前学習手法を導入する。
実験結果から,本手法は3つのデータセット上でのいくつかのQEISモデルを大幅に向上させることが示された。
論文 参考訳(メタデータ) (2023-02-02T15:49:03Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - Action Recognition with Domain Invariant Features of Skeleton Image [25.519217340328442]
そこで本研究では,行動認識のための対人訓練のための新しいCNNベースの手法を提案する。
異なる視角や対象からスケルトン画像の特徴を整列させるために,2段階のドメイン対角学習を導入する。
最先端の手法と比較して、競争力のある結果が得られる。
論文 参考訳(メタデータ) (2021-11-19T08:05:54Z) - UNIK: A Unified Framework for Real-world Skeleton-based Action
Recognition [11.81043814295441]
UNIKは、データセットをまたいで一般化できる新しい骨格に基づく行動認識手法である。
実世界のビデオにおける行動認識のクロスドメイン一般化可能性について検討するため,提案したUNIKと同様に最先端のアプローチを再評価する。
その結果,提案したUNIKは,Poseticsを事前学習した上で,4つのターゲットアクション分類データセットに転送した場合に,最先端の処理性能を向上することがわかった。
論文 参考訳(メタデータ) (2021-07-19T02:00:28Z) - JOLO-GCN: Mining Joint-Centered Light-Weight Information for
Skeleton-Based Action Recognition [47.47099206295254]
本稿では,2ストリームグラフ畳み込みネットワークにおいて,人間のポーズスケルトンと共同中心の軽量情報を活用するための新しいフレームワークを提案する。
純粋なスケルトンベースのベースラインと比較して、このハイブリッドスキームは、計算とメモリのオーバーヘッドを低く保ちながら、性能を効果的に向上させる。
論文 参考訳(メタデータ) (2020-11-16T08:39:22Z) - Progressive Spatio-Temporal Graph Convolutional Network for
Skeleton-Based Human Action Recognition [97.14064057840089]
本稿では,グラフ畳み込みネットワークのためのコンパクトで問題固有のネットワークを,段階的に自動的に見つける手法を提案する。
骨格に基づく人体行動認識のための2つのデータセットの実験結果から,提案手法は競争力あるいはより優れた分類性能を有することが示された。
論文 参考訳(メタデータ) (2020-11-11T09:57:49Z) - Temporal Attention-Augmented Graph Convolutional Network for Efficient
Skeleton-Based Human Action Recognition [97.14064057840089]
グラフネットワーク(GCN)はユークリッド以外のデータ構造をモデル化するのに非常に成功した。
ほとんどのGCNベースのアクション認識手法は、計算量の多いディープフィードフォワードネットワークを使用して、全てのスケルトンをアクションで処理する。
本稿では,骨格に基づく行動認識の効率を高めるための時間的アテンションモジュール(TAM)を提案する。
論文 参考訳(メタデータ) (2020-10-23T08:01:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。