論文の概要: Logsig-RNN: a novel network for robust and efficient skeleton-based
action recognition
- arxiv url: http://arxiv.org/abs/2110.13008v1
- Date: Mon, 25 Oct 2021 14:47:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 15:17:31.731428
- Title: Logsig-RNN: a novel network for robust and efficient skeleton-based
action recognition
- Title(参考訳): Logsig-RNN: 堅牢で効率的な骨格に基づく行動認識のための新しいネットワーク
- Authors: Shujian Liao, Terry Lyons, Weixin Yang, Kevin Schlegel, Hao Ni
- Abstract要約: 我々は、ログネイティブ層とリカレント型ニューラルネットワーク(RNN)を組み合わせた新しいモジュール、Logsig-RNNを提案する。
特に,簡単な経路変換層とLogsig-RNNを組み合わせることで,Chalearn2013ジェスチャデータの最先端精度を実現する。
- 参考スコア(独自算出の注目度): 3.775860173040509
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper contributes to the challenge of skeleton-based human action
recognition in videos. The key step is to develop a generic network
architecture to extract discriminative features for the spatio-temporal
skeleton data. In this paper, we propose a novel module, namely Logsig-RNN,
which is the combination of the log-signature layer and recurrent type neural
networks (RNNs). The former one comes from the mathematically principled
technology of signatures and log-signatures as representations for streamed
data, which can manage high sample rate streams, non-uniform sampling and time
series of variable length. It serves as an enhancement of the recurrent layer,
which can be conveniently plugged into neural networks. Besides we propose two
path transformation layers to significantly reduce path dimension while
retaining the essential information fed into the Logsig-RNN module. Finally,
numerical results demonstrate that replacing the RNN module by the Logsig-RNN
module in SOTA networks consistently improves the performance on both Chalearn
gesture data and NTU RGB+D 120 action data in terms of accuracy and robustness.
In particular, we achieve the state-of-the-art accuracy on Chalearn2013 gesture
data by combining simple path transformation layers with the Logsig-RNN. Codes
are available at \url{https://github.com/steveliao93/GCN_LogsigRNN}.
- Abstract(参考訳): 本稿では,ビデオにおける骨格に基づく人間行動認識の課題に寄与する。
鍵となるステップは、時空間スケルトンデータの識別特徴を抽出する汎用ネットワークアーキテクチャを開発することである。
本稿では,ログ署名層とリカレント型ニューラルネットワーク(RNN)を組み合わせた新しいモジュールであるLogsig-RNNを提案する。
前者は、ストリームデータの表現としてシグネチャとログシグネチャの数学的原理に基づく技術で、高いサンプリングレートストリーム、非一様サンプリング、可変長の時系列を管理することができる。
これはリカレント層の拡張として機能し、ニューラルネットワークに便利に接続することができる。
さらに,logsig-rnnモジュールに供給される必須情報を保持しつつ,経路寸法を大幅に削減する2つの経路変換層を提案する。
最後に,SOTAネットワークにおけるRNNモジュールをLogsig-RNNモジュールで置き換えることにより,ChalearnジェスチャデータとNTU RGB+D 120アクションデータの性能を精度とロバスト性の観点から一貫して向上させることを示す。
特に,簡単な経路変換層とLogsig-RNNを組み合わせることで,Chalearn2013ジェスチャデータの最先端精度を実現する。
コードは \url{https://github.com/steveliao93/gcn_logsigrnn} で入手できる。
関連論文リスト
- Accurate Mapping of RNNs on Neuromorphic Hardware with Adaptive Spiking Neurons [2.9410174624086025]
我々は、SigmaDelta$-low-pass RNN(lpRNN)を、レートベースのRNNをスパイクニューラルネットワーク(SNN)にマッピングするために提示する。
適応スパイキングニューロンモデルは、$SigmaDelta$-modulationを使って信号を符号化し、正確なマッピングを可能にする。
我々は、Intelのニューロモルフィック研究チップLoihiにおけるlpRNNの実装を実演する。
論文 参考訳(メタデータ) (2024-07-18T14:06:07Z) - Use of Parallel Explanatory Models to Enhance Transparency of Neural Network Configurations for Cell Degradation Detection [18.214293024118145]
我々は,ニューラルネットワークの内部動作を照らし,理解するための並列モデルを構築している。
RNNの各層が入力分布を変換して検出精度を高める方法を示す。
同時に、精度の向上を制限するために作用する副作用も発見する。
論文 参考訳(メタデータ) (2024-04-17T12:22:54Z) - A temporally and spatially local spike-based backpropagation algorithm
to enable training in hardware [0.0]
Spiking Neural Networks (SNN)は、分類タスクのためのハードウェア効率の良いアーキテクチャとして登場した。
非スパイキング人工ニューラルネットワーク(ANN)で使用される強力なバックプロパゲーション(BP)技術を採用する試みはいくつかある。
論文 参考訳(メタデータ) (2022-07-20T08:57:53Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Hybrid SNN-ANN: Energy-Efficient Classification and Object Detection for
Event-Based Vision [64.71260357476602]
イベントベースの視覚センサは、画像フレームではなく、イベントストリームの局所的な画素単位の明るさ変化を符号化する。
イベントベースセンサーによる物体認識の最近の進歩は、ディープニューラルネットワークの変換によるものである。
本稿では、イベントベースのパターン認識とオブジェクト検出のためのディープニューラルネットワークのエンドツーエンドトレーニングのためのハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-06T23:45:58Z) - Overcoming Catastrophic Forgetting in Graph Neural Networks [50.900153089330175]
破滅的な忘れは、ニューラルネットワークが新しいタスクを学ぶ前に学んだ知識を「忘れる」傾向を指します。
本稿では,この問題を克服し,グラフニューラルネットワーク(GNN)における継続学習を強化するための新しいスキームを提案する。
私たちのアプローチの中心には、トポロジ認識重量保存(TWP)と呼ばれる汎用モジュールがあります。
論文 参考訳(メタデータ) (2020-12-10T22:30:25Z) - A Temporal Neural Network Architecture for Online Learning [0.6091702876917281]
時間的ニューラルネットワーク(TNN)は、相対スパイク時間として符号化された情報を通信し、処理する。
TNNアーキテクチャを提案し、概念実証として、オンライン教師付き分類のより大きな文脈でTNNの動作を示す。
論文 参考訳(メタデータ) (2020-11-27T17:15:29Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Exploring Pre-training with Alignments for RNN Transducer based
End-to-End Speech Recognition [39.497407288772386]
リカレントニューラルネットワークトランスデューサ(RNN-T)アーキテクチャは、エンドツーエンドの自動音声認識研究において、新たなトレンドとなっている。
本研究では、外部アライメントを活用してRNN-Tモデルをシードする。
エンコーダ事前学習(encoder pre-training)と全ネットワーク事前学習( whole-network pre-training)と呼ばれる2つの異なる事前学習ソリューションが検討されている。
論文 参考訳(メタデータ) (2020-05-01T19:00:57Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。