論文の概要: Dictionary Learning with Accumulator Neurons
- arxiv url: http://arxiv.org/abs/2205.15386v1
- Date: Mon, 30 May 2022 19:06:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-02 09:28:26.870000
- Title: Dictionary Learning with Accumulator Neurons
- Title(参考訳): 蓄積ニューロンを用いた辞書学習
- Authors: Gavin Parpart, Carlos Gonzalez, Terrence C. Stewart, Edward Kim,
Jocelyn Rego, Andrew O'Brien, Steven Nesbit, Garrett T. Kenyon and Yijing
Watkins
- Abstract要約: 本稿では,アキュムレータニューロンを用いてLCAを効率的に実装する方法を示す。
幅広い力学系における辞書学習を実証する。
我々は、アキュムレータニューロンが将来のニューロモルフィックハードウェアの強力な構成要素となる可能性が高いと結論づける。
- 参考スコア(独自算出の注目度): 7.86975267379228
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Locally Competitive Algorithm (LCA) uses local competition between
non-spiking leaky integrator neurons to infer sparse representations, allowing
for potentially real-time execution on massively parallel neuromorphic
architectures such as Intel's Loihi processor. Here, we focus on the problem of
inferring sparse representations from streaming video using dictionaries of
spatiotemporal features optimized in an unsupervised manner for sparse
reconstruction. Non-spiking LCA has previously been used to achieve
unsupervised learning of spatiotemporal dictionaries composed of convolutional
kernels from raw, unlabeled video. We demonstrate how unsupervised dictionary
learning with spiking LCA (\hbox{S-LCA}) can be efficiently implemented using
accumulator neurons, which combine a conventional leaky-integrate-and-fire
(\hbox{LIF}) spike generator with an additional state variable that is used to
minimize the difference between the integrated input and the spiking output. We
demonstrate dictionary learning across a wide range of dynamical regimes, from
graded to intermittent spiking, for inferring sparse representations of both
static images drawn from the CIFAR database as well as video frames captured
from a DVS camera. On a classification task that requires identification of the
suite from a deck of cards being rapidly flipped through as viewed by a DVS
camera, we find essentially no degradation in performance as the LCA model used
to infer sparse spatiotemporal representations migrates from graded to spiking.
We conclude that accumulator neurons are likely to provide a powerful enabling
component of future neuromorphic hardware for implementing online unsupervised
learning of spatiotemporal dictionaries optimized for sparse reconstruction of
streaming video from event based DVS cameras.
- Abstract(参考訳): Locally Competitive Algorithm (LCA)は、非スパイクリークインテグレータニューロン間の局所的な競合を利用してスパース表現を推論し、IntelのLoihiプロセッサのような大規模並列なニューロモルフィックアーキテクチャ上でのリアルタイム実行を可能にする。
本稿では,非教師付き手法で最適化した時空間的特徴の辞書を用いて,ストリーミング映像からスパース表現を推測する問題に焦点を当てる。
非スパイキングLCAは、未ラベルのビデオからの畳み込みカーネルからなる時空間辞書の教師なし学習に使われてきた。
本研究では、従来の漏れ積分・消火スパイク発生器と、統合入力とスパイク出力の差を最小限に抑えるための追加状態変数を組み合わせたアキュムレータニューロンを用いて、スパイクLCA(\hbox{S-LCA})を用いた教師なし辞書学習を効率的に行う方法を示す。
我々は,CIFARデータベースから抽出された静止画像とDVSカメラから取得したビデオフレームの両方のスパース表現を推定するために,グレードから間欠的なスパイクまで,幅広い動的状態の辞書学習を実演する。
DVSカメラで見るように、カードのデッキからスイートの識別を迅速に行う必要がある分類タスクでは、スパース時空間表現をグレードからスパイクに遷移させるのに使われるLCAモデルとして、本質的に性能の劣化は見つからない。
我々は,アキュムレータニューロンが,イベントベースDVSカメラからのストリーミング映像のスパース再構成に最適化された時空間辞書のオンライン教師なし学習を実現するために,将来のニューロモルフィックハードウェアの強力な有効成分を提供する可能性が示唆された。
関連論文リスト
- SIGMA:Sinkhorn-Guided Masked Video Modeling [69.31715194419091]
SIGMA (Sinkhorn-guided Masked Video Modelling) は、新しいビデオ事前学習法である。
時空管の特徴を,限られた数の学習可能なクラスタに均等に分散する。
10個のデータセットによる実験結果から,より高性能で時間的,堅牢な映像表現を学習する上で,SIGMAの有効性が検証された。
論文 参考訳(メタデータ) (2024-07-22T08:04:09Z) - D-NPC: Dynamic Neural Point Clouds for Non-Rigid View Synthesis from Monocular Video [53.83936023443193]
本稿では,スマートフォンのキャプチャなどのモノクロ映像から動的に新しいビューを合成する手法を導入することにより,この分野に貢献する。
我々のアプローチは、局所的な幾何学と外観を別個のハッシュエンコードされたニューラル特徴グリッドにエンコードする暗黙の時間条件のポイントクラウドである、$textitdynamic Neural point cloudとして表現されている。
論文 参考訳(メタデータ) (2024-06-14T14:35:44Z) - TVTSv2: Learning Out-of-the-box Spatiotemporal Visual Representations at
Scale [59.01246141215051]
言語指導の観点から,その劣化要因を分析した。
本稿では,テキストエンコーダの一般化能力を維持するために,教師なし事前学習戦略を提案する。
最大10億のパラメータを持つTVTSv2と呼ばれる一連のモデルを作成します。
論文 参考訳(メタデータ) (2023-05-23T15:44:56Z) - A Comparison of Temporal Encoders for Neuromorphic Keyword Spotting with
Few Neurons [0.11726720776908518]
SNNにおける時間的エンコーディングと特徴抽出のための2つの神経計算要素について検討した。
リソース効率の良いキーワードスポッティングアプリケーションは、これらのエンコーダを使用することで恩恵を受けることができるが、時間定数と重み付けを学習する手法をさらに研究する必要がある。
論文 参考訳(メタデータ) (2023-01-24T12:50:54Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Efficient Spatio-Temporal Recurrent Neural Network for Video Deblurring [39.63844562890704]
リアルタイムの劣化は、空間的および時間的に変化するぼやけ自体の複雑さのため、依然として困難な課題である。
我々はRNN細胞に残留密度ブロックを適用して、現在のフレームの空間的特徴を効率的に抽出する。
我々は、コ軸ビームスプリッタ取得システムを用いて、ペア/シャープのビデオクリップを収集し、新しいデータセット(BSD)をコミュニティにコントリビュートする。
論文 参考訳(メタデータ) (2021-06-30T12:53:02Z) - Multi-Temporal Convolutions for Human Action Recognition in Videos [83.43682368129072]
複数の解像度で抽出できる新しい時間・時間的畳み込みブロックを提案する。
提案するブロックは軽量で,任意の3D-CNNアーキテクチャに統合可能である。
論文 参考訳(メタデータ) (2020-11-08T10:40:26Z) - Multiple Instance-Based Video Anomaly Detection using Deep Temporal
Encoding-Decoding [5.255783459833821]
本稿では,監視ビデオにおける異常検出のための時間的深部符号化復号化手法を提案する。
提案手法はトレーニング期間中に異常ビデオクリップと正常ビデオクリップの両方を使用する。
提案手法は,ビデオ監視アプリケーションにおける異常検出の最先端ソリューションと同等かそれ以上に動作することを示す。
論文 参考訳(メタデータ) (2020-07-03T08:22:42Z) - Real-time Classification from Short Event-Camera Streams using
Input-filtering Neural ODEs [17.764474158122038]
イベントベースのカメラは、人間の視覚システムにインスパイアされた、新しくて効率的なセンサーである。
本稿では,DVSカメラからのイベント,強度変化ストリーム,空間座標の直接利用を提案する。
このシーケンスは、新しいエンプレ同期RNN様アーキテクチャ、入力フィルタリングニューラルネットワーク(INODE)の入力として使用される。
論文 参考訳(メタデータ) (2020-04-07T06:58:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。