論文の概要: Spiking Neural Networks for Visual Place Recognition via Weighted
Neuronal Assignments
- arxiv url: http://arxiv.org/abs/2109.06452v1
- Date: Tue, 14 Sep 2021 05:40:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-15 15:29:11.661931
- Title: Spiking Neural Networks for Visual Place Recognition via Weighted
Neuronal Assignments
- Title(参考訳): 重み付きニューロン配置による視覚位置認識のためのスパイキングニューラルネットワーク
- Authors: Somayeh Hussaini, Michael Milford, Tobias Fischer
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、エネルギー効率と低レイテンシを含む、魅力的な潜在的な利点を提供する。
高性能SNNにとって有望な領域の1つは、テンプレートマッチングと画像認識である。
本研究では,視覚的位置認識(VPR)タスクのための最初の高性能SNNを紹介する。
- 参考スコア(独自算出の注目度): 24.754429120321365
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking neural networks (SNNs) offer both compelling potential advantages,
including energy efficiency and low latencies, and challenges including the
non-differentiable nature of event spikes. Much of the initial research in this
area has converted deep neural networks to equivalent SNNs, but this conversion
approach potentially negates some of the potential advantages of SNN-based
approaches developed from scratch. One promising area for high performance SNNs
is template matching and image recognition. This research introduces the first
high performance SNN for the Visual Place Recognition (VPR) task: given a query
image, the SNN has to find the closest match out of a list of reference images.
At the core of this new system is a novel assignment scheme that implements a
form of ambiguity-informed salience, by up-weighting single-place-encoding
neurons and down-weighting "ambiguous" neurons that respond to multiple
different reference places. In a range of experiments on the challenging Oxford
RobotCar and Nordland datasets, we show that our SNN achieves comparable VPR
performance to state-of-the-art and classical techniques, and degrades
gracefully in performance with an increasing number of reference places. Our
results provide a significant milestone towards SNNs that can provide robust,
energy-efficient and low latency robot localization.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、エネルギー効率や低レイテンシ、イベントスパイクの非微分不可能な性質を含む潜在的な利点を提供する。
この領域における初期の研究の多くは、ディープニューラルネットワークを同等のSNNに変換するが、この変換アプローチは、スクラッチから開発されたSNNベースのアプローチの潜在的な利点を否定する可能性がある。
高性能SNNにとって有望な領域はテンプレートマッチングと画像認識である。
本研究は,視覚的位置認識(VPR)タスクのための最初の高性能SNNを紹介した。クエリ画像が与えられた場合,SNNは参照画像のリストの中から最も近いマッチングを見つける必要がある。
この新しいシステムの中核は、複数の異なる参照部位に応答するシングルプレースエンコードニューロンとダウンウェイトの"あいまいな"ニューロンによって、曖昧さを損なう敬礼の形態を実装した、新しい割り当てスキームである。
オックスフォード・ロボットカーとノルトランドのデータセットに挑戦する実験において、我々のSNNは最先端技術や古典技術に匹敵するVPR性能を達成し、参照場所の増加とともに性能が低下することを示した。
我々の結果は、堅牢で省エネで低レイテンシなロボットローカライゼーションを実現するSNNにとって重要なマイルストーンとなる。
関連論文リスト
- Unveiling the Power of Sparse Neural Networks for Feature Selection [60.50319755984697]
スパースニューラルネットワーク(SNN)は、効率的な特徴選択のための強力なツールとして登場した。
動的スパーストレーニング(DST)アルゴリズムで訓練されたSNNは、平均して50%以上のメモリと55%以上のFLOPを削減できることを示す。
以上の結果から,DSTアルゴリズムで訓練したSNNによる特徴選択は,平均して50ドル以上のメモリと55%のFLOPを削減できることがわかった。
論文 参考訳(メタデータ) (2024-08-08T16:48:33Z) - Applications of Spiking Neural Networks in Visual Place Recognition [19.577433371468533]
スパイキングニューラルネットワーク(SNN)は、その潜在的なエネルギー効率と低レイテンシについて、ますます認識されている。
本稿では,視覚的位置認識(VPR)におけるSNNの3つの進歩について述べる。
まず,各SNNが重複しない地理的に異なる場所の集合を表すモジュールSNNを提案する。
次に、複数のネットワークが同じ場所を表すモジュールSNNのアンサンブルを示す。
最後に,SNNに基づくVPRにおけるシーケンスマッチングの役割について検討する。
論文 参考訳(メタデータ) (2023-11-22T06:26:24Z) - LC-TTFS: Towards Lossless Network Conversion for Spiking Neural Networks
with TTFS Coding [55.64533786293656]
我々は,AIタスクにおいて,ANNのアクティベーション値とSNNのスパイク時間とのほぼ完全なマッピングを実現することができることを示す。
この研究は、電力制約のあるエッジコンピューティングプラットフォームに超低消費電力のTTFSベースのSNNをデプロイする方法を舗装している。
論文 参考訳(メタデータ) (2023-10-23T14:26:16Z) - Inherent Redundancy in Spiking Neural Networks [24.114844269113746]
スパイキングネットワーク(SNN)は、従来の人工ニューラルネットワークに代わる有望なエネルギー効率の代替手段である。
本研究では,SNNにおける固有冗長性に関する3つの重要な疑問に焦点をあてる。
本稿では,SNNの冗長性を活用するためのアドバンストアテンション(ASA)モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-16T08:58:25Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Hybrid SNN-ANN: Energy-Efficient Classification and Object Detection for
Event-Based Vision [64.71260357476602]
イベントベースの視覚センサは、画像フレームではなく、イベントストリームの局所的な画素単位の明るさ変化を符号化する。
イベントベースセンサーによる物体認識の最近の進歩は、ディープニューラルネットワークの変換によるものである。
本稿では、イベントベースのパターン認識とオブジェクト検出のためのディープニューラルネットワークのエンドツーエンドトレーニングのためのハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-06T23:45:58Z) - Beyond Classification: Directly Training Spiking Neural Networks for
Semantic Segmentation [5.800785186389827]
ニューラルネットワークの低消費電力代替としてスパイキングニューラルネットワーク(SNN)が登場している。
本稿では,ニューロンをスパイクしたセマンティックセグメンテーションネットワークの分類を超えて,SNNの応用について検討する。
論文 参考訳(メタデータ) (2021-10-14T21:53:03Z) - Pruning of Deep Spiking Neural Networks through Gradient Rewiring [41.64961999525415]
スパイキングニューラルネットワーク(SNN)は、その生物学的妥当性とニューロモルフィックチップの高エネルギー効率により、非常に重要視されている。
ほとんどの既存の方法は、ANNsとSNNsの違いを無視するSNNsに人工ニューラルネットワーク(ANNs)のプルーニングアプローチを直接適用する。
本稿では,ネットワーク構造を無訓練でシームレスに最適化可能な,snsの接続性と重み付けの合同学習アルゴリズムgradle rewiring (gradr)を提案する。
論文 参考訳(メタデータ) (2021-05-11T10:05:53Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - SiamSNN: Siamese Spiking Neural Networks for Energy-Efficient Object
Tracking [20.595208488431766]
SiamSNNは、視覚オブジェクト追跡ベンチマークであるTB2013, VOT2016, GOT-10kにおいて、短いレイテンシと低い精度の損失を達成する最初のディープSNNトラッカーである。
SiamSNNは、ニューロモルフィックチップTrueNorth上で低エネルギー消費とリアルタイムを実現する。
論文 参考訳(メタデータ) (2020-03-17T08:49:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。