論文の概要: Self-cross Feature based Spiking Neural Networks for Efficient Few-shot Learning
- arxiv url: http://arxiv.org/abs/2505.07921v2
- Date: Thu, 15 May 2025 02:56:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 12:00:18.767199
- Title: Self-cross Feature based Spiking Neural Networks for Efficient Few-shot Learning
- Title(参考訳): 自己交差特徴量に基づく高能率Few-shot学習のためのスパイクニューラルネットワーク
- Authors: Qi Xu, Junyang Zhu, Dongdong Zhou, Hao Chen, Yang Liu, Jiangrong Shen, Qiang Zhang,
- Abstract要約: スパイキングニューラルネットワーク(SNN)に基づく数発の学習フレームワークを提案する。
列車の時間的スパイクダイナミクスを最適化し,識別力を高めるために,時間的効率的なトレーニング損失と情報損失の組み合わせを適用した。
- 参考スコア(独自算出の注目度): 16.156610945877986
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep neural networks (DNNs) excel in computer vision tasks, especially, few-shot learning (FSL), which is increasingly important for generalizing from limited examples. However, DNNs are computationally expensive with scalability issues in real world. Spiking Neural Networks (SNNs), with their event-driven nature and low energy consumption, are particularly efficient in processing sparse and dynamic data, though they still encounter difficulties in capturing complex spatiotemporal features and performing accurate cross-class comparisons. To further enhance the performance and efficiency of SNNs in few-shot learning, we propose a few-shot learning framework based on SNNs, which combines a self-feature extractor module and a cross-feature contrastive module to refine feature representation and reduce power consumption. We apply the combination of temporal efficient training loss and InfoNCE loss to optimize the temporal dynamics of spike trains and enhance the discriminative power. Experimental results show that the proposed FSL-SNN significantly improves the classification performance on the neuromorphic dataset N-Omniglot, and also achieves competitive performance to ANNs on static datasets such as CUB and miniImageNet with low power consumption.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)はコンピュータビジョンタスク、特に限られた例から一般化する上でますます重要になっている数ショット学習(FSL)に優れています。
しかし、DNNは計算コストが高く、現実のスケーラビリティに問題がある。
スパイキングニューラルネットワーク(SNN)は、イベント駆動の性質と低エネルギー消費により、スパースやダイナミックなデータを処理するのに特に効率的であるが、複雑な時空間の特徴を捉え、正確なクラス間比較を行うのに依然として困難である。
本研究では,SNNの自己機能抽出モジュールと,特徴表現の洗練と消費電力の削減を目的としたクロス機能コントラストモジュールを組み合わせた,SNNに基づく数ショット学習フレームワークを提案する。
スパイク列車の時間的ダイナミクスを最適化し,識別力を高めるために,時間的効率のよい訓練損失とInfoNCE損失の組み合わせを適用した。
実験の結果,提案するFSL-SNNはニューロモルフィックデータセットN-Omniglotの分類性能を著しく向上し,低消費電力のCUBやminiImageNetなどの静的データセット上でのANNとの競合性能も向上した。
関連論文リスト
- Towards Low-latency Event-based Visual Recognition with Hybrid Step-wise Distillation Spiking Neural Networks [50.32980443749865]
スパイキングニューラルネットワーク(SNN)は、低消費電力と高い生物性のために大きな注目を集めている。
現在のSNNは、ニューロモルフィックデータセットの正確性とレイテンシのバランスをとるのに苦労している。
ニューロモルフィックデータセットに適したステップワイド蒸留法(HSD)を提案する。
論文 参考訳(メタデータ) (2024-09-19T06:52:34Z) - CLIF: Complementary Leaky Integrate-and-Fire Neuron for Spiking Neural Networks [5.587069105667678]
スパイキングニューラルネットワーク(SNN)は、脳にインスパイアされたエネルギー効率のモデルである。
差別化できないスパイク機構のため、SNNを訓練することは依然として困難である。
本稿では、Leaky Integrate-and-Fire Neuron-based SNNとComplementary Leaky Integrate-and-Fire Neuronを提案する。
論文 参考訳(メタデータ) (2024-02-07T08:51:57Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Masked Spiking Transformer [6.862877794199617]
スパイキングニューラルネットワーク(SNN)とトランスフォーマーは、高エネルギー効率と高性能な性質の可能性を秘めている。
本稿では,SNN と Transformer を組み合わせた ANN-to-SNN 変換手法の利点を活用することを提案する。
本研究では、ランダムスパイク・マスキング(RSM)手法を取り入れた新しいマスケプ・スパイク・トランスフォーマー・フレームワークを導入し、余剰スパイクを発生させ、性能を犠牲にすることなくエネルギー消費を低減させる。
論文 参考訳(メタデータ) (2022-10-03T19:56:09Z) - Adaptive-SpikeNet: Event-based Optical Flow Estimation using Spiking
Neural Networks with Learnable Neuronal Dynamics [6.309365332210523]
ニューラルインスパイアされたイベント駆動処理でニューラルネットワーク(SNN)をスパイクすることで、非同期データを効率的に処理できる。
スパイク消滅問題を緩和するために,学習可能な神経力学を用いた適応型完全スパイキングフレームワークを提案する。
実験の結果,平均終端誤差(AEE)は最先端のANNと比較して平均13%減少した。
論文 参考訳(メタデータ) (2022-09-21T21:17:56Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Hybrid SNN-ANN: Energy-Efficient Classification and Object Detection for
Event-Based Vision [64.71260357476602]
イベントベースの視覚センサは、画像フレームではなく、イベントストリームの局所的な画素単位の明るさ変化を符号化する。
イベントベースセンサーによる物体認識の最近の進歩は、ディープニューラルネットワークの変換によるものである。
本稿では、イベントベースのパターン認識とオブジェクト検出のためのディープニューラルネットワークのエンドツーエンドトレーニングのためのハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-06T23:45:58Z) - Self-Supervised Learning of Event-Based Optical Flow with Spiking Neural
Networks [3.7384509727711923]
ニューロモルフィックコンピューティングの大きな課題は、従来の人工ニューラルネットワーク(ANN)の学習アルゴリズムがスパイクニューラルネットワーク(SNN)に直接転送されないことである。
本稿では,イベントベースカメラ入力からの光フロー推定における自己教師型学習問題に着目した。
提案するANNとSNNの性能は,自己教師型で訓練された現在の最先端のANNと同等であることを示す。
論文 参考訳(メタデータ) (2021-06-03T14:03:41Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - SiamSNN: Siamese Spiking Neural Networks for Energy-Efficient Object
Tracking [20.595208488431766]
SiamSNNは、視覚オブジェクト追跡ベンチマークであるTB2013, VOT2016, GOT-10kにおいて、短いレイテンシと低い精度の損失を達成する最初のディープSNNトラッカーである。
SiamSNNは、ニューロモルフィックチップTrueNorth上で低エネルギー消費とリアルタイムを実現する。
論文 参考訳(メタデータ) (2020-03-17T08:49:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。