論文の概要: SpikeCLR: Contrastive Self-Supervised Learning for Few-Shot Event-Based Vision using Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2603.16338v1
- Date: Tue, 17 Mar 2026 10:11:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.21436
- Title: SpikeCLR: Contrastive Self-Supervised Learning for Few-Shot Event-Based Vision using Spiking Neural Networks
- Title(参考訳): SpikeCLR: スパイキングニューラルネットワークを用いたFew-Shotイベントベースビジョンのためのコントラスト型自己監視学習
- Authors: Maxime Vaillant, Axel Carlier, Lai Xing Ng, Christophe Hurter, Benoit R. Cottereau,
- Abstract要約: イベントベースの視覚センサはニューロモルフィックハードウェア上に展開することができ、組み込みシステムにエネルギー効率の高い応用を可能にする。
SpikeCLRは、SNNがラベルのないイベントデータから堅牢な視覚表現を学習できるようにする、対照的な自己教師型学習フレームワークである。
- 参考スコア(独自算出の注目度): 6.343997466221382
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Event-based vision sensors provide significant advantages for high-speed perception, including microsecond temporal resolution, high dynamic range, and low power consumption. When combined with Spiking Neural Networks (SNNs), they can be deployed on neuromorphic hardware, enabling energy-efficient applications on embedded systems. However, this potential is severely limited by the scarcity of large-scale labeled datasets required to effectively train such models. In this work, we introduce SpikeCLR, a contrastive self-supervised learning framework that enables SNNs to learn robust visual representations from unlabeled event data. We adapt prior frame-based methods to the spiking domain using surrogate gradient training and introduce a suite of event-specific augmentations that leverage spatial, temporal, and polarity transformations. Through extensive experiments on CIFAR10-DVS, N-Caltech101, N-MNIST, and DVS-Gesture benchmarks, we demonstrate that self-supervised pretraining with subsequent fine-tuning outperforms supervised learning in low-data regimes, achieving consistent gains in few-shot and semi-supervised settings. Our ablation studies reveal that combining spatial and temporal augmentations is critical for learning effective spatio-temporal invariances in event data. We further show that learned representations transfer across datasets, contributing to efforts for powerful event-based models in label-scarce settings.
- Abstract(参考訳): イベントベースの視覚センサは、マイクロ秒時間分解能、高ダイナミックレンジ、低消費電力など、高速な知覚に重要な利点をもたらす。
Spiking Neural Networks (SNN)と組み合わせると、それらはニューロモルフィックなハードウェアにデプロイでき、組み込みシステムにおけるエネルギー効率の高いアプリケーションを可能にする。
しかし、このポテンシャルは、そのようなモデルを効果的に訓練するために必要な大規模ラベル付きデータセットの不足によって著しく制限されている。
本研究では、SNNがラベルのないイベントデータから堅牢な視覚表現を学習できるようにするための、対照的な自己教師型学習フレームワークであるSpikeCLRを紹介する。
本研究では, 空間的, 時間的, 極性的変換を生かした, 事象特異的拡張スイートを導入し, 先行フレームベースの手法をスパイク領域に適用する。
CIFAR10-DVS、N-Caltech101、N-MNIST、DVS-Gestureベンチマークの広範な実験を通じて、低データ体制下での教師付き学習による後続の微調整性能による自己教師付き事前訓練が、少数ショットおよび半教師付き設定において一貫した利得を達成することを実証した。
我々のアブレーション研究は、時空間増強と時空間増強を組み合わせることが、事象データにおける効果的な時空間不変性を学ぶために重要であることを明らかにしている。
さらに、学習した表現がデータセット間で転送されることを示し、ラベルスカース設定における強力なイベントベースモデルへの取り組みに寄与する。
関連論文リスト
- Energy-Aware Spike Budgeting for Continual Learning in Spiking Neural Networks for Neuromorphic Vision [0.0]
スパイキングニューラルネットワーク(SNN)に基づくニューロモルフィック視覚システムは、イベントベースおよびフレームベースのカメラに対して超低消費電力の知覚を提供する。
既存の継続学習手法は、主に人工知能ニューラルネットワーク向けに開発されており、精度とエネルギー効率を共同で最適化することはめったにない。
本研究では,連続的なSNN学習のためのエネルギーを意識したスパイク予算化フレームワークを提案する。これは,経験の再現,学習可能なインテグレート・アンド・ファイア・ニューロンパラメータ,およびデータセット固有のエネルギー制約を強制するための適応スパイクススケジューラを提案する。
論文 参考訳(メタデータ) (2026-02-12T18:15:32Z) - Learning from Dense Events: Towards Fast Spiking Neural Networks Training via Event Dataset Distillation [33.31825132631613]
イベントカメラは明るさの変化を感知し、バイナリ非同期イベントストリームを出力する。
彼らのバイオインスパイアされたダイナミクスはニューラルネットワーク(SNN)とよく一致しており、従来のビジョンシステムに代わる有望なエネルギー効率の代替手段を提供する。
本稿では,SNNにおける最初のデータセット蒸留フレームワークであるbfPACE(text-Aligned Condensation for Events)を紹介する。
論文 参考訳(メタデータ) (2025-11-15T08:20:47Z) - PredNext: Explicit Cross-View Temporal Prediction for Unsupervised Learning in Spiking Neural Networks [70.1286354746363]
Spiking Neural Networks (SNN)は、教師なし表現学習のための自然なプラットフォームを提供する。
現在の監視されていないSNNは、浅いアーキテクチャや局所的な可塑性ルールを採用しており、長期の時間的依存関係をモデル化する能力を制限する。
我々は,横断的なステップ予測とクリップ予測を通じて時間的関係を明示的にモデル化するPredNextを提案する。
論文 参考訳(メタデータ) (2025-09-29T14:27:58Z) - GazeSCRNN: Event-based Near-eye Gaze Tracking using a Spiking Neural Network [0.0]
この研究は、イベントベースの近目視追跡用に設計された新しい畳み込みリカレントニューラルネットワークであるGazeSCRNNを紹介する。
モデル処理は、Adaptive Leaky-Integrate-and-Fire(ALIF)ニューロンと、時間データのためのハイブリッドアーキテクチャを使用して、DVSカメラからのイベントストリームを処理する。
最も正確なモデルは6.034degdegの平均角誤差(MAE)と2.094mmの平均角誤差(MPE)である。
論文 参考訳(メタデータ) (2025-03-20T10:32:15Z) - ST-FiT: Inductive Spatial-Temporal Forecasting with Limited Training Data [59.78770412981611]
現実世界のアプリケーションでは、ほとんどのノードはトレーニング中に利用可能な時間データを持っていないかもしれない。
この問題に対処するために,ST-FiTというフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-14T17:51:29Z) - Spatiotemporal Graph Learning with Direct Volumetric Information Passing and Feature Enhancement [62.91536661584656]
本稿では,CeFeGNN(CeFeGNN)とCell-embeddedとFeature-enhanced Graph Neural Networkを学習用として提案する。
学習可能なセル属性を共通ノードエッジメッセージパッシングプロセスに埋め込むことで,地域特性の空間依存性をよりよく把握する。
各種PDEシステムと1つの実世界のデータセットを用いた実験により、CeFeGNNは他のベースラインと比較して優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-09-26T16:22:08Z) - Towards Low-latency Event-based Visual Recognition with Hybrid Step-wise Distillation Spiking Neural Networks [50.32980443749865]
スパイキングニューラルネットワーク(SNN)は、低消費電力と高い生物性のために大きな注目を集めている。
現在のSNNは、ニューロモルフィックデータセットの正確性とレイテンシのバランスをとるのに苦労している。
ニューロモルフィックデータセットに適したステップワイド蒸留法(HSD)を提案する。
論文 参考訳(メタデータ) (2024-09-19T06:52:34Z) - A Generative Self-Supervised Framework using Functional Connectivity in
fMRI Data [15.211387244155725]
機能的磁気共鳴イメージング(fMRI)データから抽出した機能的接続性(FC)ネットワークを訓練したディープニューラルネットワークが人気を博している。
グラフニューラルネットワーク(GNN)のFCへの適用に関する最近の研究は、FCの時間変化特性を活用することにより、モデル予測の精度と解釈可能性を大幅に向上させることができることを示唆している。
高品質なfMRIデータとそれに対応するラベルを取得するための高コストは、実環境において彼らのアプリケーションにハードルをもたらす。
本研究では,動的FC内の時間情報を効果的に活用するためのSSL生成手法を提案する。
論文 参考訳(メタデータ) (2023-12-04T16:14:43Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。