論文の概要: SpikeMatch: Semi-Supervised Learning with Temporal Dynamics of Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2509.22581v1
- Date: Fri, 26 Sep 2025 17:01:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.60278
- Title: SpikeMatch: Semi-Supervised Learning with Temporal Dynamics of Spiking Neural Networks
- Title(参考訳): SpikeMatch:スパイクニューラルネットワークの時間ダイナミクスを用いた半教師付き学習
- Authors: Jini Yang, Beomseok Oh, Seungryong Kim, Sunok Kim,
- Abstract要約: SpikeMatchは、スパイキングニューラルネットワーク(SNN)のための、最初の半教師付き学習フレームワークである。
SpikeMatchは、弱い拡張された未ラベルのサンプルから信頼できる擬似ラベルを生成し、強化されたサンプルでトレーニングする。
実験によると、SpikeMatchは、SNNバックボーンに適合する既存のSSLメソッドを、さまざまな標準ベンチマークで上回っている。
- 参考スコア(独自算出の注目度): 41.95668636094724
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking neural networks (SNNs) have recently been attracting significant attention for their biological plausibility and energy efficiency, but semi-supervised learning (SSL) methods for SNN-based models remain underexplored compared to those for artificial neural networks (ANNs). In this paper, we introduce SpikeMatch, the first SSL framework for SNNs that leverages the temporal dynamics through the leakage factor of SNNs for diverse pseudo-labeling within a co-training framework. By utilizing agreement among multiple predictions from a single SNN, SpikeMatch generates reliable pseudo-labels from weakly-augmented unlabeled samples to train on strongly-augmented ones, effectively mitigating confirmation bias by capturing discriminative features with limited labels. Experiments show that SpikeMatch outperforms existing SSL methods adapted to SNN backbones across various standard benchmarks.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、最近、その生物学的妥当性とエネルギー効率に大きな注目を集めているが、SNNベースのモデルに対する半教師付き学習(SSL)手法は、人工ニューラルネットワーク(ANN)と比較してまだ未熟である。
本稿では,SNNに対するSSLフレームワークであるSpikeMatchを紹介する。このフレームワークは,SNNの漏洩係数を通した時間的ダイナミクスを利用して,協調学習フレームワーク内での擬似ラベルの多様化を実現する。
単一のSNNからの複数の予測の一致を利用して、SpikeMatchは、弱いラベル付きサンプルから信頼できる擬似ラベルを生成し、強化されたサンプルでトレーニングし、限られたラベルで識別的特徴をキャプチャすることで、検証バイアスを効果的に軽減する。
実験によると、SpikeMatchは、SNNバックボーンに適合する既存のSSLメソッドを、さまざまな標準ベンチマークで上回っている。
関連論文リスト
- A Self-Ensemble Inspired Approach for Effective Training of Binary-Weight Spiking Neural Networks [66.80058515743468]
トレーニングスパイキングニューラルネットワーク(SNN)とバイナリニューラルネットワーク(BNN)は、差別化不可能なスパイク生成機能のために困難である。
本稿では, バックプロパゲーションプロセスの解析を通じて, SNN の力学とBNN との密接な関係を考察する。
具体的には、複数のショートカットの構造と知識蒸留に基づくトレーニング技術を活用し、(バイナリウェイト)SNNのトレーニングを改善する。
論文 参考訳(メタデータ) (2025-08-18T04:11:06Z) - RSC-SNN: Exploring the Trade-off Between Adversarial Robustness and Accuracy in Spiking Neural Networks via Randomized Smoothing Coding [17.342181435229573]
スパイキングニューラルネットワーク(SNN)は、そのユニークな神経力学と低出力の性質により、広く注目を集めている。
以前の研究では、Poissonコーディングを持つSNNは、小規模データセット上のArtificial Neural Networks(ANN)よりも堅牢であることが実証されている。
この研究は理論上、SNNの固有の対向ロバスト性はポアソン符号に由来することを証明している。
論文 参考訳(メタデータ) (2024-07-29T15:26:15Z) - Spiking Convolutional Neural Networks for Text Classification [15.10637945787922]
スパイキングニューラルネットワーク(SNN)は、よりエネルギー効率の良い方法でディープニューラルネットワーク(DNN)を実装するための有望な経路を提供する。
本研究では、テキスト分類のためのSNNの「変換+微調整」2段階法を提案し、事前学習した単語埋め込みをスパイクトレインとしてエンコードする簡易かつ効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-06-27T14:54:27Z) - Inherent Redundancy in Spiking Neural Networks [24.114844269113746]
スパイキングネットワーク(SNN)は、従来の人工ニューラルネットワークに代わる有望なエネルギー効率の代替手段である。
本研究では,SNNにおける固有冗長性に関する3つの重要な疑問に焦点をあてる。
本稿では,SNNの冗長性を活用するためのアドバンストアテンション(ASA)モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-16T08:58:25Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Spatial-Temporal-Fusion BNN: Variational Bayesian Feature Layer [77.78479877473899]
我々は,BNNを大規模モデルに効率的にスケールするための時空間BNNを設計する。
バニラBNNと比較して,本手法はトレーニング時間とパラメータ数を著しく削減し,BNNのスケールアップに有効である。
論文 参考訳(メタデータ) (2021-12-12T17:13:14Z) - Spiking Generative Adversarial Networks With a Neural Network
Discriminator: Local Training, Bayesian Models, and Continual Meta-Learning [31.78005607111787]
スパイキングパターンを再現するためにニューラルネットワークを訓練することは、ニューロモルフィックコンピューティングにおける中心的な問題である。
この研究は、個々のスパイキング信号ではなく、スパイキング信号にマッチするようにSNNを訓練することを提案する。
論文 参考訳(メタデータ) (2021-11-02T17:20:54Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - Weight-Covariance Alignment for Adversarially Robust Neural Networks [15.11530043291188]
本稿では,対人訓練に頼らずに最先端のパフォーマンスを実現する新しいSNNを提案する。
既存のSNNは学習あるいは手動等方性雑音を注入するが、SNNは異方性雑音分布を学習し、対向的ロバスト性に対する学習理論境界を最適化する。
論文 参考訳(メタデータ) (2020-10-17T19:28:35Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。