論文の概要: Multi-Plasticity Synergy with Adaptive Mechanism Assignment for Training Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2508.13673v1
- Date: Tue, 19 Aug 2025 09:18:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.875499
- Title: Multi-Plasticity Synergy with Adaptive Mechanism Assignment for Training Spiking Neural Networks
- Title(参考訳): スパイキングニューラルネットワークの学習のための適応的メカニズムアサインメントを用いた多極性シナジー
- Authors: Yuzhe Liu, Xin Deng, Qiang Yu,
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、低消費電力と時間的処理の優れた可能性で知られる脳にインスパイアされたモデルである。
より効果的なSNNトレーニングのために,複数の相乗的可塑性機構を組み込んだ,生物学的にインスパイアされたトレーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 10.519687559399623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking Neural Networks (SNNs) are promising brain-inspired models known for low power consumption and superior potential for temporal processing, but identifying suitable learning mechanisms remains a challenge. Despite the presence of multiple coexisting learning strategies in the brain, current SNN training methods typically rely on a single form of synaptic plasticity, which limits their adaptability and representational capability. In this paper, we propose a biologically inspired training framework that incorporates multiple synergistic plasticity mechanisms for more effective SNN training. Our method enables diverse learning algorithms to cooperatively modulate the accumulation of information, while allowing each mechanism to preserve its own relatively independent update dynamics. We evaluated our approach on both static image and dynamic neuromorphic datasets to demonstrate that our framework significantly improves performance and robustness compared to conventional learning mechanism models. This work provides a general and extensible foundation for developing more powerful SNNs guided by multi-strategy brain-inspired learning.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、低消費電力と時間処理の優れた可能性で知られる脳にインスパイアされたモデルを約束しているが、適切な学習メカニズムを特定することは依然として課題である。
脳内に複数の共存学習戦略が存在するにもかかわらず、現在のSNN訓練法は一般的に単一のシナプス可塑性の形式に依存しており、適応性と表現能力は制限されている。
本稿では,より効果的なSNNトレーニングのために,複数の相乗的可塑性機構を組み込んだ生物学的にインスパイアされたトレーニングフレームワークを提案する。
本手法は,情報蓄積を協調的に調整すると同時に,各メカニズムが比較的独立した更新ダイナミクスを保ちながら,多様な学習アルゴリズムが情報蓄積を協調的に制御することを可能にする。
静的画像と動的ニューロモルフィックデータセットの両方に対するアプローチを評価し,従来の学習機構モデルと比較して,我々のフレームワークが性能と堅牢性を大幅に向上することを示した。
この研究は、マルチストラテジー脳にインスパイアされた学習によって導かれるより強力なSNNを開発するための、汎用的で拡張可能な基盤を提供する。
関連論文リスト
- Incorporating brain-inspired mechanisms for multimodal learning in artificial intelligence [12.09002670544188]
脳は逆効果現象を呈し、弱く、より強い多感的な統合効果をもたらす。
この生物学的メカニズムに着想を得て,逆効果駆動型マルチモーダル融合(IEMF)戦略を提案する。
この戦略をニューラルネットワークに組み込むことで、モデル性能の向上と計算効率の向上により、より効率的な統合を実現する。
論文 参考訳(メタデータ) (2025-05-15T11:08:50Z) - Contrastive Learning in Memristor-based Neuromorphic Systems [55.11642177631929]
スパイクニューラルネットワークは、現代のバックプロパゲーションによって訓練されたディープネットワークに直面する重要な制約の多くを横取りする、ニューロンベースのモデルの重要なファミリーとなっている。
本研究では,前向き・後向き学習のニューロモルフィック形式であるコントラッシブ・シグナル依存型塑性(CSDP)の概念実証を設計し,検討する。
論文 参考訳(メタデータ) (2024-09-17T04:48:45Z) - Enhancing learning in spiking neural networks through neuronal heterogeneity and neuromodulatory signaling [52.06722364186432]
人工ニューラルネットワーク(ANN)の強化のための生物学的インフォームドフレームワークを提案する。
提案したデュアルフレームアプローチは、多様なスパイキング動作をエミュレートするためのスパイキングニューラルネットワーク(SNN)の可能性を強調している。
提案手法は脳にインスパイアされたコンパートメントモデルとタスク駆動型SNN, バイオインスピレーション, 複雑性を統合している。
論文 参考訳(メタデータ) (2024-07-05T14:11:28Z) - Context Gating in Spiking Neural Networks: Achieving Lifelong Learning through Integration of Local and Global Plasticity [20.589970453110208]
ヒトは前頭前皮質(PFC)の文脈ゲーティング機構を通じて、最小の相互干渉で連続して複数のタスクを学習する
本研究では,生涯学習のための局所可塑性規則(CG-SNN)によって訓練された文脈ゲーティングを用いたSNNを提案する。
実験により,提案モデルは過去の学習経験を維持する上で有効であり,生涯学習における他の方法よりも優れたタスク選択性を有することが示された。
論文 参考訳(メタデータ) (2024-06-04T01:35:35Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - Developmental Plasticity-inspired Adaptive Pruning for Deep Spiking and Artificial Neural Networks [11.730984231143108]
発達的可塑性は、継続的な学習中に脳の構造を形成する際に顕著な役割を果たす。
ディープ人工知能ニューラルネットワーク(ANN)とスパイクニューラルネットワーク(SNN)の既存のネットワーク圧縮方法は、脳の発達する可塑性機構からほとんどインスピレーションを受けない。
本稿では, 樹状突起, シナプス, ニューロンの適応的発達的プルーニングからインスピレーションを得て, 塑性刺激による適応的プルーニング(DPAP)法を提案する。
論文 参考訳(メタデータ) (2022-11-23T05:26:51Z) - A Synapse-Threshold Synergistic Learning Approach for Spiking Neural
Networks [1.8556712517882232]
スパイキングニューラルネットワーク(SNN)は、さまざまなインテリジェントなシナリオにおいて優れた機能を示している。
本研究では,SNNにおけるシナプス重みとスパイク閾値を同時に学習する新しいシナジー学習手法を開発する。
論文 参考訳(メタデータ) (2022-06-10T06:41:36Z) - Brain-inspired global-local learning incorporated with neuromorphic
computing [35.70151531581922]
我々は,脳に触発されたメタラーニングパラダイムと,神経力学とシナプス可塑性を取り入れた識別可能なスパイキングモデルを導入することで,ニューロモルフィックハイブリッド学習モデルを報告した。
ニューロモルフィック・ビジョン・センサにおける数ショット学習、連続学習、フォールトトレランス学習を含む複数のタスクにおいて、このモデルの利点を実証する。
論文 参考訳(メタデータ) (2020-06-05T04:24:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。