論文の概要: MorphSNN: Adaptive Graph Diffusion and Structural Plasticity for Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2603.14285v1
- Date: Sun, 15 Mar 2026 08:52:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.724244
- Title: MorphSNN: Adaptive Graph Diffusion and Structural Plasticity for Spiking Neural Networks
- Title(参考訳): MorphSNN: ニューラルネットワークの適応的グラフ拡散と構造的塑性
- Authors: Yongsheng Huang, Peibo Duan, Yujie Wu, Kai Sun, Zhipeng Liu, Jiaxiang Liu, Guangyu Li, Changsheng Zhang, Bin Zhang, Mingkun Xu,
- Abstract要約: スパイキングニューラルネットワーク(SNN)は現在、重大なボトルネックに直面している。
個々のニューロンは動的生物学的性質を示すが、マクロな構造は従来の接続パターンに限られている。
生体内非シナプス拡散と構造塑性にインスパイアされたバックボーンフレームワークであるMorphSNNを提案する。
- 参考スコア(独自算出の注目度): 20.207135245363386
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking Neural Networks (SNNs) currently face a critical bottleneck: while individual neurons exhibit dynamic biological properties, their macro-scopic architectures remain confined within conventional connectivity patterns that are static and hierarchical. This discrepancy between neuron-level dynamics and network-level fixed connectivity eliminates critical brain-like lateral interactions, limiting adaptability in changing environments. To address this, we propose MorphSNN, a backbone framework inspired by biological non-synaptic diffusion and structural plasticity. Specifically, we introduce a Graph Diffusion (GD)mechanism to facilitate efficient undirected signal propagation, complementing the feedforward hierarchy. Furthermore, it incorporates a Spatio-Temporal Structural Plasticity (STSP) mechanism, endowing the network with the capability for instance-specific, dynamic topological reorganization, thereby overcoming the limitations of fixed topologies. Experiments demonstrate that MorphSNN achieves state-of-the-art accuracy on static and neuromorphic datasets; for instance, it reaches 83.35% accuracy on N-Caltech101 with only 5 timesteps. More importantly, its self-evolving topology functions as an intrinsic distribution fingerprint, enabling superior Out-of- Distribution (OOD) detection without auxiliary training. The code is available at anonymous.4open.science/r/MorphSNN-B0BC.
- Abstract(参考訳): 現在、スパイキングニューラルネットワーク(SNN)は重要なボトルネックに直面している。個々のニューロンが動的な生物学的特性を示す一方で、マクロなアーキテクチャは、静的で階層的な従来の接続パターンに限られている。
このニューロンレベルのダイナミクスとネットワークレベルの固定接続との相違は、重要な脳のような横方向の相互作用を排除し、環境の変化による適応性を制限する。
そこで本研究では, 生体内非シナプス拡散と構造塑性にインスパイアされたバックボーンフレームワークであるMorphSNNを提案する。
具体的には、フィードフォワード階層を補完する効率的な非方向信号伝搬を容易にするグラフ拡散(GD)機構を導入する。
さらに、STSP(Spatio-Temporal Structure Plasticity)機構が組み込まれており、ネットワークに、例えば、動的トポロジ的再構成の能力を与え、固定トポロジの限界を克服する。
実験により、MorphSNNは静的およびニューロモルフィックなデータセット上で最先端の精度を達成し、例えば、N-Caltech101上では5つのタイムステップで83.35%の精度に達することが示されている。
より重要なのは、自己進化型トポロジーが本質的な分布指紋として機能し、補助訓練を伴わずに優れたアウト・オブ・ディストリビューション(OOD)検出を可能にすることである。
コードは匿名の.4open.science/r/MorphSNN-B0BCで入手できる。
関連論文リスト
- ChronoPlastic Spiking Neural Networks [0.0]
スパイキングニューラルネットワーク(SNN)は、従来のニューラルネットワークに代わる生物学的基盤とエネルギー効率のよい代替手段を提供する。
CPSNNは時間的制御を直接局所シナプス力学に組み込む。
CPSNNは、標準のSNNベースラインよりもはるかに高速で信頼性の高い長期的依存関係を学習する。
論文 参考訳(メタデータ) (2025-12-17T06:58:04Z) - CogniSNN: Enabling Neuron-Expandability, Pathway-Reusability, and Dynamic-Configurability with Random Graph Architectures in Spiking Neural Networks [13.913208605378854]
スパイキングニューラルネットワーク(SNN)は、人工知能と計算神経科学のギャップを埋めることが期待されている。
我々はランダムグラフアーキテクチャ(RGA)を取り入れた新しいSNNパラダイムであるCognition-aware SNN(Cognition-aware SNN)を導入する。
論文 参考訳(メタデータ) (2025-12-12T17:36:31Z) - Fractional Spike Differential Equations Neural Network with Efficient Adjoint Parameters Training [63.3991315762955]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューロンからインスピレーションを得て、脳に似た計算の現実的なモデルを作成する。
既存のほとんどのSNNは、マルコフ特性を持つ一階常微分方程式(ODE)によってモデル化された、神経細胞膜電圧ダイナミクスの単一時間定数を仮定している。
本研究では, 膜電圧およびスパイク列車の長期依存性を分数次力学により捉えるフラクタルSPIKE微分方程式ニューラルネットワーク (fspikeDE) を提案する。
論文 参考訳(メタデータ) (2025-07-22T18:20:56Z) - Langevin Flows for Modeling Neural Latent Dynamics [81.81271685018284]
逐次変分自動エンコーダであるLangevinFlowを導入し、潜伏変数の時間的進化をアンダーダム化したLangevin方程式で制御する。
われわれのアプローチは、慣性、減衰、学習されたポテンシャル関数、力などの物理的事前を組み込んで、ニューラルネットワークにおける自律的および非自律的プロセスの両方を表現する。
本手法は,ロレンツ誘引器によって生成される合成神経集団に対する最先端のベースラインより優れる。
論文 参考訳(メタデータ) (2025-07-15T17:57:48Z) - Allostatic Control of Persistent States in Spiking Neural Networks for perception and computation [79.16635054977068]
本稿では,アロスタシスの概念を内部表現の制御に拡張することにより,環境に対する知覚的信念を更新するための新しいモデルを提案する。
本稿では,アトラクタネットワークにおける活動の急増を空間的数値表現として利用する数値認識の応用に焦点を当てる。
論文 参考訳(メタデータ) (2025-03-20T12:28:08Z) - IP$^{2}$-RSNN: Bi-level Intrinsic Plasticity Enables Learning-to-learn in Recurrent Spiking Neural Networks [20.88195975299024]
2レベル内在性可塑性を有する繰り返しスパイクニューラルネットワーク(IP$2$-RSNN)を開発した。
以上の結果から,RSNNにおけるL2Lの実現には,両レベルの内在性可塑性が重要な役割を担っていることが示唆された。
論文 参考訳(メタデータ) (2025-01-24T14:45:03Z) - Spatiotemporal Graph Learning with Direct Volumetric Information Passing and Feature Enhancement [62.91536661584656]
本稿では,CeFeGNN(CeFeGNN)とCell-embeddedとFeature-enhanced Graph Neural Networkを学習用として提案する。
学習可能なセル属性を共通ノードエッジメッセージパッシングプロセスに埋め込むことで,地域特性の空間依存性をよりよく把握する。
各種PDEシステムと1つの実世界のデータセットを用いた実験により、CeFeGNNは他のベースラインと比較して優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-09-26T16:22:08Z) - The Cooperative Network Architecture: Learning Structured Networks as Representation of Sensory Patterns [3.9848584845601014]
協調ネットワークアーキテクチャ(Cooperative Network Architecture, CNA)は,ニューロンの構造的, 繰り返し接続されたネットワークを用いて, 知覚信号を表すモデルである。
我々は、ネットフラグメントを監督なしに学習し、フレキシブルに組み換えることで、新しいパターンをエンコードし、フィギュア補完とノイズに対するレジリエンスを可能にすることを実証した。
論文 参考訳(メタデータ) (2024-07-08T06:22:10Z) - Learning in Deep Neural Networks Using a Biologically Inspired Optimizer [5.144809478361604]
人工神経(ANN)とスパイクニューラルネット(SNN)にインスパイアされた新しい生物モデルを提案する。
GRAPESは、ニューラルネットワークの各ノードにおけるエラー信号の重量分布依存変調を実装している。
生物学的にインスパイアされたこのメカニズムは,ネットワークの収束率を体系的に改善し,ANNやSNNの分類精度を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2021-04-23T13:50:30Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Network Diffusions via Neural Mean-Field Dynamics [52.091487866968286]
本稿では,ネットワーク上の拡散の推論と推定のための新しい学習フレームワークを提案する。
本研究の枠組みは, ノード感染確率の正確な進化を得るために, モリ・ズワンジッヒ形式から導かれる。
我々のアプローチは、基礎となる拡散ネットワークモデルのバリエーションに対して多用途で堅牢である。
論文 参考訳(メタデータ) (2020-06-16T18:45:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。