論文の概要: ChronoSpike: An Adaptive Spiking Graph Neural Network for Dynamic Graphs
- arxiv url: http://arxiv.org/abs/2602.01124v1
- Date: Sun, 01 Feb 2026 09:50:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.606875
- Title: ChronoSpike: An Adaptive Spiking Graph Neural Network for Dynamic Graphs
- Title(参考訳): ChronoSpike:動的グラフのための適応型スパイキンググラフニューラルネットワーク
- Authors: Md Abrar Jahin, Taufikur Rahman Fuad, Jay Pujara, Craig Knoblock,
- Abstract要約: スパイキングニューラルネットワークは、イベント駆動の効率を提供するが、シーケンシャルな伝播、バイナリ情報損失、グローバルなコンテキストを欠く局所的な集約によって制限される。
適応的なスパイクグラフニューラルネットワークであるChronoSpikeを提案する。このニューラルネットワークは、学習可能なLIFニューロンを膜間ダイナミクスと統合し、連続的な特徴に対する多頭部の空間的アグリゲーションと、トランスフォーマーの時間エンコーダである。
大規模な3つのベンチマークでは、ChronoSpikeは12の最先端のベースラインを$2.0%$マクロF1と$2.4%$マイクロF1で上回り、また、反復メソッドよりも3-10倍速いトレーニングを達成している。
- 参考スコア(独自算出の注目度): 10.05203937088835
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dynamic graph representation learning requires capturing both structural relationships and temporal evolution, yet existing approaches face a fundamental trade-off: attention-based methods achieve expressiveness at $O(T^2)$ complexity, while recurrent architectures suffer from gradient pathologies and dense state storage. Spiking neural networks offer event-driven efficiency but remain limited by sequential propagation, binary information loss, and local aggregation that misses global context. We propose ChronoSpike, an adaptive spiking graph neural network that integrates learnable LIF neurons with per-channel membrane dynamics, multi-head attentive spatial aggregation on continuous features, and a lightweight Transformer temporal encoder, enabling both fine-grained local modeling and long-range dependency capture with linear memory complexity $O(T \cdot d)$. On three large-scale benchmarks, ChronoSpike outperforms twelve state-of-the-art baselines by $2.0\%$ Macro-F1 and $2.4\%$ Micro-F1 while achieving $3-10\times$ faster training than recurrent methods with a constant 105K-parameter budget independent of graph size. We provide theoretical guarantees for membrane potential boundedness, gradient flow stability under contraction factor $ρ< 1$, and BIBO stability; interpretability analyses reveal heterogeneous temporal receptive fields and a learned primacy effect with $83-88\%$ sparsity.
- Abstract(参考訳): 動的グラフ表現学習は構造的関係と時間的進化の両方を捉える必要があるが、既存のアプローチは基本的なトレードオフに直面している。
スパイキングニューラルネットワークは、イベント駆動の効率を提供するが、シーケンシャルな伝播、バイナリ情報損失、グローバルなコンテキストを欠く局所的な集約によって制限される。
適応型スパイクグラフニューラルネットワークChronoSpikeを提案する。このニューラルネットワークは、学習可能なLIFニューロンをチャネルごとの膜力学と統合し、連続的な特徴に対するマルチヘッドの空間的アグリゲーションと軽量なTransformer temporal encoderにより、微細な局所モデリングと、線形メモリの複雑さを伴う長距離依存性キャプチャを両立させることができる。
大規模な3つのベンチマークでは、ChronoSpikeは12の最先端ベースラインを$2.0\%$マクロF1と$2.4\%$マイクロF1で上回り、グラフサイズに依存しない105Kパラメータ予算の反復法よりも3-10\times$高速なトレーニングを実現している。
本研究では, 膜電位の有界性, 収縮係数$ρ<1$, BIBO安定性に関する理論的保証, 解釈可能性解析により, 不均一な時間受容場と, 83~88$%の親和性を有する学習プライマリシー効果が示された。
関連論文リスト
- Fractional Spike Differential Equations Neural Network with Efficient Adjoint Parameters Training [63.3991315762955]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューロンからインスピレーションを得て、脳に似た計算の現実的なモデルを作成する。
既存のほとんどのSNNは、マルコフ特性を持つ一階常微分方程式(ODE)によってモデル化された、神経細胞膜電圧ダイナミクスの単一時間定数を仮定している。
本研究では, 膜電圧およびスパイク列車の長期依存性を分数次力学により捉えるフラクタルSPIKE微分方程式ニューラルネットワーク (fspikeDE) を提案する。
論文 参考訳(メタデータ) (2025-07-22T18:20:56Z) - Electromyography-Based Gesture Recognition: Hierarchical Feature Extraction for Enhanced Spatial-Temporal Dynamics [0.7083699704958353]
本稿では, 時間的時間的特徴抽出手法として, 軽量な圧縮励起深層学習手法を提案する。
提案したモデルは、Ninapro DB2、DB4、DB5データセットでそれぞれ96.41%、92.40%、93.34%の精度でテストされた。
論文 参考訳(メタデータ) (2025-04-04T07:11:12Z) - Global Convergence and Rich Feature Learning in $L$-Layer Infinite-Width Neural Networks under $μ$P Parametrization [66.03821840425539]
本稿では, テンソル勾配プログラム(SGD)フレームワークを用いた$L$層ニューラルネットワークのトレーニング力学について検討する。
SGDにより、これらのネットワークが初期値から大きく逸脱する線形独立な特徴を学習できることを示す。
このリッチな特徴空間は、関連するデータ情報をキャプチャし、トレーニングプロセスの収束点が世界最小であることを保証する。
論文 参考訳(メタデータ) (2025-03-12T17:33:13Z) - Spatiotemporal Graph Learning with Direct Volumetric Information Passing and Feature Enhancement [62.91536661584656]
本稿では,CeFeGNN(CeFeGNN)とCell-embeddedとFeature-enhanced Graph Neural Networkを学習用として提案する。
学習可能なセル属性を共通ノードエッジメッセージパッシングプロセスに埋め込むことで,地域特性の空間依存性をよりよく把握する。
各種PDEシステムと1つの実世界のデータセットを用いた実験により、CeFeGNNは他のベースラインと比較して優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-09-26T16:22:08Z) - DeNOTS: Stable Deep Neural ODEs for Time Series [0.99450247450967]
CDEは不規則時系列の時間的進化を処理する方法を提供する。
我々は、NFEの増加とモデルの「深化」のために統合時間地平線を拡大することを提案する。
また、負のフィードバックによって動的を安定化する方法を提案する。
論文 参考訳(メタデータ) (2024-08-15T09:49:37Z) - Convergence of Gradient Descent for Recurrent Neural Networks: A Nonasymptotic Analysis [16.893624100273108]
教師付き学習環境において,勾配降下を訓練した斜め隠れ重み行列を用いた繰り返しニューラルネットワークの解析を行った。
我々は,パラメータ化を伴わずに勾配降下が最適性を実現することを証明した。
この結果は、繰り返しニューラルネットワークによって近似および学習できる力学系のクラスを明示的に評価することに基づいている。
論文 参考訳(メタデータ) (2024-02-19T15:56:43Z) - Intensity Profile Projection: A Framework for Continuous-Time
Representation Learning for Dynamic Networks [50.2033914945157]
本稿では、連続時間動的ネットワークデータのための表現学習フレームワークIntensity Profile Projectionを提案する。
このフレームワークは3つの段階から構成される: 対の強度関数を推定し、強度再構成誤差の概念を最小化する射影を学習する。
さらに、推定軌跡の誤差を厳密に制御する推定理論を開発し、その表現がノイズに敏感な追従解析に利用できることを示す。
論文 参考訳(メタデータ) (2023-06-09T15:38:25Z) - TCJA-SNN: Temporal-Channel Joint Attention for Spiking Neural Networks [22.965024490694525]
スパイキングニューラルネットワーク(SNN)は、生物学的妥当性、エネルギー効率、強力な時間情報表現能力によって、広く関心を集めている。
本稿では,TJA-SNNと呼ばれるSNNの時間・チャネル共同注意機構について述べる。
提案するTJA-SNNフレームワークは,空間次元と時間次元の両方からスパイクシーケンスの意義を効果的に評価することができる。
論文 参考訳(メタデータ) (2022-06-21T08:16:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。