論文の概要: Network-Optimised Spiking Neural Network for Event-Driven Networking
- arxiv url: http://arxiv.org/abs/2509.23516v1
- Date: Sat, 27 Sep 2025 22:31:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.269662
- Title: Network-Optimised Spiking Neural Network for Event-Driven Networking
- Title(参考訳): イベント駆動ネットワークのためのネットワーク最適化スパイクニューラルネットワーク
- Authors: Muhammad Bilal,
- Abstract要約: スパイキングニューラルネットワークは、異常検出、ローカルルーティング制御、エッジでの混雑管理など、時間クリティカルなネットワークタスクに適したイベント駆動型計算を提供する。
本稿では,正規化された待ち行列の占有状態と回復資源を符号化したコンパクトな2変数ユニットであるNetwork-Optimized Spiking (NOS)を紹介する。
我々は、データ駆動初期化、リセットシャープネスに基づくホモトピーによる代理段階トレーニング、リソース制約されたデプロイメントのための境界のトポロジによる明確な安定性チェックのガイダンスを提供する。
- 参考スコア(独自算出の注目度): 2.5941336499463383
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking neural networks offer event-driven computation suited to time-critical networking tasks such as anomaly detection, local routing control, and congestion management at the edge. Classical units, including Hodgkin-Huxley, Izhikevich, and the Random Neural Network, map poorly to these needs. We introduce Network-Optimised Spiking (NOS), a compact two-variable unit whose state encodes normalised queue occupancy and a recovery resource. The model uses a saturating nonlinearity to enforce finite buffers, a service-rate leak, and graph-local inputs with delays and optional per link gates. It supports two differentiable reset schemes for training and deployment. We give conditions for equilibrium existence and uniqueness, local stability tests from the Jacobian trace and determinant, and a network threshold that scales with the Perron eigenvalue of the coupling matrix. The analysis yields an operational rule g* ~ k* rho(W) linking damping and offered load, shows how saturation enlarges the stable region, and explains finite-size smoothing of synchrony onsets. Stochastic arrivals follow a Poisson shot-noise model aligned with telemetry smoothing. Against queueing baselines, NOS matches M/M/1 mean by calibration while truncating deep tails under bursty input. In closed loop it gives, low-jitte with short settling. In zero-shot, label-free forecasting NOS is calibrated per node from arrival statistics. Its NOS dynamics yield high AUROC/AUPRC, enabling timely detection of congestion onsets with few false positives. Under a train-calibrated residual protocol across chain, star, and scale-free topologies, NOS improves early-warning F1 and detection latency over MLP, RNN, GRU, and tGNN. We provide guidance for data-driven initialisation, surrogate-gradient training with a homotopy on reset sharpness, and explicit stability checks with topology-aware bounds for resource constrained deployments.
- Abstract(参考訳): スパイキングニューラルネットワークは、異常検出、ローカルルーティング制御、エッジでの混雑管理など、時間クリティカルなネットワークタスクに適したイベント駆動型計算を提供する。
Hodgkin-Huxley、Izhikevich、Random Neural Networkといった古典的なユニットは、これらのニーズにうまく対応していない。
本稿では,正規化された待ち行列の占有状態と回復資源を符号化したコンパクトな2変数ユニットであるNetwork-Optimized Spiking (NOS)を紹介する。
このモデルは飽和非線形性を用いて、有限バッファ、サービスレートのリーク、グラフ局所的な遅延とリンクゲート毎のオプション入力を強制する。
トレーニングとデプロイメントのための2つの異なるリセットスキームをサポートしている。
平衡の存在と特異性,ジャコビアントレースと行列式からの局所安定性試験,および結合行列のペロン固有値とスケールするネットワークしきい値について述べる。
解析により、減衰と供給された負荷をリンクする操作則 g* ~ k* rho(W) が得られ、飽和が安定領域をどのように拡大するかを示し、同期オンセットの有限サイズ滑らか化を説明する。
確率的到着は、テレメトリの平滑化に合わせたポアソンショットノイズモデルに従う。
待ち行列ベースラインに対して、NOSはM/M/1平均をキャリブレーションで一致させ、深い尾をバースト入力で切り捨てる。
クローズドループでは、短いセトリングを持つロージットを与える。
ゼロショットでは、ラベルなし予測NOSは到着統計からノード毎に校正される。
NOS のダイナミクスは AUROC/AUPRC を高くし、偽陽性がほとんどなく、渋滞の発症をタイムリーに検出できる。
NOSは、チェーン、スター、スケールフリートポロジにまたがる残効プロトコルの下で、早期に警告されるF1を改善し、MLP、RNN、GRU、tGNNの遅延を検出する。
我々は、データ駆動初期化、リセットシャープネスに基づくホモトピーによる代理段階訓練、リソース制約されたデプロイメントのためのトポロジ対応境界による明確な安定性チェックのガイダンスを提供する。
関連論文リスト
- Learning from Scratch: Structurally-masked Transformer for Next Generation Lib-free Simulation [5.564681128355971]
本稿では,多段階データパスのパワーとタイミング予測のためのニューラルネットワークフレームワークを提案する。
私たちの知る限りでは、これは標準セル用に明示的に設計された言語ベースのネットリスト対応ニューラルネットワークとしては初めてのものです。
論文 参考訳(メタデータ) (2025-07-23T10:46:25Z) - Optimization Guarantees of Unfolded ISTA and ADMM Networks With Smooth
Soft-Thresholding [57.71603937699949]
我々は,学習エポックの数の増加とともに,ほぼゼロに近いトレーニング損失を達成するための最適化保証について検討した。
トレーニングサンプル数に対する閾値は,ネットワーク幅の増加とともに増加することを示す。
論文 参考訳(メタデータ) (2023-09-12T13:03:47Z) - Adaptive Federated Pruning in Hierarchical Wireless Networks [69.6417645730093]
Federated Learning(FL)は、サーバがプライベートデータセットにアクセスすることなく、複数のデバイスによって更新されたモデルを集約する、プライバシ保護の分散学習フレームワークである。
本稿では,無線ネットワークにおけるHFLのモデルプルーニングを導入し,ニューラルネットワークの規模を小さくする。
提案するHFLは,モデルプルーニングを伴わないHFLと比較して学習精度が良く,通信コストが約50%削減できることを示す。
論文 参考訳(メタデータ) (2023-05-15T22:04:49Z) - On the Effective Number of Linear Regions in Shallow Univariate ReLU
Networks: Convergence Guarantees and Implicit Bias [50.84569563188485]
我々は、ラベルが$r$のニューロンを持つターゲットネットワークの符号によって決定されるとき、勾配流が方向収束することを示す。
我々の結果は、標本サイズによらず、幅が$tildemathcalO(r)$である、緩やかなオーバーパラメータ化をすでに維持しているかもしれない。
論文 参考訳(メタデータ) (2022-05-18T16:57:10Z) - Blind Coherent Preamble Detection via Neural Networks [2.2063018784238984]
ニューラルネットワーク(NN)シークエンス検出器とタイミング先進推定器を提案する。
NNによるプリアンブル検出のプロセス全体を置き換えるものではない。
本稿では,通信路効果を補うために,検出器内の信号を組み合わせたテキストブロードコヒーレントにのみNNを用いることを提案する。
論文 参考訳(メタデータ) (2021-09-30T09:53:49Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z) - Bayesian Nested Neural Networks for Uncertainty Calibration and Adaptive
Compression [40.35734017517066]
ネストネットワーク(Nested Network)またはスリムブルネットワーク(Slimmable Network)は、テスト期間中にアーキテクチャを即座に調整できるニューラルネットワークである。
最近の研究は、トレーニング中に重要なレイヤのノードを順序付けできる"ネストされたドロップアウト"層に焦点を当てている。
論文 参考訳(メタデータ) (2021-01-27T12:34:58Z) - Certifying Incremental Quadratic Constraints for Neural Networks via
Convex Optimization [2.388501293246858]
我々は,関心領域上のニューラルネットワークのマップ上で漸進的二次的制約を証明するための凸プログラムを提案する。
証明書は、(ローカル)Lipschitz連続性、片側Lipschitz連続性、反転性、および収縮などのいくつかの有用な特性をキャプチャできます。
論文 参考訳(メタデータ) (2020-12-10T21:15:00Z) - Enabling certification of verification-agnostic networks via
memory-efficient semidefinite programming [97.40955121478716]
本稿では,ネットワークアクティベーションの総数にのみ線形なメモリを必要とする一階二重SDPアルゴリズムを提案する。
L-inf の精度は 1% から 88% ,6% から 40% に改善した。
また,変分オートエンコーダの復号器に対する2次安定性仕様の厳密な検証を行った。
論文 参考訳(メタデータ) (2020-10-22T12:32:29Z) - Adaptive Subcarrier, Parameter, and Power Allocation for Partitioned
Edge Learning Over Broadband Channels [69.18343801164741]
パーティショニングエッジ学習(PARTEL)は、無線ネットワークにおいてよく知られた分散学習手法であるパラメータサーバトレーニングを実装している。
本稿では、いくつかの補助変数を導入してParticleELを用いてトレーニングできるディープニューラルネットワーク(DNN)モデルについて考察する。
論文 参考訳(メタデータ) (2020-10-08T15:27:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。