論文の概要: From GNNs to Symbolic Surrogates via Kolmogorov-Arnold Networks for Delay Prediction
- arxiv url: http://arxiv.org/abs/2512.20885v1
- Date: Wed, 24 Dec 2025 02:05:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-25 19:43:21.652482
- Title: From GNNs to Symbolic Surrogates via Kolmogorov-Arnold Networks for Delay Prediction
- Title(参考訳): 遅延予測のためのコルモゴロフ・アルノルドネットワークによるGNNからシンボリックサロゲートへ
- Authors: Sami Marouani, Kamal Singh, Baptiste Jeudy, Amaury Habrard,
- Abstract要約: 我々は、注目に基づくメッセージパッシングを備えた異種GNNを実装し、強力なニューラルベースラインを確立する。
第二に、Kolmogorov-Arnold Networksが標準レイヤを置き換え、トレーニング可能なパラメータを減らすFlowKANetを提案する。
第三に、ブロックワイド回帰を用いてモデルをシンボリック・サロゲートモデルに蒸留し、訓練可能な計算を排除した閉形式方程式を生成する。
- 参考スコア(独自算出の注目度): 3.571534406261392
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate prediction of flow delay is essential for optimizing and managing modern communication networks. We investigate three levels of modeling for this task. First, we implement a heterogeneous GNN with attention-based message passing, establishing a strong neural baseline. Second, we propose FlowKANet in which Kolmogorov-Arnold Networks replace standard MLP layers, reducing trainable parameters while maintaining competitive predictive performance. FlowKANet integrates KAMP-Attn (Kolmogorov-Arnold Message Passing with Attention), embedding KAN operators directly into message-passing and attention computation. Finally, we distill the model into symbolic surrogate models using block-wise regression, producing closed-form equations that eliminate trainable weights while preserving graph-structured dependencies. The results show that KAN layers provide a favorable trade-off between efficiency and accuracy and that symbolic surrogates emphasize the potential for lightweight deployment and enhanced transparency.
- Abstract(参考訳): 最新の通信網の最適化と管理には,流路遅延の正確な予測が不可欠である。
この課題に対する3つのレベルのモデリングについて検討する。
まず、注意に基づくメッセージパッシングを備えた異種GNNを実装し、強力なニューラルベースラインを確立する。
次に,Kolmogorov-Arnold Networks が標準 MLP 層を置き換える FlowKANet を提案する。
FlowKANetはKAMP-Attn(Kolmogorov-Arnold Message Passing with Attention)を統合し、kan演算子を直接メッセージパッシングとアテンション計算に埋め込む。
最後に、ブロックワイズ回帰を用いてモデルをシンボル代理モデルに蒸留し、グラフ構造依存を保ちながらトレーニング可能な重みを除去する閉形式方程式を生成する。
その結果,kan層は効率と精度のトレードオフを良好に実現し,シンボリックサロゲートは軽量な展開と透明性向上の可能性を強調している。
関連論文リスト
- Graph Signal Generative Diffusion Models [74.75869068073577]
拡散過程を用いたグラフ信号生成のためのU字型エンコーダ-デコーダグラフニューラルネットワーク(U-GNN)を提案する。
アーキテクチャは、エンコーダとデコーダパス間の接続をスキップすることで、異なる解像度でノード機能を学ぶ。
株価の確率予測における拡散モデルの有効性を実証する。
論文 参考訳(メタデータ) (2025-09-21T21:57:27Z) - ReDiSC: A Reparameterized Masked Diffusion Model for Scalable Node Classification with Structured Predictions [64.17845687013434]
本稿では,構造化ノード分類のための構造拡散モデルであるReDiSCを提案する。
本稿では,ReDiSCが最先端のGNN,ラベル伝搬,拡散ベースラインと比較して,優れた,あるいは高い競争力を発揮することを示す。
特にReDiSCは、従来の構造化拡散法が計算制約によって失敗する大規模データセットに効果的にスケールする。
論文 参考訳(メタデータ) (2025-07-19T04:46:53Z) - Channel Fingerprint Construction for Massive MIMO: A Deep Conditional Generative Approach [65.47969413708344]
CF双生児の概念を導入し、条件付き生成拡散モデル(CGDM)を設計する。
本研究では, 粗粒CFに条件付き観測された細粒CFの対数分布に対するエビデンスローバウンド(ELBO)を導出するために, 変分推論手法を用いる。
提案手法は, ベースラインと比較して, 復元性能が著しく向上していることを示す。
論文 参考訳(メタデータ) (2025-05-12T01:36:06Z) - Imitation Learning of MPC with Neural Networks: Error Guarantees and Sparsification [5.260346080244568]
本稿では,ニューラルネットワークを用いた模倣モデル予測制御系における近似誤差の有界化のためのフレームワークを提案する。
本稿では,この手法を用いて,性能保証付き安定型ニューラルネットワークコントローラを設計する方法について論じる。
論文 参考訳(メタデータ) (2025-01-07T10:18:37Z) - Want to train KANS at scale? Now UKAN! [2.9666099400348607]
我々は、従来のコルモゴロフ・アルノルドネットワーク(KAN)における有界グリッドの必要性を取り除く方法であるUnbounded Kolmogorov-Arnold Networks (UKANs)を提案する。
UKANは、グリッドグループの位置符号化をCGモデルに入力することで、カンと多層パーセプトロンを結合し、データ正規化を必要とせずに非有界領域上の関数近似を可能にする。
論文 参考訳(メタデータ) (2024-08-20T21:20:38Z) - Interpretable A-posteriori Error Indication for Graph Neural Network Surrogate Models [0.0]
本稿では,グラフニューラルネットワーク(GNN)の解釈可能性向上手法を提案する。
最終結果は、予測タスクに本質的に関連付けられたサブグラフに対応する物理空間内の領域を分離する解釈可能なGNNモデルである。
解釈可能なGNNは、推論中に予測される予測エラーの大部分に対応するグラフノードを特定するためにも使用できる。
論文 参考訳(メタデータ) (2023-11-13T18:37:07Z) - Compressed Regression over Adaptive Networks [58.79251288443156]
分散エージェントのネットワークによって達成可能な性能を導出し,通信制約や回帰問題を解消し,適応的に解決する。
エージェントによって最適化に必要なパラメータをオンラインで学習できる最適化アロケーション戦略を考案する。
論文 参考訳(メタデータ) (2023-04-07T13:41:08Z) - Improve Generalization and Robustness of Neural Networks via Weight
Scale Shifting Invariant Regularizations [52.493315075385325]
重み劣化を含む正則化器の族は、均質な活性化関数を持つネットワークに対する本質的な重みのノルムをペナルティ化するのに有効でないことを示す。
そこで我々は,ニューラルネットワークの本質的な規範を効果的に制約する改良型正規化器を提案する。
論文 参考訳(メタデータ) (2020-08-07T02:55:28Z) - Bayesian Graph Neural Networks with Adaptive Connection Sampling [62.51689735630133]
グラフニューラルネットワーク(GNN)における適応接続サンプリングのための統一的なフレームワークを提案する。
提案フレームワークは,深部GNNの過度なスムース化や過度に適合する傾向を緩和するだけでなく,グラフ解析タスクにおけるGNNによる不確実性の学習を可能にする。
論文 参考訳(メタデータ) (2020-06-07T07:06:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。