論文の概要: QT-Routenet: Improved GNN generalization to larger 5G networks by
fine-tuning predictions from queueing theory
- arxiv url: http://arxiv.org/abs/2207.06336v1
- Date: Wed, 13 Jul 2022 16:49:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-14 16:47:42.069958
- Title: QT-Routenet: Improved GNN generalization to larger 5G networks by
fine-tuning predictions from queueing theory
- Title(参考訳): QT-Routenet:待ち行列理論による微調整予測による大規模5GネットワークへのGNN一般化の改善
- Authors: Bruno Klaus de Aquino Afonso, Lilian Berton
- Abstract要約: 5Gネットワークにモデルを適用する際の一般化の問題に取り組む。
待ち行列理論(QT)に関連するロバストな特徴を最初に抽出することを提案する。
そこで我々は,Reutenet Graph Neural Network(GNN)モデルを用いて,解析的ベースライン予測を微調整する。
- 参考スコア(独自算出の注目度): 2.4366811507669124
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In order to promote the use of machine learning in 5G, the International
Telecommunication Union (ITU) proposed in 2021 the second edition of the ITU
AI/ML in 5G challenge, with over 1600 participants from 82 countries. This work
details the second place solution overall, which is also the winning solution
of the Graph Neural Networking Challenge 2021. We tackle the problem of
generalization when applying a model to a 5G network that may have longer paths
and larger link capacities than the ones observed in training. To achieve this,
we propose to first extract robust features related to Queueing Theory (QT),
and then fine-tune the analytical baseline prediction using a modification of
the Routenet Graph Neural Network (GNN) model. The proposed solution
generalizes much better than simply using Routenet, and manages to reduce the
analytical baseline's 10.42 mean absolute percent error to 1.45 (1.27 with an
ensemble). This suggests that making small changes to an approximate model that
is known to be robust can be an effective way to improve accuracy without
compromising generalization.
- Abstract(参考訳): 5Gにおける機械学習の利用を促進するため、国際通信連合(ITU)は2021年に、82か国から1600人以上の参加者を擁する5GチャレンジにおけるITU AI/MLの第2版を提案した。
この研究は、グラフニューラルネットワークチャレンジ2021の勝利ソリューションである、全体的な第2のソリューションについて詳述している。
我々は,5gネットワークにモデルを適用する際の一般化の問題に対処し,訓練中に観測されたものよりも長いパスとリンク容量を持つ可能性がある。
これを実現するために,まず待ち行列理論(qt)に関連するロバストな特徴を抽出し,ルートネットグラフニューラルネットワーク(gnn)モデルの修正を用いて解析ベースライン予測を微調整する。
提案された解は、単にroutenetを使うよりもずっとよく一般化され、解析ベースラインの10.42平均絶対パーセンテージ誤差を1.45(アンサンブル付き1.27)に減らすことができる。
これは、ロバストであることが知られている近似モデルに小さな変更を加えることは、一般化を妥協することなく精度を向上させる効果的な方法であることを示唆している。
関連論文リスト
- Unlocking the Theory Behind Scaling 1-Bit Neural Networks [7.578147116161996]
1ビットのLarge Language Models (LLM)が登場し、従来のLLMに匹敵する効率とパフォーマンスの素晴らしい組み合わせを示している。
1ビットニューラルネットワークのスケーリング法則を厳格に確立した最初の理論的結果を示す。
この結果から,Int1が今後,ニューラルネットワークの精度の基準となる可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-03T19:18:57Z) - Learning Load Balancing with GNN in MPTCP-Enabled Heterogeneous Networks [13.178956651532213]
本稿では,MP TCP 対応 HetNet の LB 問題に対処するグラフニューラルネットワーク (GNN) モデルを提案する。
従来のディープニューラルネットワーク(DNN)と比較して、提案したGNNベースのモデルには2つの重要な長所がある。
論文 参考訳(メタデータ) (2024-10-22T15:49:53Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - Solving Large-scale Spatial Problems with Convolutional Neural Networks [88.31876586547848]
大規模空間問題に対する学習効率を向上させるために移動学習を用いる。
畳み込みニューラルネットワーク (CNN) は, 信号の小さな窓で訓練できるが, 性能劣化の少ない任意の大信号で評価できる。
論文 参考訳(メタデータ) (2023-06-14T01:24:42Z) - A New Perspective for Understanding Generalization Gap of Deep Neural
Networks Trained with Large Batch Sizes [14.822603738271138]
ディープニューラルネットワーク(DNN)は通常、様々な種類のミニバッチ勾配勾配アルゴリズムを用いて最適化される。
多くの研究は、訓練バッチサイズが一定の限界を超えて増加すると、モデル一般化の進歩的な損失を報告している。
これは一般に一般化ギャップと呼ばれるシナリオである。
分析の結果,トレーニングバッチサイズが大きくなれば,ユニットのアクティベーションがほぼ失われることがわかった。
論文 参考訳(メタデータ) (2022-10-21T18:23:12Z) - Elastic-Link for Binarized Neural Network [9.83865304744923]
ELモジュールは、その後の畳み込み出力特徴に実値入力特徴を適応的に付加することにより、BNN内の情報フローを豊かにする。
ELは、大規模なImageNetデータセットに挑戦する上で、大幅に改善されている。
ReActNetの統合により、71.9%の精度で新しい最先端結果が得られる。
論文 参考訳(メタデータ) (2021-12-19T13:49:29Z) - On Topology Optimization and Routing in Integrated Access and Backhaul
Networks: A Genetic Algorithm-based Approach [70.85399600288737]
IABネットワークにおけるトポロジ最適化とルーティングの問題について検討する。
我々は、IABノード配置と非IABバックホールリンク分布の両方に効率的な遺伝的アルゴリズムベースのスキームを開発する。
メッシュベースのIABネットワークを実現する上での課題について論じる。
論文 参考訳(メタデータ) (2021-02-14T21:52:05Z) - Graph Neural Networks for Scalable Radio Resource Management:
Architecture Design and Theoretical Analysis [31.372548374969387]
本稿では,大規模無線資源管理問題にグラフニューラルネットワーク(GNN)を適用することを提案する。
提案手法はスケーラビリティが高く,1つのGPU上で1,000ドルのトランシーバペアを6ミリ秒以内で行う干渉チャネルにおけるビームフォーミング問題を解くことができる。
論文 参考訳(メタデータ) (2020-07-15T11:43:32Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z) - Optimization and Generalization Analysis of Transduction through
Gradient Boosting and Application to Multi-scale Graph Neural Networks [60.22494363676747]
現在のグラフニューラルネットワーク(GNN)は、オーバースムーシング(over-smoothing)と呼ばれる問題のため、自分自身を深くするのは難しいことが知られている。
マルチスケールGNNは、オーバースムーシング問題を緩和するための有望なアプローチである。
マルチスケールGNNを含むトランスダクティブ学習アルゴリズムの最適化と一般化を保証する。
論文 参考訳(メタデータ) (2020-06-15T17:06:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。