論文の概要: Geminet: Learning the Duality-based Iterative Process for Lightweight Traffic Engineering in Changing Topologies
- arxiv url: http://arxiv.org/abs/2506.23640v1
- Date: Mon, 30 Jun 2025 09:09:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.989208
- Title: Geminet: Learning the Duality-based Iterative Process for Lightweight Traffic Engineering in Changing Topologies
- Title(参考訳): Geminet: トポロジを変えるために,ライトウェイトトラヒックエンジニアリングのためのダリティベースの反復プロセスを学ぶ
- Authors: Ximeng Liu, Shizhen Zhao, Xinbing Wang,
- Abstract要約: Geminetは軽量でスケーラブルなMLベースのTEフレームワークで、トポロジの変更を処理できる。
そのニューラルネットワークサイズは、既存のスキームの0.04%から7%に過ぎない。
大規模なトポロジでトレーニングすると、Geminetは10ギB未満のメモリを消費し、HARPが要求する80ギBの8倍以下である。
- 参考スコア(独自算出の注目度): 53.38648279089736
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, researchers have explored ML-based Traffic Engineering (TE), leveraging neural networks to solve TE problems traditionally addressed by optimization. However, existing ML-based TE schemes remain impractical: they either fail to handle topology changes or suffer from poor scalability due to excessive computational and memory overhead. To overcome these limitations, we propose Geminet, a lightweight and scalable ML-based TE framework that can handle changing topologies. Geminet is built upon two key insights: (i) a methodology that decouples neural networks from topology by learning an iterative gradient-descent-based adjustment process, as the update rule of gradient descent is topology-agnostic, relying only on a few gradient-related quantities; (ii) shifting optimization from path-level routing weights to edge-level dual variables, reducing memory consumption by leveraging the fact that edges are far fewer than paths. Evaluations on WAN and data center datasets show that Geminet significantly improves scalability. Its neural network size is only 0.04% to 7% of existing schemes, while handling topology variations as effectively as HARP, a state-of-the-art ML-based TE approach, without performance degradation. When trained on large-scale topologies, Geminet consumes under 10 GiB of memory, more than eight times less than the 80-plus GiB required by HARP, while achieving 5.45 times faster convergence speed, demonstrating its potential for large-scale deployment.
- Abstract(参考訳): 最近、研究者はMLベースの交通工学(TE)を探求し、ニューラルネットワークを活用して、従来の最適化によって解決されてきたTEの問題を解決する。
しかし、既存のMLベースのTEスキームは、トポロジの変更の処理に失敗するか、過剰な計算とメモリオーバーヘッドのためにスケーラビリティの低下に悩まされる。
これらの制限を克服するために、変更トポロジを処理可能な軽量でスケーラブルなMLベースのTEフレームワークであるGeminetを提案する。
Geminetは2つの重要な洞察に基づいて構築されている。
一 勾配降下の更新規則はトポロジによらず、勾配関連の数量にのみ依存するため、トポロジからニューラルネットワークを分離する手法
(2)経路レベルのルーティング重みからエッジレベルのデュアル変数へ最適化をシフトし、エッジがパスよりもはるかに少ないという事実を活用してメモリ消費を削減する。
WANとデータセンタのデータセットの評価は、Geminetがスケーラビリティを大幅に改善していることを示している。
そのニューラルネットワークサイズは、既存のスキームの0.04%から7%に過ぎず、トポロジのバリエーションは、最先端のMLベースのTEアプローチであるHARPと同様に効果的に処理するが、パフォーマンスは低下しない。
大規模なトポロジのトレーニングでは、Geminetは10ギB未満のメモリを消費し、HARPが要求する80ギBの8倍以下である。
関連論文リスト
- LESA: Learnable LLM Layer Scaling-Up [57.0510934286449]
LLM(Large Language Models)をスクラッチからトレーニングするには膨大な計算資源が必要であるため、非常に高価である。
モデルスケーリングアップは、より小さなモデルのパラメータを活用してより大きなモデルを作成することで、有望なソリューションを提供する。
深度スケールアップのための新しい学習方法である textbfLESA を提案する。
論文 参考訳(メタデータ) (2025-02-19T14:58:48Z) - Fast and Slow Gradient Approximation for Binary Neural Network Optimization [11.064044986709733]
ハイパーネットワークに基づく手法は、ニューラルネットワークを用いて微分不可能な量子化関数の勾配を学習する。
本稿では,ヒストリ・グラディエント・ストレージ(HGS)モジュールを提案する。これは,ヒストリ・グラディエント・シーケンスをモデル化し,最適化に必要な1次モーメントを生成する。
また、ハイパーネットワークに層認識埋め込み(LRE)を導入し、層固有の微細勾配の生成を容易にする。
論文 参考訳(メタデータ) (2024-12-16T13:48:40Z) - SHERL: Synthesizing High Accuracy and Efficient Memory for Resource-Limited Transfer Learning [63.93193829913252]
本稿では,リソース制限シナリオに対するSHERLと呼ばれる革新的なMETL戦略を提案する。
初期経路では、中間出力は反冗長動作によって統合される。
遅延ルートでは、最小限の遅延事前トレーニングされたレイヤを利用することで、メモリオーバーヘッドのピーク需要を軽減できる。
論文 参考訳(メタデータ) (2024-07-10T10:22:35Z) - Layer-wise Adaptive Step-Sizes for Stochastic First-Order Methods for
Deep Learning [8.173034693197351]
深層学習における一階最適化のための新しい階層ごとの適応的なステップサイズ手順を提案する。
提案手法は,ディープニューラルネットワーク(DNN)におけるヘシアン対角ブロックに含まれる層次曲率情報を用いて,各層に対する適応的なステップサイズ(LR)を算出する。
数値実験により、SGDの運動量とAdamWと、提案した層ごとのステップサイズを組み合わせることで、効率的なLRスケジュールを選択できることが示されている。
論文 参考訳(メタデータ) (2023-05-23T04:12:55Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Scaling Forward Gradient With Local Losses [117.22685584919756]
フォワード学習は、ディープニューラルネットワークを学ぶためのバックプロップに代わる生物学的に妥当な代替手段である。
重みよりも活性化に摂動を適用することにより、前方勾配のばらつきを著しく低減できることを示す。
提案手法はMNIST と CIFAR-10 のバックプロップと一致し,ImageNet 上で提案したバックプロップフリーアルゴリズムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-10-07T03:52:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。