論文の概要: MAGNNETO: A Graph Neural Network-based Multi-Agent system for Traffic
Engineering
- arxiv url: http://arxiv.org/abs/2303.18157v1
- Date: Fri, 31 Mar 2023 15:47:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 13:28:09.722444
- Title: MAGNNETO: A Graph Neural Network-based Multi-Agent system for Traffic
Engineering
- Title(参考訳): MAGNNETO: グラフニューラルネットワークを用いた交通工学用マルチエージェントシステム
- Authors: Guillermo Bern\'ardez, Jos\'e Su\'arez-Varela, Albert L\'opez, Xiang
Shi, Shihan Xiao, Xiangle Cheng, Pere Barlet-Ros, and Albert
Cabellos-Aparicio
- Abstract要約: 分散TE最適化にマルチエージェント強化学習とグラフニューラルネットワークを利用する分散MLベースのフレームワークMAGNNETOを提案する。
その分散した性質のおかげで、MAGNNETOは実行時間を大幅に削減した最先端のTEに匹敵するパフォーマンスを実現している。
- 参考スコア(独自算出の注目度): 5.913155491170352
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current trends in networking propose the use of Machine Learning (ML) for a
wide variety of network optimization tasks. As such, many efforts have been
made to produce ML-based solutions for Traffic Engineering (TE), which is a
fundamental problem in ISP networks. Nowadays, state-of-the-art TE optimizers
rely on traditional optimization techniques, such as Local search, Constraint
Programming, or Linear programming. In this paper, we present MAGNNETO, a
distributed ML-based framework that leverages Multi-Agent Reinforcement
Learning and Graph Neural Networks for distributed TE optimization. MAGNNETO
deploys a set of agents across the network that learn and communicate in a
distributed fashion via message exchanges between neighboring agents.
Particularly, we apply this framework to optimize link weights in OSPF, with
the goal of minimizing network congestion. In our evaluation, we compare
MAGNNETO against several state-of-the-art TE optimizers in more than 75
topologies (up to 153 nodes and 354 links), including realistic traffic loads.
Our experimental results show that, thanks to its distributed nature, MAGNNETO
achieves comparable performance to state-of-the-art TE optimizers with
significantly lower execution times. Moreover, our ML-based solution
demonstrates a strong generalization capability to successfully operate in new
networks unseen during training.
- Abstract(参考訳): ネットワークの最近のトレンドは、さまざまなネットワーク最適化タスクに機械学習(ml)を使うことを提案する。
そのため、ISPネットワークにおける根本的な問題である交通工学(TE)のためのMLベースのソリューションを作成するために、多くの取り組みがなされている。
現在、最先端のteオプティマイザは、局所探索、制約プログラミング、線形プログラミングといった従来の最適化技術に依存している。
本稿では,分散TE最適化にマルチエージェント強化学習とグラフニューラルネットワークを利用する分散MLベースのフレームワークMAGNNETOを提案する。
MAGNNETOはネットワーク全体に一連のエージェントをデプロイし、近隣エージェント間のメッセージ交換を通じて分散形式で学習し、通信する。
特に,このフレームワークを用いてOSPFのリンク重み付けを最適化し,ネットワークの混雑を最小限に抑える。
本評価では,75以上のトポロジ(最大153ノード,354リンク)において,MAGNNETOと最先端のTEオプティマイザを比較した。
実験の結果,MAGNNETOは分散特性により,実行時間を大幅に短縮した最先端TEオプティマイザに匹敵する性能を示した。
さらに、MLベースのソリューションは、トレーニング中に見えない新しいネットワークでの運用を成功させる強力な一般化能力を示す。
関連論文リスト
- WDMoE: Wireless Distributed Mixture of Experts for Large Language Models [68.45482959423323]
大規模言語モデル(LLM)は様々な自然言語処理タスクにおいて大きな成功を収めた。
本稿では,無線ネットワーク上での基地局(BS)およびモバイルデバイスにおけるエッジサーバ間のLLMの協調展開を実現するために,無線分散Mixture of Experts(WDMoE)アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-11-11T02:48:00Z) - Energy-Aware FPGA Implementation of Spiking Neural Network with LIF Neurons [0.5243460995467893]
スパイキングニューラルネットワーク(SNN)は、TinyMLの最先端ソリューションとして際立っている。
本稿では,第1次Leaky Integrate-and-Fire(LIF)ニューロンモデルに基づく新しいSNNアーキテクチャを提案する。
ハードウェアフレンドリーなLIF設計も提案され、Xilinx Artix-7 FPGA上で実装されている。
論文 参考訳(メタデータ) (2024-11-03T16:42:10Z) - Read-ME: Refactorizing LLMs as Router-Decoupled Mixture of Experts with System Co-Design [59.00758127310582]
本稿では、事前学習された高密度LCMをより小さなMoEモデルに変換する新しいフレームワークRead-MEを提案する。
当社のアプローチでは,専門家の抽出にアクティベーション空間を用いる。
Read-MEは、同様のスケールの他の人気のあるオープンソース高密度モデルよりも優れています。
論文 参考訳(メタデータ) (2024-10-24T19:48:51Z) - FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - NetLLM: Adapting Large Language Models for Networking [36.61572542761661]
我々は,ネットワーク問題を解決するために低努力でLLMの強力な能力を活用するためのコヒーレントな設計を提供する最初のフレームワークであるNetLLMを紹介する。
具体的には、NetLLMはLLMにネットワーク上のマルチモーダルデータを効果的に処理し、タスク固有の回答を効率的に生成する権限を与える。
論文 参考訳(メタデータ) (2024-02-04T04:21:34Z) - Computational Tradeoffs of Optimization-Based Bound Tightening in ReLU
Networks [4.01907644010256]
ニューラルネットワークをRectified Linear Unit(ReLU)アクティベーションで表現するMILP(Mixed-Integer Linear Programming)モデルは、ここ10年で急速に普及している。
これにより、MILP技術を用いて、テストまたはストレス・サービヘイビアを行い、トレーニングを逆向きに改善し、予測力を活かした最適化モデルに組み込むことが可能になった。
ネットワーク構造、正規化、ラウンドリングの影響に基づき、これらのモデルを実装するためのガイドラインを提供する。
論文 参考訳(メタデータ) (2023-12-27T19:32:59Z) - Optimization Guarantees of Unfolded ISTA and ADMM Networks With Smooth
Soft-Thresholding [57.71603937699949]
我々は,学習エポックの数の増加とともに,ほぼゼロに近いトレーニング損失を達成するための最適化保証について検討した。
トレーニングサンプル数に対する閾値は,ネットワーク幅の増加とともに増加することを示す。
論文 参考訳(メタデータ) (2023-09-12T13:03:47Z) - Dynamic Neural Network for Multi-Task Learning Searching across Diverse
Network Topologies [14.574399133024594]
多様なグラフトポロジを持つ複数のタスクに対して最適化された構造を探索する新しいMTLフレームワークを提案する。
我々は、トポロジ的に多様なタスク適応構造を構築するために、読み出し/読み出し層を備えたDAGベースの制限付き中央ネットワークを設計する。
論文 参考訳(メタデータ) (2023-03-13T05:01:50Z) - Teal: Learning-Accelerated Optimization of WAN Traffic Engineering [68.7863363109948]
本稿では,GPUの並列処理能力を活用してTE制御を高速化する学習型TEアルゴリズムTealを提案する。
問題スケールの削減と学習のトラクタビリティ向上のために,Tealはマルチエージェント強化学習(RL)アルゴリズムを用いて,各トラフィック要求を独立に割り当てる。
他のTE加速方式と比較して、Tealは需要を6~32%増やし、197~625倍のスピードアップを達成している。
論文 参考訳(メタデータ) (2022-10-25T04:46:30Z) - Is Machine Learning Ready for Traffic Engineering Optimization? [3.960503227928945]
交通工学(TE)は、インターネットの基本的な構成要素である。
本稿では,最新の機械学習(ML)手法がTE最適化に使えるかどうかを解析する。
まず,MLの最新の進歩を生かしたTEのための新しい分散システムを提案する。
本稿では,MARL(Multi-Agent Reinforcement Learning)とGNN(Graph Neural Networks)を組み合わせて,ネットワークの混雑を最小限に抑えるアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-09-03T11:10:14Z) - Deep Multi-Task Learning for Cooperative NOMA: System Design and
Principles [52.79089414630366]
我々は,近年のディープラーニング(DL)の進歩を反映した,新しいディープ・コラボレーティブなNOMAスキームを開発する。
我々は,システム全体を包括的に最適化できるように,新しいハイブリッドカスケードディープニューラルネットワーク(DNN)アーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-07-27T12:38:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。