論文の概要: Graph Neural Network based Service Function Chaining for Automatic
Network Control
- arxiv url: http://arxiv.org/abs/2009.05240v1
- Date: Fri, 11 Sep 2020 06:01:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 21:59:50.706608
- Title: Graph Neural Network based Service Function Chaining for Automatic
Network Control
- Title(参考訳): 自動ネットワーク制御のためのグラフニューラルネットワークに基づくサービス関数連鎖
- Authors: DongNyeong Heo, Stanislav Lange, Hee-Gon Kim and Heeyoul Choi
- Abstract要約: サービス機能連鎖(SFC)は,ネットワークサーバの効率的な経路を見つけるための重要な技術である。
グラフニューラルネットワーク(GNN)に基づくSFCのための新しいニューラルネットワークアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 0.4817429789586127
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Software-defined networking (SDN) and the network function virtualization
(NFV) led to great developments in software based control technology by
decreasing expenditures. Service function chaining (SFC) is an important
technology to find efficient paths in network servers to process all of the
requested virtualized network functions (VNF). However, SFC is challenging
since it has to maintain high Quality of Service (QoS) even for complicated
situations. Although some works have been conducted for such tasks with
high-level intelligent models like deep neural networks (DNNs), those
approaches are not efficient in utilizing the topology information of networks
and cannot be applied to networks with dynamically changing topology since
their models assume that the topology is fixed. In this paper, we propose a new
neural network architecture for SFC, which is based on graph neural network
(GNN) considering the graph-structured properties of network topology. The
proposed SFC model consists of an encoder and a decoder, where the encoder
finds the representation of the network topology, and then the decoder
estimates probabilities of neighborhood nodes and their probabilities to
process a VNF. In the experiments, our proposed architecture outperformed
previous performances of DNN based baseline model. Moreover, the GNN based
model can be applied to a new network topology without re-designing and
re-training.
- Abstract(参考訳): software-defined networking (sdn) と network function virtualization (nfv) は、コスト削減によるソフトウェアベースの制御技術の発展に繋がった。
サービス機能連鎖(sfc)は、要求されたすべての仮想化ネットワーク機能(vnf)を処理するネットワークサーバの効率的なパスを見つけるための重要な技術である。
しかし、複雑な状況であっても、高品質サービス(QoS)を維持する必要があるため、SFCは難しい。
ディープ・ニューラル・ネットワーク(DNN)のような高レベルのインテリジェント・モデルを用いたタスクのためにいくつかの研究がなされているが、これらのアプローチはネットワークのトポロジ情報を利用するのに効率的ではなく、トポロジが固定されていると仮定しているため、動的に変化するトポロジを持つネットワークに適用できない。
本稿では,ネットワークトポロジーのグラフ構造特性を考慮したグラフニューラルネットワーク(gnn)に基づく,sfcのためのニューラルネットワークアーキテクチャを提案する。
提案したSFCモデルは、エンコーダとデコーダから構成され、そこでエンコーダはネットワークトポロジの表現を見つけ、デコーダは近隣ノードの確率とVNFを処理する確率を推定する。
実験では,提案手法はDNNベースラインモデルの性能よりも優れていた。
さらに、GNNベースのモデルは、再設計や再トレーニングを行うことなく、新しいネットワークトポロジに適用することができる。
関連論文リスト
- Graph Metanetworks for Processing Diverse Neural Architectures [33.686728709734105]
Graph Metanetworks(GMN)は、競合するメソッドが苦労するニューラルネットワークに一般化する。
GMNは,入力ニューラルネットワーク関数を残したパラメータ置換対称性と等価であることを示す。
論文 参考訳(メタデータ) (2023-12-07T18:21:52Z) - Equivariant Matrix Function Neural Networks [1.8717045355288808]
解析行列同変関数を通じて非局所的相互作用をパラメータ化する新しいアーキテクチャであるマトリックス関数ニューラルネットワーク(MFNs)を導入する。
MFNは量子系の複雑な非局所的な相互作用を捉えることができ、新しい最先端の力場への道を歩むことができる。
論文 参考訳(メタデータ) (2023-10-16T14:17:00Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Generalization and Estimation Error Bounds for Model-based Neural
Networks [78.88759757988761]
スパースリカバリのためのモデルベースネットワークの一般化能力は、通常のReLUネットワークよりも優れていることを示す。
我々は,高一般化を保証したモデルベースネットワークの構築を可能にする実用的な設計規則を導出する。
論文 参考訳(メタデータ) (2023-04-19T16:39:44Z) - Vanilla Feedforward Neural Networks as a Discretization of Dynamical Systems [9.382423715831687]
本稿では,従来のネットワーク構造に戻り,バニラフィードフォワードネットワークが動的システムの数値的な離散化であることを示す。
我々の結果は、フィードフォワードニューラルネットワークの近似特性を理解するための新しい視点を提供することができる。
論文 参考訳(メタデータ) (2022-09-22T10:32:08Z) - Interference Cancellation GAN Framework for Dynamic Channels [74.22393885274728]
チャネルのあらゆる変更に適応できるオンライントレーニングフレームワークを導入します。
我々のフレームワークは、非常にダイナミックなチャネル上での最近のニューラルネットワークモデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2022-08-17T02:01:18Z) - Scaling Graph-based Deep Learning models to larger networks [2.946140899052065]
Graph Neural Networks (GNN)は、ネットワーク制御と管理のために商用製品に統合される可能性を示している。
本稿では,リンク容量の増大やリンクトラフィックの集約など,大規模ネットワークに効果的にスケール可能なGNNベースのソリューションを提案する。
論文 参考訳(メタデータ) (2021-10-04T09:04:19Z) - Overcoming Catastrophic Forgetting in Graph Neural Networks [50.900153089330175]
破滅的な忘れは、ニューラルネットワークが新しいタスクを学ぶ前に学んだ知識を「忘れる」傾向を指します。
本稿では,この問題を克服し,グラフニューラルネットワーク(GNN)における継続学習を強化するための新しいスキームを提案する。
私たちのアプローチの中心には、トポロジ認識重量保存(TWP)と呼ばれる汎用モジュールがあります。
論文 参考訳(メタデータ) (2020-12-10T22:30:25Z) - Reinforcement Learning of Graph Neural Networks for Service Function
Chaining [3.9373541926236766]
サービス機能連鎖(SFC)モジュールは、物理サーバを介してネットワークトラフィックの効率的な経路を生成することで重要な役割を果たす。
従来の教師付き学習手法では,SFCタスクのネットワーク特徴をグラフニューラルネットワーク(GNN)で表現できることが実証された。
本稿では,ラベルなしデータを用いた各種ネットワークトポロジのトレーニングモデルに強化学習手法を適用した。
論文 参考訳(メタデータ) (2020-11-17T03:50:53Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。