論文の概要: Forecasting Loss of Signal in Optical Networks with Machine Learning
- arxiv url: http://arxiv.org/abs/2201.07089v1
- Date: Sat, 8 Jan 2022 13:41:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-23 18:29:53.727975
- Title: Forecasting Loss of Signal in Optical Networks with Machine Learning
- Title(参考訳): 機械学習を用いた光ネットワークにおける信号損失予測
- Authors: Wenjie Du, David C\^ot\'e, Chris Barber, and Yan Liu
- Abstract要約: Loss of Signal (LOS) は、光ネットワークのオペレーターにとって大きなコストである。
教師あり機械学習(ML)を用いて、1~7日前にLOSイベントを精度良く予測できることを示す。
我々のモデルは、以前モデルに知られていなかった光ネットワークに対して有効であり、商用用途に使用することができる。
- 参考スコア(独自算出の注目度): 5.148848708081841
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Loss of Signal (LOS) represents a significant cost for operators of optical
networks. By studying large sets of real-world Performance Monitoring (PM) data
collected from six international optical networks, we find that it is possible
to forecast LOS events with good precision 1-7 days before they occur, albeit
at relatively low recall, with supervised machine learning (ML). Our study
covers twelve facility types, including 100G lines and ETH10G clients. We show
that the precision for a given network improves when training on multiple
networks simultaneously relative to training on an individual network.
Furthermore, we show that it is possible to forecast LOS from all facility
types and all networks with a single model, whereas fine-tuning for a
particular facility or network only brings modest improvements. Hence our ML
models remain effective for optical networks previously unknown to the model,
which makes them usable for commercial applications.
- Abstract(参考訳): Loss of Signal (LOS) は、光ネットワークのオペレーターにとって大きなコストである。
6つの国際光ネットワークから収集した実世界のパフォーマンスモニタリング(PM)データを用いて,比較的低いリコールで,監視機械学習(ML)を用いて,LOSイベントを1~7日前の精度で予測できることを見出した。
調査対象は100gラインとeth10gクライアントを含む12種類の施設タイプである。
個々のネットワーク上でのトレーニングに対して,複数のネットワークで同時にトレーニングを行う場合,与えられたネットワークの精度が向上することを示す。
さらに,全施設タイプと全ネットワークから単一モデルでLOSを予測できるのに対して,特定の施設やネットワークの微調整は微妙な改善しか得られないことを示す。
したがって、我々のMLモデルは、これまでそのモデルに知られていなかった光ネットワークに対して有効であり、商用用途に使用することができる。
関連論文リスト
- Multi-Scale Convolutional LSTM with Transfer Learning for Anomaly Detection in Cellular Networks [1.1432909951914676]
本研究では,トランスファーラーニング(TL)を用いたマルチスケール畳み込みLSTMによるセルネットワークの異常検出手法を提案する。
モデルは最初、公開データセットを使用してスクラッチからトレーニングされ、典型的なネットワーク動作を学習する。
我々は,スクラッチから訓練したモデルの性能と,TLを用いた微調整モデルの性能を比較した。
論文 参考訳(メタデータ) (2024-09-30T17:51:54Z) - Rail-only: A Low-Cost High-Performance Network for Training LLMs with Trillion Parameters [7.293402047354488]
本稿では,大規模言語モデル(LLM)をハイパースケールでトレーニングするための,低コストなネットワークアーキテクチャを提案する。
この設計をRailオンリーネットワークと名付け,ネットワークコストを38%から77%削減しながら,同じトレーニング性能を実現することを示す。
私たちのアーキテクチャは、全トラフィックに対して8.2%から11.2%の完了時間オーバーヘッドしか持たない、全対全通信を備えたMixture-of-Expert(MoE)モデルもサポートしています。
論文 参考訳(メタデータ) (2023-07-22T21:18:41Z) - Unifying Synergies between Self-supervised Learning and Dynamic
Computation [53.66628188936682]
SSLとDCのパラダイム間の相互作用に関する新しい視点を提示する。
SSL設定において、スクラッチから高密度かつゲートされたサブネットワークを同時に学習することは可能であることを示す。
密集エンコーダとゲートエンコーダの事前学習における共進化は、良好な精度と効率のトレードオフをもたらす。
論文 参考訳(メタデータ) (2023-01-22T17:12:58Z) - RouteNet-Fermi: Network Modeling with Graph Neural Networks [7.227467283378366]
我々は、キューイング理論と同じ目標を共有するカスタムグラフニューラルネットワーク(GNN)モデルであるRouteNet-Fermiを紹介する。
提案モデルでは,ネットワークの遅延,ジッタ,パケット損失を正確に予測する。
実験の結果,RouteNet-Fermi はパケットレベルシミュレータと同様の精度でパケットレベルシミュレータを実現することがわかった。
論文 参考訳(メタデータ) (2022-12-22T23:02:40Z) - Training Spiking Neural Networks with Local Tandem Learning [96.32026780517097]
スパイキングニューラルネットワーク(SNN)は、前者よりも生物学的に可塑性でエネルギー効率が高いことが示されている。
本稿では,局所タンデム学習(Local Tandem Learning, LTL)と呼ばれる一般化学習規則を提案する。
CIFAR-10データセット上の5つのトレーニングエポック内に高速なネットワーク収束を示すとともに,計算複雑性が低い。
論文 参考訳(メタデータ) (2022-10-10T10:05:00Z) - DSPNet: Towards Slimmable Pretrained Networks based on Discriminative
Self-supervised Learning [43.45674911425684]
我々はDSPNet(Driminative-SSL-based Slimmable Pretrained Networks)を提案する。
DSPNetは一度にトレーニングでき、その後、さまざまなサイズの複数のサブネットワークにスリム化される。
個別に事前学習したネットワークに対して、ImageNet上でのDSPNetの同等または改善性能を示す。
論文 参考訳(メタデータ) (2022-07-13T09:32:54Z) - Balancing Generalization and Specialization in Zero-shot Learning [80.7530875747194]
両機能を利用するために,BGSNetと呼ばれる共通化と能力のバランスの取れたエンドツーエンドネットワークを提案する。
新たな自己調整型多様性損失は、冗長性の低減と多様性の向上により、BSNetを最適化するように設計されている。
4つのベンチマークデータセットの実験は、我々のモデルの有効性を示している。
論文 参考訳(メタデータ) (2022-01-06T08:04:27Z) - The Lottery Tickets Hypothesis for Supervised and Self-supervised
Pre-training in Computer Vision Models [115.49214555402567]
事前訓練された重量は、しばしば分類、検出、セグメンテーションを含む幅広い下流タスクを増加させる。
最近の研究は、巨大モデル能力による事前学習の利点を示唆している。
本稿では,抽選券仮説(LTH)のレンズを用いて,教師付きおよび自己指導型事前学習モデルについて検討する。
論文 参考訳(メタデータ) (2020-12-12T21:53:55Z) - Enabling certification of verification-agnostic networks via
memory-efficient semidefinite programming [97.40955121478716]
本稿では,ネットワークアクティベーションの総数にのみ線形なメモリを必要とする一階二重SDPアルゴリズムを提案する。
L-inf の精度は 1% から 88% ,6% から 40% に改善した。
また,変分オートエンコーダの復号器に対する2次安定性仕様の厳密な検証を行った。
論文 参考訳(メタデータ) (2020-10-22T12:32:29Z) - ReActNet: Towards Precise Binary Neural Network with Generalized
Activation Functions [76.05981545084738]
本稿では,新たな計算コストを伴わずに,実数値ネットワークからの精度ギャップを埋めるため,バイナリネットワークを強化するためのいくつかのアイデアを提案する。
まず,パラメータフリーのショートカットを用いて,コンパクトな実数値ネットワークを修正・バイナライズすることで,ベースラインネットワークを構築する。
提案したReActNetはすべての最先端技術よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2020-03-07T02:12:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。