論文の概要: Experimental Demonstration of Online Learning-Based Concept Drift Adaptation for Failure Detection in Optical Networks
- arxiv url: http://arxiv.org/abs/2602.10401v1
- Date: Wed, 11 Feb 2026 01:07:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.361434
- Title: Experimental Demonstration of Online Learning-Based Concept Drift Adaptation for Failure Detection in Optical Networks
- Title(参考訳): 光ネットワークにおける故障検出のためのオンライン学習に基づくコンセプトドリフト適応の実験的検討
- Authors: Yousuf Moiz Ali, Jaroslaw E. Prilepsky, João Pedro, Antonio Napoli, Sasipim Srivallapanondh, Sergei K. Turitsyn, Pedro Freire,
- Abstract要約: 我々は,従来の静的モデルよりも70%の性能向上を実現し,光ネットワーク障害検出におけるコンセプトドリフト適応のための新しいオンライン学習ベースのアプローチを提案する。
- 参考スコア(独自算出の注目度): 2.5957865963175855
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a novel online learning-based approach for concept drift adaptation in optical network failure detection, achieving up to a 70% improvement in performance over conventional static models while maintaining low latency.
- Abstract(参考訳): 本稿では、従来の静的モデルよりも70%の性能向上を実現し、低レイテンシを維持しながら、新しいオンライン学習ベースで概念のドリフト適応を光学ネットワーク故障検出に適用する手法を提案する。
関連論文リスト
- ANCRe: Adaptive Neural Connection Reassignment for Efficient Depth Scaling [57.91760520589592]
ネットワークの深度を拡大することは、現代の基礎モデルの成功の背後にある中心的な要因である。
本稿では,ニューラルネットワークの奥行き,すなわち残差接続の既定メカニズムを再考する。
我々は、データから残余接続性をパラメータ化し、学習する原則的かつ軽量なフレームワークである、適応型ニューラルネットワーク再割り当て(ANCRe)を導入する。
論文 参考訳(メタデータ) (2026-02-09T18:54:18Z) - Faster Predictive Coding Networks via Better Initialization [52.419343840654186]
本稿では,従来のトレーニングサンプルの反復的進捗を抑えることを目的とした,予測符号化ネットワークのための新しい手法を提案する。
本実験は,教師なし設定と教師なし設定の両方において,収束速度と最終テスト損失が大幅に改善されたことを示す。
論文 参考訳(メタデータ) (2026-01-28T08:52:19Z) - Predictive Coding-based Deep Neural Network Fine-tuning for Computationally Efficient Domain Adaptation [5.013248430919224]
デバイス上でのドメイン適応を効率的に行うためのハイブリッドトレーニング手法を提案する。
この方法は、バックプロパゲーションを使用してオフラインでトレーニングされたディープニューラルネットワークから始まる。
予測符号化はオンライン適応に使用されており、入力データ分布の変化によって失われた精度を復元することができる。
論文 参考訳(メタデータ) (2025-09-24T16:03:27Z) - Online-BLS: An Accurate and Efficient Online Broad Learning System for Data Stream Classification [52.251569042852815]
オンライン更新毎にクローズドフォームソリューションを備えたオンライン広範学習システムフレームワークを導入する。
我々は,効果的な重み推定アルゴリズムと効率的なオンライン更新戦略を設計する。
我々のフレームワークは、コンセプトドリフトを伴うデータストリームシナリオに自然に拡張され、最先端のベースラインを超えます。
論文 参考訳(メタデータ) (2025-01-28T13:21:59Z) - Liquid Neural Network-based Adaptive Learning vs. Incremental Learning for Link Load Prediction amid Concept Drift due to Network Failures [37.66676003679306]
概念の漂流に適応することは、機械学習において難しい課題である。
通信ネットワークでは、障害イベントの後に交通予報を行う際にこのような問題が生じる。
本稿では,適応学習アルゴリズム,すなわち,データパターンの急激な変化を,再学習を必要とせずに自己適応できる手法を提案する。
論文 参考訳(メタデータ) (2024-04-08T08:47:46Z) - MORPH: Towards Automated Concept Drift Adaptation for Malware Detection [0.7499722271664147]
コンセプトドリフトはマルウェア検出にとって重要な課題である。
自己学習は、コンセプトドリフトを緩和するための有望なアプローチとして現れています。
擬似ラベルに基づく効果的なドリフト適応法であるMORPHを提案する。
論文 参考訳(メタデータ) (2024-01-23T14:25:43Z) - METER: A Dynamic Concept Adaptation Framework for Online Anomaly
Detection [25.022228143354123]
リアルタイム分析と意思決定は、データストリームのドリフトを効率的かつ効果的に処理するために、オンラインの異常検出を必要とする。
既存のアプローチは、検出能力の制限と、進化するデータストリームへの適応の遅さによって制約されることが多い。
我々は,OADの新しいパラダイムを導入した新しい動的概念適応フレームワークであるMETERを紹介する。
論文 参考訳(メタデータ) (2023-12-28T05:09:31Z) - Learning Fast and Slow for Online Time Series Forecasting [76.50127663309604]
Fast and Slow Learning Networks (FSNet)は、オンライン時系列予測のための総合的なフレームワークである。
FSNetは、最近の変更への迅速な適応と、同様の古い知識の取得のバランスを取る。
私たちのコードは公開されます。
論文 参考訳(メタデータ) (2022-02-23T18:23:07Z) - Recursive Least-Squares Estimator-Aided Online Learning for Visual
Tracking [58.14267480293575]
オフライン学習を必要とせず、簡単な効果的なオンライン学習手法を提案する。
これは、モデルが以前見たオブジェクトに関する知識を記憶するための、内蔵されたメモリ保持メカニズムを可能にする。
我々は、RT-MDNetにおける多層パーセプトロンと、DiMPにおける畳み込みニューラルネットワークの追跡のためのオンライン学習ファミリーにおける2つのネットワークに基づくアプローチを評価する。
論文 参考訳(メタデータ) (2021-12-28T06:51:18Z) - Exploring Model Robustness with Adaptive Networks and Improved
Adversarial Training [56.82000424924979]
入力サンプルに条件付きでネットワークを適応させる条件正規化モジュールを提案する。
適応的ネットワークは、一度逆さまに訓練された場合、クリーンな検証精度と堅牢性の両方において、適応的でないネットワークよりも優れています。
論文 参考訳(メタデータ) (2020-05-30T23:23:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。