論文の概要: Wavelet-Based Hybrid Machine Learning Model for Out-of-distribution
Internet Traffic Prediction
- arxiv url: http://arxiv.org/abs/2205.04333v1
- Date: Mon, 9 May 2022 14:34:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-10 18:05:49.053278
- Title: Wavelet-Based Hybrid Machine Learning Model for Out-of-distribution
Internet Traffic Prediction
- Title(参考訳): インターネットトラフィック予測のためのウェーブレットに基づくハイブリッド機械学習モデル
- Authors: Sajal Saha, Anwar Haque, and Greg Sidebottom
- Abstract要約: 本稿では,eXtreme Gradient Boosting, Light Gradient Boosting Machine, Gradient Descent, Gradient Boosting Regressor, Cat Regressorを用いた機械学習性能について検討する。
本稿では,ウェーブレット分解を統合したハイブリッド機械学習モデルを提案する。
- 参考スコア(独自算出の注目度): 3.689539481706835
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Efficient prediction of internet traffic is essential for ensuring proactive
management of computer networks. Nowadays, machine learning approaches show
promising performance in modeling real-world complex traffic. However, most
existing works assumed that model training and evaluation data came from
identical distribution. But in practice, there is a high probability that the
model will deal with data from a slightly or entirely unknown distribution in
the deployment phase. This paper investigated and evaluated machine learning
performances using eXtreme Gradient Boosting, Light Gradient Boosting Machine,
Stochastic Gradient Descent, Gradient Boosting Regressor, CatBoost Regressor,
and their stacked ensemble model using data from both identical and out-of
distribution. Also, we proposed a hybrid machine learning model integrating
wavelet decomposition for improving out-of-distribution prediction as
standalone models were unable to generalize very well. Our experimental results
show the best performance of the standalone ensemble model with an accuracy of
96.4%, while the hybrid ensemble model improved it by 1% for in-distribution
data. But its performance dropped significantly when tested with three
different datasets having a distribution shift than the training set. However,
our proposed hybrid model considerably reduces the performance gap between
identical and out-of-distribution evaluation compared with the standalone
model, indicating the decomposition technique's effectiveness in the case of
out-of-distribution generalization.
- Abstract(参考訳): コンピュータネットワークの積極的な管理を確保するためには,インターネットトラフィックの効率的な予測が不可欠である。
今日では、機械学習アプローチは現実世界の複雑なトラフィックをモデル化する上で有望なパフォーマンスを示している。
しかし、既存の研究の多くは、モデルトレーニングと評価データは同一の分布から来ていると仮定している。
しかし実際には、モデルがデプロイメントフェーズにおけるわずかあるいは完全に未知の分布からのデータを扱う可能性は高い。
本稿では,高度勾配昇降機,光勾配昇降機,確率勾配降下機,勾配昇降器,キャットブースト回帰器,および同一分布およびアウトオブ分布のデータを用いた重ね合わせアンサンブルモデルを用いて,機械学習の性能を検証・評価した。
また,ウェーブレット分解を統合したハイブリッド機械学習モデルを提案した。
実験の結果,96.4%の精度で独立アンサンブルモデルの性能が向上したのに対し,ハイブリッドアンサンブルモデルは分布内データに対して1%向上した。
しかし、トレーニングセットよりも分散シフトを持つ3つの異なるデータセットでテストすると、パフォーマンスが大幅に低下した。
しかし,提案するハイブリッドモデルでは,同一分布評価と非分布評価との性能差が,単独モデルと比較してかなり小さくなり,分布汎化の場合の分解手法の有効性が示された。
関連論文リスト
- Supervised Score-Based Modeling by Gradient Boosting [49.556736252628745]
本稿では,スコアマッチングを組み合わせた勾配向上アルゴリズムとして,SSM(Supervised Score-based Model)を提案する。
推測時間と予測精度のバランスをとるため,SSMの学習とサンプリングに関する理論的解析を行った。
我々のモデルは、精度と推測時間の両方で既存のモデルより優れています。
論文 参考訳(メタデータ) (2024-11-02T07:06:53Z) - Towards Theoretical Understandings of Self-Consuming Generative Models [56.84592466204185]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,このトレーニングが将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
カーネル密度推定の結果は,混合データトレーニングがエラー伝播に与える影響など,微妙な洞察を与える。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - Adversarial Augmentation Training Makes Action Recognition Models More
Robust to Realistic Video Distribution Shifts [13.752169303624147]
アクション認識モデルは、トレーニングデータとテストデータの間の自然な分散シフトに直面したとき、堅牢性を欠くことが多い。
そこで本研究では,そのような分布格差に対するモデルレジリエンスを評価するための2つの新しい評価手法を提案する。
提案手法は,3つの動作認識モデルにまたがるベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-21T05:50:39Z) - Towards Continually Learning Application Performance Models [1.2278517240988065]
機械学習ベースのパフォーマンスモデルは、重要なジョブスケジューリングとアプリケーションの最適化決定を構築するために、ますます使われています。
伝統的に、これらのモデルは、より多くのサンプルが時間とともに収集されるため、データ分布が変化しないと仮定する。
本研究では,分布のドリフトを考慮した継続的な学習性能モデルを構築し,破滅的な忘れを軽減し,一般化性を向上させる。
論文 参考訳(メタデータ) (2023-10-25T20:48:46Z) - Diffusion-Model-Assisted Supervised Learning of Generative Models for
Density Estimation [10.793646707711442]
本稿では,密度推定のための生成モデルを訓練するためのフレームワークを提案する。
スコアベース拡散モデルを用いてラベル付きデータを生成する。
ラベル付きデータが生成されると、シンプルな完全に接続されたニューラルネットワークをトレーニングして、教師付き方法で生成モデルを学ぶことができます。
論文 参考訳(メタデータ) (2023-10-22T23:56:19Z) - Private Synthetic Data Meets Ensemble Learning [15.425653946755025]
機械学習モデルが合成データに基づいてトレーニングされ、実際のデータにデプロイされると、しばしばパフォーマンス低下が発生する。
実データを用いた場合のパフォーマンス向上を目標として,下流モデルのトレーニングのための新たなアンサンブル戦略を導入する。
論文 参考訳(メタデータ) (2023-10-15T04:24:42Z) - Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Churn Reduction via Distillation [54.5952282395487]
本研究は, 基礎モデルを教師として用いた蒸留によるトレーニングと, 予測的チャーンに対する明示的な制約によるトレーニングとの等価性を示す。
次に, 蒸留が近年の多くのベースラインに対する低チャーン訓練に有効であることを示す。
論文 参考訳(メタデータ) (2021-06-04T18:03:31Z) - Model-based Policy Optimization with Unsupervised Model Adaptation [37.09948645461043]
本研究では,不正確なモデル推定による実データとシミュレーションデータのギャップを埋めて,より良いポリシ最適化を実現する方法について検討する。
本稿では,教師なしモデル適応を導入したモデルベース強化学習フレームワークAMPOを提案する。
提案手法は,一連の連続制御ベンチマークタスクにおけるサンプル効率の観点から,最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-10-19T14:19:42Z) - Robust Finite Mixture Regression for Heterogeneous Targets [70.19798470463378]
本稿では,サンプルクラスタの探索と,複数の不完全な混合型ターゲットを同時にモデル化するFMRモデルを提案する。
我々は、高次元の学習フレームワークの下で、無症状のオラクルのパフォーマンス境界をモデルに提供します。
その結果,我々のモデルは最先端の性能を達成できることがわかった。
論文 参考訳(メタデータ) (2020-10-12T03:27:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。