論文の概要: Transfer Learning Based Efficient Traffic Prediction with Limited
Training Data
- arxiv url: http://arxiv.org/abs/2205.04344v1
- Date: Mon, 9 May 2022 14:44:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-10 17:03:12.109020
- Title: Transfer Learning Based Efficient Traffic Prediction with Limited
Training Data
- Title(参考訳): 限られたトレーニングデータを用いた効率的な交通予測に基づく転送学習
- Authors: Sajal Saha, Anwar Haque, and Greg Sidebottom
- Abstract要約: インターネットトラフィックの効率的な予測は、積極的な管理を確保するための自己組織化ネットワーク(SON)の不可欠な部分である。
限られた訓練データを用いたネットワークトラフィック予測における深部シーケンスモデルは、現在研究されている研究で広く研究されていない。
不適切な歴史データを用いた交通予測における深層移動学習手法の性能について検討・評価を行った。
- 参考スコア(独自算出の注目度): 3.689539481706835
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Efficient prediction of internet traffic is an essential part of Self
Organizing Network (SON) for ensuring proactive management. There are many
existing solutions for internet traffic prediction with higher accuracy using
deep learning. But designing individual predictive models for each service
provider in the network is challenging due to data heterogeneity, scarcity, and
abnormality. Moreover, the performance of the deep sequence model in network
traffic prediction with limited training data has not been studied extensively
in the current works. In this paper, we investigated and evaluated the
performance of the deep transfer learning technique in traffic prediction with
inadequate historical data leveraging the knowledge of our pre-trained model.
First, we used a comparatively larger real-world traffic dataset for source
domain prediction based on five different deep sequence models: Recurrent
Neural Network (RNN), Long Short-Term Memory (LSTM), LSTM Encoder-Decoder
(LSTM_En_De), LSTM_En_De with Attention layer (LSTM_En_De_Atn), and Gated
Recurrent Unit (GRU). Then, two best-performing models, LSTM_En_De and
LSTM_En_De_Atn, from the source domain with an accuracy of 96.06% and 96.05%
are considered for the target domain prediction. Finally, four smaller traffic
datasets collected for four particular sources and destination pairs are used
in the target domain to compare the performance of the standard learning and
transfer learning in terms of accuracy and execution time. According to our
experimental result, transfer learning helps to reduce the execution time for
most cases, while the model's accuracy is improved in transfer learning with a
larger training session.
- Abstract(参考訳): インターネットトラフィックの効率的な予測は、積極的な管理を確保するための自己組織化ネットワーク(son)の重要な部分である。
ディープラーニングを用いた精度の高いインターネットトラフィック予測には,既存のソリューションが数多く存在する。
しかし、ネットワーク内の各サービスプロバイダの個々の予測モデルの設計は、データの均一性、不足、異常のために難しい。
また、トレーニングデータが少ないネットワークトラヒック予測におけるディープシーケンスモデルの性能は、現在の研究ではあまり研究されていない。
本稿では,事前学習モデルの知識を生かした不適切な履歴データを用いて,交通予測におけるディープトランスファー学習手法の性能を検証・評価した。
まず、Recurrent Neural Network(RNN)、Long Short-Term Memory(LSTM)、LSTM Encoder-Decoder(LSTM_En_De)、LSTM_En_De with Attention Layer(LSTM_En_De_Atn)、Gated Recurrent Unit(GRU)の5つのディープシーケンスモデルに基づいて、ソースドメイン予測のための比較的大きな実世界のトラフィックデータセットを使用した。
次に、目標領域予測には、精度96.06%、精度96.05%のソース領域からの2つの最高の性能モデルLSTM_En_DeとLSTM_En_De_Atnが考慮される。
最後に、4つの特定のソースと宛先ペアのために収集された4つの小さなトラフィックデータセットをターゲットドメインで使用し、精度と実行時間の観点から標準学習と転送学習のパフォーマンスを比較する。
実験結果によると,移動学習はほとんどの場合の実行時間を削減するのに役立ち,モデルの精度はより大きなトレーニングセッションで伝達学習において向上する。
関連論文リスト
- Multi-Scale Convolutional LSTM with Transfer Learning for Anomaly Detection in Cellular Networks [1.1432909951914676]
本研究では,トランスファーラーニング(TL)を用いたマルチスケール畳み込みLSTMによるセルネットワークの異常検出手法を提案する。
モデルは最初、公開データセットを使用してスクラッチからトレーニングされ、典型的なネットワーク動作を学習する。
我々は,スクラッチから訓練したモデルの性能と,TLを用いた微調整モデルの性能を比較した。
論文 参考訳(メタデータ) (2024-09-30T17:51:54Z) - Overcoming Data Limitations in Internet Traffic Forecasting: LSTM Models with Transfer Learning and Wavelet Augmentation [1.9662978733004601]
小型ISPネットワークにおけるインターネットトラフィックの効果的な予測は、データ可用性の制限によって困難である。
本稿では2つのLSTMモデル(LSTMSeq2SeqとLSTMSeq2SeqAtn)を用いた転送学習とデータ拡張技術を用いてこの問題を考察する。
データセットは実際のインターネットトラフィックテレメトリを表し、さまざまなネットワークドメインにわたる多様なトラフィックパターンに関する洞察を提供する。
論文 参考訳(メタデータ) (2024-09-20T03:18:20Z) - TPLLM: A Traffic Prediction Framework Based on Pretrained Large Language Models [27.306180426294784]
大規模言語モデル(LLM)を利用した新しい交通予測フレームワークであるTPLLMを紹介する。
本フレームワークでは,Lonal Neural Networks (LoCNNs) に基づくシーケンス埋め込み層と,Graph Contemporalal Networks (GCNs) に基づくグラフ埋め込み層を構築し,シーケンスの特徴と空間的特徴を抽出する。
実世界の2つのデータセットの実験では、フルサンプルと数ショットの予測シナリオの両方で、満足できるパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-03-04T17:08:57Z) - Predicting Traffic Flow with Federated Learning and Graph Neural with Asynchronous Computations Network [0.0]
我々はFLAGCN(Federated Learning and Asynchronous Graph Convolutional Networks)と呼ばれる新しいディープラーニング手法を提案する。
本フレームワークでは,リアルタイムトラフィックフロー予測の精度と効率を高めるために,非同期グラフ畳み込みネットワークとフェデレーション学習の原理を取り入れている。
論文 参考訳(メタデータ) (2024-01-05T09:36:42Z) - Optimal transfer protocol by incremental layer defrosting [66.76153955485584]
トランスファーラーニングは、限られた量のデータでモデルトレーニングを可能にする強力なツールである。
最も単純な転送学習プロトコルは、データリッチなソースタスクで事前訓練されたネットワークの機能抽出層を凍結する。
このプロトコルは、しばしば準最適であり、事前学習されたネットワークの小さな部分を凍結したままにしておくと、最大の性能向上が達成される可能性がある。
論文 参考訳(メタデータ) (2023-03-02T17:32:11Z) - Online Evolutionary Neural Architecture Search for Multivariate
Non-Stationary Time Series Forecasting [72.89994745876086]
本研究は、オンラインニューロ進化に基づくニューラルアーキテクチャサーチ(ONE-NAS)アルゴリズムを提案する。
ONE-NASは、オンライン予測タスクのためにリカレントニューラルネットワーク(RNN)を自動設計し、動的にトレーニングする新しいニューラルネットワーク探索手法である。
その結果、ONE-NASは従来の統計時系列予測法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-20T22:25:47Z) - Learning to Transfer for Traffic Forecasting via Multi-task Learning [3.1836399559127218]
ディープニューラルネットワークは、短期的な交通予測において優れた性能を示している。
Traffic4castは、空間と時間におけるドメインシフトに対するトラフィック予測モデルの堅牢性を想定した最初のサービスである。
交通予測モデルの時間・時間領域適応のためのマルチタスク学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-27T03:16:40Z) - Self-Supervised Pre-Training for Transformer-Based Person
Re-Identification [54.55281692768765]
トランスフォーマーに基づく教師付き事前訓練は、人物再識別(ReID)において大きなパフォーマンスを達成する
ImageNetとReIDデータセットのドメインギャップのため、通常、パフォーマンスを高めるために、より大きなトレーニング済みデータセットが必要です。
この研究は、データとモデル構造の観点から、事前トレーニングデータセットとReIDデータセットのギャップを軽減することを目的としている。
論文 参考訳(メタデータ) (2021-11-23T18:59:08Z) - A Meta-Learning Approach to the Optimal Power Flow Problem Under
Topology Reconfigurations [69.73803123972297]
メタラーニング(MTL)アプローチを用いて訓練されたDNNベースのOPF予測器を提案する。
開発したOPF予測器はベンチマークIEEEバスシステムを用いてシミュレーションにより検証される。
論文 参考訳(メタデータ) (2020-12-21T17:39:51Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z) - Parameter-Efficient Transfer from Sequential Behaviors for User Modeling
and Recommendation [111.44445634272235]
本稿では,PeterRecと呼ばれるパラメータ効率のよい移動学習アーキテクチャを提案する。
PeterRecは、トレーニング済みのパラメータを、一連の再学習ニューラルネットワークを注入することで、微調整中に修正されないようにする。
我々は5つの下流タスクにおいて学習したユーザ表現の有効性を示すために、広範囲な実験的アブレーションを行う。
論文 参考訳(メタデータ) (2020-01-13T14:09:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。