論文の概要: Attentive Federated Learning for Concept Drift in Distributed 5G Edge
Networks
- arxiv url: http://arxiv.org/abs/2111.07457v1
- Date: Sun, 14 Nov 2021 21:48:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-17 05:04:12.840687
- Title: Attentive Federated Learning for Concept Drift in Distributed 5G Edge
Networks
- Title(参考訳): 分散5gエッジネットワークにおける概念ドリフトのための注意フェデレーション学習
- Authors: Amir Hossein Estiri, Muthucumaru Maheswaran
- Abstract要約: フェデレートラーニング(FL)における注意力の使用は,概念ドリフトを効果的に扱う方法であることを示す。
5Gネットワークトラフィックデータセットを使用して,コンセプトドリフトをシミュレートし,さまざまなシナリオをテストする。
- 参考スコア(独自算出の注目度): 0.8122270502556374
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) is expected to play a major role in 5G edge computing.
Various studies have demonstrated that ML is highly suitable for optimizing
edge computing systems as rapid mobility and application-induced changes occur
at the edge. For ML to provide the best solutions, it is important to
continually train the ML models to include the changing scenarios. The sudden
changes in data distributions caused by changing scenarios (e.g., 5G base
station failures) is referred to as concept drift and is a major challenge to
continual learning. The ML models can present high error rates while the drifts
take place and the errors decrease only after the model learns the
distributions. This problem is more pronounced in a distributed setting where
multiple ML models are being used for different heterogeneous datasets and the
final model needs to capture all concept drifts. In this paper, we show that
using Attention in Federated Learning (FL) is an efficient way of handling
concept drifts. We use a 5G network traffic dataset to simulate concept drift
and test various scenarios. The results indicate that Attention can
significantly improve the concept drift handling capability of FL.
- Abstract(参考訳): 機械学習(ML)は5Gエッジコンピューティングにおいて大きな役割を果たすことが期待されている。
様々な研究により、MLはエッジコンピューティングシステムの最適化に非常に適していることが示されている。
MLが最良のソリューションを提供するためには、変更シナリオを含むように、MLモデルを継続的にトレーニングすることが重要です。
変化するシナリオ(例えば5gベースステーション障害)によって引き起こされるデータ分布の急激な変化は概念ドリフトと呼ばれ、継続的な学習にとって大きな課題である。
MLモデルは、ドリフトが発生しながら高いエラー率を示し、モデルが分布を学習した後のみエラーが減少する。
この問題は、さまざまな異種データセットに複数のMLモデルを使用しており、最終的なモデルはすべてのコンセプトドリフトをキャプチャする必要がある分散環境でより顕著である。
本稿では,federated learning (fl) における注意力の利用が,概念ドリフトを扱う効率的な方法であることを示す。
5gネットワークトラフィックデータセットを使用して,概念ドリフトをシミュレートし,さまざまなシナリオをテストする。
その結果,FLのドリフトハンドリング能力は,注意が著しく向上することが示唆された。
関連論文リスト
- Time to Retrain? Detecting Concept Drifts in Machine Learning Systems [1.4499463058550683]
機械学習(ML)モデルにおける概念ドリフトを検出するためのモデル非依存手法(CDSeer)を提案する。
その結果、CDSeerの精度とリコールは最先端と比較して優れており、手作業によるラベリングは極めて少ないことがわかった。
CDSeerのパフォーマンス向上と導入の容易さは、MLシステムをより信頼性の高いものにする上で価値がある。
論文 参考訳(メタデータ) (2024-10-11T18:47:39Z) - Just How Flexible are Neural Networks in Practice? [89.80474583606242]
ニューラルネットワークは、パラメータを持つ少なくとも多くのサンプルを含むトレーニングセットに適合できると広く信じられている。
しかし実際には、勾配や正規化子など、柔軟性を制限したトレーニング手順によるソリューションしか見つからない。
論文 参考訳(メタデータ) (2024-06-17T12:24:45Z) - Adapting Multi-modal Large Language Model to Concept Drift From Pre-training Onwards [16.97188816362991]
マルチモーダル大規模言語モデル(MLLM)は、実世界のストリーミングデータを扱う際に、コンセプトドリフトから問題に直面することが多い。
本稿では、段階的ドリフトと急激なドリフトに起因する重大なバイアスに対するビジョンランゲージモデル(VL)の感受性と脆弱性を明らかにする。
本稿では,概念ドリフト理論をマルチモーダル領域に拡張し,VLモデルの分布予測不可能な変化への適応性を向上する統合フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-22T09:01:56Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - On the Change of Decision Boundaries and Loss in Learning with Concept
Drift [8.686667049158476]
概念ドリフト(concept drift)とは、観測データを生成する分布が時間とともに変化する現象を指す。
ドリフトで学習するための多くの技術は、モデル一般化誤差を近似する量としてインターリーブテストトレイン誤差(ITTE)に依存している。
論文 参考訳(メタデータ) (2022-12-02T14:58:13Z) - Federated Learning and Meta Learning: Approaches, Applications, and
Directions [94.68423258028285]
本稿では,FL,メタラーニング,フェデレーションメタラーニング(FedMeta)について概観する。
他のチュートリアルと異なり、私たちの目標はFL、メタラーニング、FedMetaの方法論をどのように設計、最適化、進化させ、無線ネットワーク上で応用するかを探ることです。
論文 参考訳(メタデータ) (2022-10-24T10:59:29Z) - Parallel Successive Learning for Dynamic Distributed Model Training over
Heterogeneous Wireless Networks [50.68446003616802]
フェデレートラーニング(Federated Learning, FedL)は、一連の無線デバイスにモデルトレーニングを配布する一般的なテクニックとして登場した。
我々は,FedLアーキテクチャを3次元に拡張した並列逐次学習(PSL)を開発した。
我々の分析は、分散機械学習におけるコールド対ウォームアップモデルの概念とモデル慣性について光を当てている。
論文 参考訳(メタデータ) (2022-02-07T05:11:01Z) - Concept drift detection and adaptation for federated and continual
learning [55.41644538483948]
スマートデバイスは環境から大量のデータを収集することができる。
このデータは機械学習モデルのトレーニングに適しており、その振る舞いを大幅に改善することができる。
そこで本研究では,Concept-Drift-Aware Federated Averagingと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-05-27T17:01:58Z) - Switching Scheme: A Novel Approach for Handling Incremental Concept
Drift in Real-World Data Sets [0.0]
概念ドリフトは、機械学習システムの予測性能に深刻な影響を与える可能性がある。
本研究では,実世界のデータセットの文脈における概念ドリフトの効果を分析する。
本稿では,機械学習モデルの再学習と更新の2つの原則を組み合わせたスイッチング方式を提案する。
論文 参考訳(メタデータ) (2020-11-05T10:16:54Z) - Handling Concept Drifts in Regression Problems -- the Error Intersection
Approach [0.0]
本稿では,回帰タスクに対する単純な機械学習モデルと複雑な機械学習モデルの適用を切り替える戦略を提案する。
われわれは、ニューヨークにおけるタクシー需要の現実的なデータセットに対するアプローチをインスタンス化しています。
論文 参考訳(メタデータ) (2020-04-01T13:30:05Z) - Parameter-Efficient Transfer from Sequential Behaviors for User Modeling
and Recommendation [111.44445634272235]
本稿では,PeterRecと呼ばれるパラメータ効率のよい移動学習アーキテクチャを提案する。
PeterRecは、トレーニング済みのパラメータを、一連の再学習ニューラルネットワークを注入することで、微調整中に修正されないようにする。
我々は5つの下流タスクにおいて学習したユーザ表現の有効性を示すために、広範囲な実験的アブレーションを行う。
論文 参考訳(メタデータ) (2020-01-13T14:09:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。