論文の概要: Federated Continual Learning: Concepts, Challenges, and Solutions
- arxiv url: http://arxiv.org/abs/2502.07059v1
- Date: Mon, 10 Feb 2025 21:51:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 14:09:22.807699
- Title: Federated Continual Learning: Concepts, Challenges, and Solutions
- Title(参考訳): 連帯型継続的学習 - 概念,課題,解決策
- Authors: Parisa Hamedi, Roozbeh Razavi-Far, Ehsan Hallaji,
- Abstract要約: Federated Continual Learning (FCL)は、動的環境における協調的なモデルトレーニングのための堅牢なソリューションとして登場した。
この調査は、異質性、モデル安定性、通信オーバーヘッド、プライバシー保護といった重要な課題に焦点を当てている。
- 参考スコア(独自算出の注目度): 3.379574469735166
- License:
- Abstract: Federated Continual Learning (FCL) has emerged as a robust solution for collaborative model training in dynamic environments, where data samples are continuously generated and distributed across multiple devices. This survey provides a comprehensive review of FCL, focusing on key challenges such as heterogeneity, model stability, communication overhead, and privacy preservation. We explore various forms of heterogeneity and their impact on model performance. Solutions to non-IID data, resource-constrained platforms, and personalized learning are reviewed in an effort to show the complexities of handling heterogeneous data distributions. Next, we review techniques for ensuring model stability and avoiding catastrophic forgetting, which are critical in non-stationary environments. Privacy-preserving techniques are another aspect of FCL that have been reviewed in this work. This survey has integrated insights from federated learning and continual learning to present strategies for improving the efficacy and scalability of FCL systems, making it applicable to a wide range of real-world scenarios.
- Abstract(参考訳): Federated Continual Learning (FCL)は、複数のデバイスにまたがってデータサンプルが継続的に生成され、分散される動的環境において、協調的なモデルトレーニングのための堅牢なソリューションとして登場した。
この調査は、異種性、モデルの安定性、通信オーバーヘッド、プライバシ保護といった重要な課題に焦点を当てた、FCLの包括的なレビューを提供する。
ヘテロジニティの様々な形態とモデル性能への影響について検討する。
非IIDデータ、リソース制約のあるプラットフォーム、パーソナライズドラーニングへのソリューションを概観し、異種データ分散を扱う複雑さを示す。
次に、非定常環境において重要なモデル安定性の確保と破滅的な忘れを避けるための手法を概観する。
プライバシ保護技術は、この研究でレビューされたFCLのもうひとつの側面である。
この調査は、FCLシステムの有効性と拡張性を改善するための戦略を示すために、連合学習と連続学習からの洞察を統合した。
関連論文リスト
- Collaborative Imputation of Urban Time Series through Cross-city Meta-learning [54.438991949772145]
メタ学習型暗黙的ニューラル表現(INR)を利用した新しい協調的計算パラダイムを提案する。
次に,モデルに依存しないメタ学習による都市間協調学習手法を提案する。
20のグローバル都市から得られた多様な都市データセットの実験は、我々のモデルの優れた計算性能と一般化可能性を示している。
論文 参考訳(メタデータ) (2025-01-20T07:12:40Z) - Unleashing the Power of Continual Learning on Non-Centralized Devices: A Survey [37.07938402225207]
非連続学習(NCCL)は、分散デバイスが共同の非定常環境からストリーミングデータを処理できるようにするための新たなパラダイムとなっている。
本調査は,非集中型連続学習アルゴリズムの開発と,分散デバイスへの実環境展開に焦点を当てる。
論文 参考訳(メタデータ) (2024-12-18T13:33:28Z) - FedDUAL: A Dual-Strategy with Adaptive Loss and Dynamic Aggregation for Mitigating Data Heterogeneity in Federated Learning [12.307490659840845]
フェデレートラーニング(FL)は、様々なクライアントからローカルに最適化されたモデルと、統一されたグローバルモデルを組み合わせる。
FLは、性能劣化、収束の遅さ、グローバルモデルの堅牢性低下など、重大な課題に直面している。
これらの問題を効果的に解決するために、革新的なデュアルストラテジーアプローチを導入する。
論文 参考訳(メタデータ) (2024-12-05T18:42:29Z) - Addressing Heterogeneity in Federated Learning: Challenges and Solutions for a Shared Production Environment [1.2499537119440245]
フェデレートラーニング(FL)は、分散データソース間で機械学習モデルをトレーニングするための有望なアプローチとして登場した。
本稿では、FLにおけるデータ不均一性について、製造の文脈で概観する。
本研究は,これらの異種性がモデルトレーニングに与える影響について考察し,その悪影響を緩和するための現在の手法を概観する。
論文 参考訳(メタデータ) (2024-08-18T17:49:44Z) - Evaluating the Stability of Deep Learning Latent Feature Spaces [0.0]
本研究では,潜在空間の安定性を評価し,その後の解析における一貫性と信頼性を確保するための新しいワークフローを提案する。
我々はこのワークフローを500のオートエンコーダ実現と3つのデータセットにまたがって実装し、合成シナリオと実世界のシナリオの両方を包含する。
本研究は,潜在特徴空間における固有の不安定性に注目し,これらの不安定性を定量化し解釈するワークフローの有効性を実証するものである。
論文 参考訳(メタデータ) (2024-02-17T23:41:15Z) - The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - A Comprehensive Study on Model Initialization Techniques Ensuring
Efficient Federated Learning [0.0]
フェデレートラーニング(FL)は、分散とプライバシ保護の方法で機械学習モデルをトレーニングするための有望なパラダイムとして登場した。
モデルに使用される手法の選択は、フェデレーション学習システムの性能、収束速度、通信効率、プライバシー保証において重要な役割を果たす。
本研究は,各手法のメリットとデメリットを慎重に比較,分類,記述し,さまざまなFLシナリオに適用性について検討する。
論文 参考訳(メタデータ) (2023-10-31T23:26:58Z) - Distributionally Robust Model-based Reinforcement Learning with Large
State Spaces [55.14361269378122]
強化学習における3つの大きな課題は、大きな状態空間を持つ複雑な力学系、コストのかかるデータ取得プロセス、トレーニング環境の展開から現実の力学を逸脱させることである。
広範に用いられているKullback-Leibler, chi-square, および全変分不確実性集合の下で, 連続状態空間を持つ分布ロバストなマルコフ決定過程について検討した。
本稿では,ガウス過程と最大分散削減アルゴリズムを用いて,多出力名目遷移力学を効率的に学習するモデルベースアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-05T13:42:11Z) - Non-IID data and Continual Learning processes in Federated Learning: A
long road ahead [58.720142291102135]
フェデレートラーニング(Federated Learning)は、複数のデバイスや機関が、データをプライベートに保存しながら、機械学習モデルを協調的にトレーニングすることを可能にする、新しいフレームワークである。
本研究では,データの統計的不均一性を正式に分類し,それに直面することのできる最も顕著な学習戦略をレビューする。
同時に、継続学習のような他の機械学習フレームワークからのアプローチを導入し、データの不均一性にも対処し、フェデレートラーニング設定に容易に適応できるようにします。
論文 参考訳(メタデータ) (2021-11-26T09:57:11Z) - Quasi-Global Momentum: Accelerating Decentralized Deep Learning on
Heterogeneous Data [77.88594632644347]
ディープラーニングモデルの分散トレーニングは、ネットワーク上でデータプライバシとデバイス上での学習を可能にする重要な要素である。
現実的な学習シナリオでは、異なるクライアントのローカルデータセットに異質性が存在することが最適化の課題となる。
本稿では,この分散学習の難しさを軽減するために,運動量に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T11:27:14Z) - Dynamic Federated Learning [57.14673504239551]
フェデレートラーニング(Federated Learning)は、マルチエージェント環境における集中的なコーディネーション戦略の包括的用語として登場した。
我々は、各イテレーションにおいて、利用可能なエージェントのランダムなサブセットがそのデータに基づいてローカル更新を実行する、フェデレートされた学習モデルを考える。
集約最適化問題に対する真の最小化器上の非定常ランダムウォークモデルの下で、アーキテクチャの性能は、各エージェントにおけるデータ変動率、各エージェントにおけるモデル変動率、アルゴリズムの学習率に逆比例する追跡項の3つの要因によって決定されることを示す。
論文 参考訳(メタデータ) (2020-02-20T15:00:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。