論文の概要: Advances in Robust Federated Learning: Heterogeneity Considerations
- arxiv url: http://arxiv.org/abs/2405.09839v1
- Date: Thu, 16 May 2024 06:35:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-17 15:11:06.318490
- Title: Advances in Robust Federated Learning: Heterogeneity Considerations
- Title(参考訳): ロバスト・フェデレーション・ラーニングの進歩:不均一性を考える
- Authors: Chuan Chen, Tianchi Liao, Xiaojun Deng, Zihou Wu, Sheng Huang, Zibin Zheng,
- Abstract要約: 主な課題は、異なるデータ分散、モデル構造、タスク目標、計算能力、通信リソースを持つ複数のクライアントでモデルを効率的にトレーニングすることである。
本稿ではまず,不均一なフェデレーション学習の基本概念について概説する。
次に、フェデレーション学習における研究課題を、データ、モデル、タスク、デバイス、コミュニケーションの5つの側面の観点から要約する。
- 参考スコア(独自算出の注目度): 25.261572089655264
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the field of heterogeneous federated learning (FL), the key challenge is to efficiently and collaboratively train models across multiple clients with different data distributions, model structures, task objectives, computational capabilities, and communication resources. This diversity leads to significant heterogeneity, which increases the complexity of model training. In this paper, we first outline the basic concepts of heterogeneous federated learning and summarize the research challenges in federated learning in terms of five aspects: data, model, task, device, and communication. In addition, we explore how existing state-of-the-art approaches cope with the heterogeneity of federated learning, and categorize and review these approaches at three different levels: data-level, model-level, and architecture-level. Subsequently, the paper extensively discusses privacy-preserving strategies in heterogeneous federated learning environments. Finally, the paper discusses current open issues and directions for future research, aiming to promote the further development of heterogeneous federated learning.
- Abstract(参考訳): 不均質なフェデレーション学習(FL)の分野では、異なるデータ分散、モデル構造、タスク目標、計算能力、通信資源を持つ複数のクライアントでモデルを効率的かつ協調的に訓練することが重要な課題である。
この多様性は大きな異質性をもたらし、モデルトレーニングの複雑さを増大させる。
本稿では、まず、不均一なフェデレーション学習の基本概念を概説し、フェデレーション学習における研究課題を、データ、モデル、タスク、デバイス、コミュニケーションの5つの側面の観点から要約する。
さらに、既存の最先端のアプローチがフェデレーション学習の不均一性にどのように対処するかを検討し、これらのアプローチを3つの異なるレベル(データレベル、モデルレベル、アーキテクチャレベル)で分類し、レビューする。
その後、異種連合学習環境におけるプライバシー保護戦略を幅広く論じる。
最後に、異種連携学習のさらなる発展をめざして、今後の研究の課題と方向性について論じる。
関連論文リスト
- A Survey on Group Fairness in Federated Learning: Challenges, Taxonomy of Solutions and Directions for Future Research [5.08731160761218]
機械学習におけるグループフェアネスは、異なるグループ間で平等な結果を達成することに焦点を当てた研究の重要領域である。
フェデレーション学習は、クライアント間の不均一なデータ分散による公平性の必要性を増幅する。
連合学習におけるグループフェアネスの総合的な調査は行われていない。
データパーティショニング、ロケーション、適用戦略といった重要な基準に基づいて、これらのアプローチの新しい分類法を作成します。
論文 参考訳(メタデータ) (2024-10-04T18:39:28Z) - Cross-Training with Multi-View Knowledge Fusion for Heterogenous Federated Learning [13.796783869133531]
本稿では,多視点情報を活用したクロストレーニング手法により,フェデレーション学習を促進する新しい手法を提案する。
具体的には、FedCTと呼ばれる提案手法には、3つの主要なモジュールが含まれており、整合性を考慮した知識放送モジュールはモデルの割り当て戦略を最適化することを目的としている。
多視点知識誘導表現学習モジュールは、グローバルな視点とローカルな視点の両方から融合した知識を活用し、モデル交換前後の局所的な知識の保存を強化する。
ミックスアップベースの機能拡張モジュールは、豊富な情報を集約して、機能空間の多様性をさらに高める。
論文 参考訳(メタデータ) (2024-05-30T13:27:30Z) - Heterogeneous Contrastive Learning for Foundation Models and Beyond [73.74745053250619]
ビッグデータと人工知能の時代において、新しいパラダイムは、大規模な異種データをモデル化するために、対照的な自己教師付き学習を活用することである。
本調査は基礎モデルの異種コントラスト学習の現況を批判的に評価する。
論文 参考訳(メタデータ) (2024-03-30T02:55:49Z) - Federated Learning for Generalization, Robustness, Fairness: A Survey
and Benchmark [55.898771405172155]
フェデレートラーニングは、異なる当事者間のプライバシー保護コラボレーションのための有望なパラダイムとして登場した。
我々は,連合学習研究の重要かつ最近の展開を体系的に概観する。
論文 参考訳(メタデータ) (2023-11-12T06:32:30Z) - Generalizable Heterogeneous Federated Cross-Correlation and Instance
Similarity Learning [60.058083574671834]
本稿では,新しいFCCL+,フェデレーション相関と非ターゲット蒸留との類似性学習を提案する。
不均一な問題に対しては、無関係な公開データを通信に活用する。
局所的な更新段階における破滅的な忘れ物として、FCCL+はFederated Non Target Distillationを導入している。
論文 参考訳(メタデータ) (2023-09-28T09:32:27Z) - Heterogeneous Federated Learning: State-of-the-art and Research
Challenges [117.77132819796105]
不均一フェデレートラーニング(HFL)はより困難であり、それに対応するソリューションは多様で複雑である。
HFLの新たな進歩を概説し,既存のHFL手法の新たな分類法を提案する。
HFLにおけるいくつかの重要かつ将来的な研究方向性について論じる。
論文 参考訳(メタデータ) (2023-07-20T06:32:14Z) - Federated Hetero-Task Learning [42.985155807178685]
本稿では,シミュレーションデータセット,FLプロトコル,統一評価機構からなるヘテロタスク学習ベンチマークであるB-FHTLを提案する。
異なるFLアルゴリズムの公正な比較を保証するため、B-FHTLはFLプロトコルの完全なセットで構築される。
我々は,B-FHTL内での多タスク学習,フェデレーションパーソナライゼーション,およびフェデレーションメタ学習の分野におけるFLアルゴリズムを比較した。
論文 参考訳(メタデータ) (2022-06-07T16:43:09Z) - Non-IID data and Continual Learning processes in Federated Learning: A
long road ahead [58.720142291102135]
フェデレートラーニング(Federated Learning)は、複数のデバイスや機関が、データをプライベートに保存しながら、機械学習モデルを協調的にトレーニングすることを可能にする、新しいフレームワークである。
本研究では,データの統計的不均一性を正式に分類し,それに直面することのできる最も顕著な学習戦略をレビューする。
同時に、継続学習のような他の機械学習フレームワークからのアプローチを導入し、データの不均一性にも対処し、フェデレートラーニング設定に容易に適応できるようにします。
論文 参考訳(メタデータ) (2021-11-26T09:57:11Z) - Emerging Trends in Federated Learning: From Model Fusion to Federated X Learning [65.06445195580622]
フェデレートラーニング(Federated Learning)は、データ収集とモデルトレーニングを、マルチパーティの計算とモデルアグリゲーションを通じて分離する新しいパラダイムである。
我々は、他の学習アルゴリズムとともに、フェデレーション学習の焦点を絞った調査を行う。
論文 参考訳(メタデータ) (2021-02-25T15:18:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。