論文の概要: Entropy-driven Fair and Effective Federated Learning
- arxiv url: http://arxiv.org/abs/2301.12407v5
- Date: Sun, 11 May 2025 09:01:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:48.489817
- Title: Entropy-driven Fair and Effective Federated Learning
- Title(参考訳): エントロピー駆動フェアと効果的なフェデレーションラーニング
- Authors: Lin Wang, Zhichao Wang, Ye Shi, Sai Praneeth Karimireddy, Xiaoying Tang,
- Abstract要約: フェデレートラーニング(FL)は、データプライバシを保持しながら、分散デバイス間で協調的なモデルトレーニングを可能にする。
本稿では,理論に基づくアグリゲーションとモデルと勾配アライメントを組み合わせることで,モデル性能と大域的モデル性能を同時に最適化する手法を提案する。
- 参考スコア(独自算出の注目度): 26.22014904183881
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) enables collaborative model training across distributed devices while preserving data privacy. Nonetheless, the heterogeneity of edge devices often leads to inconsistent performance of the globally trained models, resulting in unfair outcomes among users. Existing federated fairness algorithms strive to enhance fairness but often fall short in maintaining the overall performance of the global model, typically measured by the average accuracy across all clients. To address this issue, we propose a novel algorithm that leverages entropy-based aggregation combined with model and gradient alignments to simultaneously optimize fairness and global model performance. Our method employs a bi-level optimization framework, where we derive an analytic solution to the aggregation probability in the inner loop, making the optimization process computationally efficient. Additionally, we introduce an innovative alignment update and an adaptive strategy in the outer loop to further balance global model's performance and fairness. Theoretical analysis indicates that our approach guarantees convergence even in non-convex FL settings and demonstrates significant fairness improvements in generalized regression and strongly convex models. Empirically, our approach surpasses state-of-the-art federated fairness algorithms, ensuring consistent performance among clients while improving the overall performance of the global model.
- Abstract(参考訳): フェデレートラーニング(FL)は、データプライバシを保持しながら、分散デバイス間で協調的なモデルトレーニングを可能にする。
それでも、エッジデバイスの不均一性はしばしば、グローバルにトレーニングされたモデルの一貫性のないパフォーマンスをもたらし、結果としてユーザの間に不公平な結果をもたらす。
既存のフェデレートされた公正性アルゴリズムは、公正性を高めるために努力するが、グローバルモデルの全体的な性能を維持するには不足することが多い。
そこで本研究では,エントロピーに基づくアグリゲーションとモデルと勾配アライメントを組み合わせることで,公平性とグローバルモデルの性能を同時に最適化するアルゴリズムを提案する。
そこで本手法では,内部ループの凝集確率の解析解を導出し,最適化過程を計算効率良くする。
さらに、グローバルモデルの性能と公平性をさらにバランスさせるために、革新的なアライメント更新と適応戦略を外部ループに導入する。
理論的解析により,非凸FL設定においても収束が保証され,一般化回帰モデルと強凸モデルにおいて顕著な公正性向上が示されている。
実証的には、我々のアプローチは最先端のフェデレーションフェアネスアルゴリズムを超越し、クライアント間の一貫したパフォーマンスを確保しながら、グローバルモデル全体の性能を改善している。
関連論文リスト
- SEAFL: Enhancing Efficiency in Semi-Asynchronous Federated Learning through Adaptive Aggregation and Selective Training [26.478852701376294]
半非同期FLにおけるストラグラーと古いモデルの課題を緩和するために設計された新しいFLフレームワークであるSEAFLを提案する。
Em SEAFLは、現在のグローバルモデルに対する安定性と重要性に基づいて、アグリゲーション中にアップロードされたモデルに重みを動的に割り当てる。
我々は,3つのベンチマークデータセットを用いた広範囲な実験により,SEAFLの有効性を評価する。
論文 参考訳(メタデータ) (2025-02-22T05:13:53Z) - Over-the-Air Fair Federated Learning via Multi-Objective Optimization [52.295563400314094]
本稿では,公平なFLモデルを訓練するためのOTA-FFL(Over-the-air Fair Federated Learning Algorithm)を提案する。
OTA-FFLの公正性とロバストな性能に対する優位性を示す実験を行った。
論文 参考訳(メタデータ) (2025-01-06T21:16:51Z) - On ADMM in Heterogeneous Federated Learning: Personalization, Robustness, and Fairness [16.595935469099306]
本稿では,乗算器の交互方向法(ADMM)を利用して,パーソナライズおよびグローバルモデルの学習を行う最適化フレームワークFLAMEを提案する。
我々の理論的解析は、軽度の仮定の下で、FLAMEのグローバル収束と2種類の収束速度を確立する。
実験の結果,FLAMEは収束と精度において最先端の手法より優れており,各種攻撃下では高い精度を達成できることがわかった。
論文 参考訳(メタデータ) (2024-07-23T11:35:42Z) - Balancing Similarity and Complementarity for Federated Learning [91.65503655796603]
フェデレートラーニング(FL)は、モバイルとIoTシステムにおいてますます重要になっている。
FLの重要な課題の1つは、非i.d.データのような統計的不均一性を管理することである。
FL協調における類似性と相補性のバランスをとる新しいフレームワークである texttFedSaC を導入する。
論文 参考訳(メタデータ) (2024-05-16T08:16:19Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - FedEGG: Federated Learning with Explicit Global Guidance [90.04705121816185]
フェデレートラーニング(FL)は、そのプライバシー保護の性質から、多様なアプリケーションにとって大きな可能性を秘めている。
既存の手法は、最適化ベースのクライアント制約、適応的なクライアント選択、事前訓練されたモデルや合成データの使用によってこれらの課題に対処するのに役立つ。
我々はbftextFedEGGを提案する。bftextFedEGGは、よく定義された、容易に収束できる学習タスクを用いて、グローバルガイドタスクを構築する新しいFLアルゴリズムである。
論文 参考訳(メタデータ) (2024-04-18T04:25:21Z) - Towards Fairer and More Efficient Federated Learning via
Multidimensional Personalized Edge Models [36.84027517814128]
フェデレートラーニング(FL)は、プライバシーを維持しながら、大規模で地理的に分散したエッジデータをトレーニングする。
複数の次元からFLの不均一性を除去するカスタム・フェデレート・ラーニング(CFL)システムを提案する。
CFLは、オンライントレーニングされたモデル検索ヘルパーと新しい集約アルゴリズムによって、クライアントごとに特別に設計されたグローバルモデルからパーソナライズされたモデルをカスタマイズする。
論文 参考訳(メタデータ) (2023-02-09T06:55:19Z) - Closing the Gap between Client and Global Model Performance in
Heterogeneous Federated Learning [2.1044900734651626]
カスタムクライアントモデルをトレーニングするための選択されたアプローチが、グローバルモデルにどのように影響するかを示す。
KDとLwoF(LwoF)を併用して、改良されたパーソナライズドモデルを生成する手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T11:12:57Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - FL Games: A federated learning framework for distribution shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するためのゲーム理論のフレームワークであるFL Gamesを提案する。
論文 参考訳(メタデータ) (2022-05-23T07:51:45Z) - E2FL: Equal and Equitable Federated Learning [26.5268278194427]
フェデレートラーニング(FL)は、データ所有者がプライベートデータを共有せずに、共有グローバルモデルをトレーニングすることを可能にする。
平等かつ平等なフェデレーション学習(E2FL)を、公平なフェデレーション学習モデルとして、エクイティと平等という2つの主要なフェアネス特性を同時に保持することにより、公正なフェデレーション学習モデルを作成する。
実世界の異なるFLアプリケーションにおいて、E2FLの効率性と公正性を検証し、E2FLが既存のベースラインよりも高い効率、異なるグループの公平性、公平性を示す。
論文 参考訳(メタデータ) (2022-05-20T22:37:33Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z) - Federated Ensemble Model-based Reinforcement Learning in Edge Computing [21.840086997141498]
フェデレートラーニング(Federated Learning、FL)は、プライバシ保護のための分散機械学習パラダイムである。
モデルベースRLとアンサンブル知識蒸留をFLに効果的に組み込む新しいFRLアルゴリズムを提案する。
具体的には、FLと知識蒸留を利用して、クライアント向けの動的モデルのアンサンブルを作成し、環境と相互作用することなく、単にアンサンブルモデルを使用することでポリシーを訓練する。
論文 参考訳(メタデータ) (2021-09-12T16:19:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。