論文の概要: Collaborative Fairness in Federated Learning
- arxiv url: http://arxiv.org/abs/2008.12161v2
- Date: Fri, 28 Aug 2020 01:06:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 07:25:02.371622
- Title: Collaborative Fairness in Federated Learning
- Title(参考訳): 連携学習における協調フェアネス
- Authors: Lingjuan Lyu, Xinyi Xu, and Qian Wang
- Abstract要約: 深層学習のための新しい協調フェアフェデレーションラーニング(CFFL)フレームワークを提案する。
CFFLは参加者に異なるモデルに収束させ、予測性能を損なうことなく公正を達成する。
ベンチマークデータセットの実験では、CFFLは高い公正性を達成し、分散フレームワークに匹敵する精度を提供する。
- 参考スコア(独自算出の注目度): 24.7378023761443
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In current deep learning paradigms, local training or the Standalone
framework tends to result in overfitting and thus poor generalizability. This
problem can be addressed by Distributed or Federated Learning (FL) that
leverages a parameter server to aggregate model updates from individual
participants. However, most existing Distributed or FL frameworks have
overlooked an important aspect of participation: collaborative fairness. In
particular, all participants can receive the same or similar models, regardless
of their contributions. To address this issue, we investigate the collaborative
fairness in FL, and propose a novel Collaborative Fair Federated Learning
(CFFL) framework which utilizes reputation to enforce participants to converge
to different models, thus achieving fairness without compromising the
predictive performance. Extensive experiments on benchmark datasets demonstrate
that CFFL achieves high fairness, delivers comparable accuracy to the
Distributed framework, and outperforms the Standalone framework.
- Abstract(参考訳): 現在のディープラーニングパラダイムでは、ローカルトレーニングやスタンドアローンフレームワークが過剰フィッティングを招き、汎用性が低下する傾向がある。
この問題は、パラメータサーバを利用して個々の参加者からモデル更新を集約する分散学習(FL)によって解決できる。
しかしながら、既存のDistributedあるいはFLフレームワークのほとんどは、参加の重要な側面であるコラボレーティブフェアネスを見落としている。
特に、すべての参加者は、貢献に関係なく、同じまたは類似のモデルを受け取ることができる。
この問題に対処するため,FLにおける協調的公正性について検討し,評価を利用して参加者に異なるモデルに収束させ,予測性能を損なうことなく公正性を実現する新しい協調的公正学習(CFFL)フレームワークを提案する。
ベンチマークデータセットに関する大規模な実験は、CFFLが高い公正性を達成し、分散フレームワークに匹敵する精度を提供し、Standaloneフレームワークを上回っていることを示している。
関連論文リスト
- Redefining Contributions: Shapley-Driven Federated Learning [3.9539878659683363]
フェデレーテッド・ラーニング(FL)は、機械学習において重要なアプローチとして登場した。
参加者が平等に、あるいは正直に貢献しない場合、グローバルなモデル収束を保証することは困難です。
本稿では,FLにおけるコントリビューションの詳細な評価のために,ShapFedと呼ばれる新しいコントリビューションアセスメントアセスメント手法を提案する。
論文 参考訳(メタデータ) (2024-06-01T22:40:31Z) - FedSAC: Dynamic Submodel Allocation for Collaborative Fairness in Federated Learning [46.30755524556465]
協調フェアネスのための動的サブモデルアロケーションを備えた新しいフェデレーション学習フレームワークであるFedSACを提案する。
等価性を理論的に保証したサブモデルアロケーションモジュールを開発する。
3つの公開ベンチマークで行った実験は、FedSACが全てのベースライン法を公平性とモデル精度の両方で上回っていることを示している。
論文 参考訳(メタデータ) (2024-05-28T15:43:29Z) - Multi-dimensional Fair Federated Learning [25.07463977553212]
フェデレートラーニング(FL)は、分散データからモデルをトレーニングするための、有望な協調的でセキュアなパラダイムとして登場した。
群フェアネスとクライアントフェアネスは、FLにとって重要である2次元のフェアネスである。
グループフェアネスとクライアントフェアネスを同時に達成するために,mFairFLと呼ばれる手法を提案する。
論文 参考訳(メタデータ) (2023-12-09T11:37:30Z) - Dynamic Fair Federated Learning Based on Reinforcement Learning [19.033986978896074]
フェデレートラーニングは、ローカルデータサンプルを共有することなく、デバイスのグループ間でグローバルモデルの協調トレーニングと最適化を可能にする。
DQFFLと呼ばれる強化学習を伴う動的qフェアネスフェデレーション学習アルゴリズムを提案する。
我々のDQFFLは、全体的な性能、公平性、収束速度において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-11-02T03:05:40Z) - FL Games: A Federated Learning Framework for Distribution Shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するフェデレーション学習のためのゲーム理論フレームワークFL GAMESを提案する。
論文 参考訳(メタデータ) (2022-10-31T22:59:03Z) - FL Games: A federated learning framework for distribution shifts [71.98708418753786]
フェデレートラーニングは、サーバのオーケストレーションの下で、クライアント間で分散されたデータの予測モデルをトレーニングすることを目的としている。
本稿では,クライアント間で不変な因果的特徴を学習するためのゲーム理論のフレームワークであるFL Gamesを提案する。
論文 参考訳(メタデータ) (2022-05-23T07:51:45Z) - Heterogeneous Federated Learning via Grouped Sequential-to-Parallel
Training [60.892342868936865]
フェデレートラーニング(Federated Learning, FL)は、プライバシ保護のためのコラボレーション機械学習パラダイムである。
本稿では,この課題に対処するため,データヘテロジニアス・ロバストFLアプローチであるFedGSPを提案する。
その結果,FedGSPは7つの最先端アプローチと比較して平均3.7%の精度向上を実現していることがわかった。
論文 参考訳(メタデータ) (2022-01-31T03:15:28Z) - FedH2L: Federated Learning with Model and Statistical Heterogeneity [75.61234545520611]
フェデレートラーニング(FL)は、分散参加者が個々のデータのプライバシを犠牲にすることなく、強力なグローバルモデルを集合的に学習することを可能にする。
我々はFedH2Lを導入し、これはモデルアーキテクチャに非依存であり、参加者間で異なるデータ分散に対して堅牢である。
パラメータや勾配を共有するアプローチとは対照的に、FedH2Lは相互蒸留に依存し、参加者間で共有シードセットの後方のみを分散的に交換する。
論文 参考訳(メタデータ) (2021-01-27T10:10:18Z) - A Reputation Mechanism Is All You Need: Collaborative Fairness and
Adversarial Robustness in Federated Learning [24.442595192268872]
フェデレーション・ラーニング(FL)は、効果的でスケーラブルな機械学習のための新しい実践的フレームワークである。
従来のFLでは、すべての参加者がグローバルモデル(平等報酬)を受け取り、これはハイコントリビューションの参加者にとって不公平かもしれない。
評価機構を用いて協調的公正性と対向的ロバスト性を同時に実現するための新しいRFFLフレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-20T15:52:45Z) - Federated Residual Learning [53.77128418049985]
クライアントはローカルモデルを個別に訓練し、サーバ側で共有するモデルと共同で予測を行う。
この新しいフェデレートされた学習フレームワークを使用することで、統合トレーニングが提供するパフォーマンス上のメリットをすべて享受しながら、中央共有モデルの複雑さを最小限にすることができる。
論文 参考訳(メタデータ) (2020-03-28T19:55:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。