論文の概要: Federated Learning with Fair Worker Selection: A Multi-Round Submodular
Maximization Approach
- arxiv url: http://arxiv.org/abs/2107.11728v1
- Date: Sun, 25 Jul 2021 05:17:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-27 15:45:53.764581
- Title: Federated Learning with Fair Worker Selection: A Multi-Round Submodular
Maximization Approach
- Title(参考訳): 公正な作業者選択によるフェデレーションラーニング:マルチラウンドサブモジュールの最大化アプローチ
- Authors: Fengjiao Li, Jia Liu, and Bo Ji
- Abstract要約: フェデレーション学習システムにおけるフェアワーカー選択の問題について検討し、フェアネスは、より多くの労働者がフェデレーションに参加するためのインセンティブメカニズムとして機能する。
選択した作業者の実用性としてグローバルモデルのトレーニング精度が達成されたことを考慮し,作業者選択問題を,基数と公平性に制約された新しいマルチラウンド単調部分モジュラー問題として定式化する。
目的は、各作業者が一定時間だけ選択しなければならない追加の公平さを条件として、複数のラウンドで平均的なユーティリティを最大化することである。
- 参考スコア(独自算出の注目度): 13.770299818810322
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study the problem of fair worker selection in Federated
Learning systems, where fairness serves as an incentive mechanism that
encourages more workers to participate in the federation. Considering the
achieved training accuracy of the global model as the utility of the selected
workers, which is typically a monotone submodular function, we formulate the
worker selection problem as a new multi-round monotone submodular maximization
problem with cardinality and fairness constraints. The objective is to maximize
the time-average utility over multiple rounds subject to an additional fairness
requirement that each worker must be selected for a certain fraction of time.
While the traditional submodular maximization with a cardinality constraint is
already a well-known NP-Hard problem, the fairness constraint in the
multi-round setting adds an extra layer of difficulty. To address this novel
challenge, we propose three algorithms: Fair Continuous Greedy (FairCG1 and
FairCG2) and Fair Discrete Greedy (FairDG), all of which satisfy the fairness
requirement whenever feasible. Moreover, we prove nontrivial lower bounds on
the achieved time-average utility under FairCG1 and FairCG2. In addition, by
giving a higher priority to fairness, FairDG ensures a stronger short-term
fairness guarantee, which holds in every round. Finally, we perform extensive
simulations to verify the effectiveness of the proposed algorithms in terms of
the time-average utility and fairness satisfaction.
- Abstract(参考訳): 本稿では,フェデレーション学習システムにおけるフェアワーカー選択の問題について検討し,フェアネスは,フェデレーションへの参加を促すインセンティブメカニズムとして機能する。
選択された労働者の効用としてグローバルモデルの訓練精度が得られたことを考慮し, 労働者選択問題を, 濃度と公平性制約を伴い, 新たな多ラウンドモノトンサブモジュラー最大化問題として定式化する。
目的は、各作業者が一定時間だけ選択されなければならない追加の公平性要件の下で、複数のラウンドで平均的なユーティリティを最大化することである。
濃度制約を伴う伝統的な部分モジュラー最大化は、既によく知られたNP-ハード問題であるが、マルチラウンド設定におけるフェアネス制約は、余分な困難を伴う。
この新たな課題に対処するために,fair continuous greedy (faircg1 と faircg2) と fair discrete greedy (fairdg) の3つのアルゴリズムを提案する。
さらに,FairCG1およびFairCG2において達成された時間平均ユーティリティの非自明な下限を証明した。
さらに、フェアネスよりも高い優先順位を与えることで、FairDGはラウンド毎に保持されるより強力な短期フェアネス保証を保証します。
最後に,提案アルゴリズムの有効性を,時間平均ユーティリティと公平性満足度の観点から検証するために,広範囲なシミュレーションを行った。
関連論文リスト
- Submodular Maximization Approaches for Equitable Client Selection in Federated Learning [4.167345675621377]
従来の学習フレームワークでは、トレーニングのためのクライアント選択は、通常、各イテレーションでクライアントのサブセットをランダムにサンプリングする。
本稿では,ランダムクライアント選択の限界に対処するために,SUBTRUNCとUNIONFLという2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-24T22:40:31Z) - FedSAC: Dynamic Submodel Allocation for Collaborative Fairness in Federated Learning [46.30755524556465]
協調フェアネスのための動的サブモデルアロケーションを備えた新しいフェデレーション学習フレームワークであるFedSACを提案する。
等価性を理論的に保証したサブモデルアロケーションモジュールを開発する。
3つの公開ベンチマークで行った実験は、FedSACが全てのベースライン法を公平性とモデル精度の両方で上回っていることを示している。
論文 参考訳(メタデータ) (2024-05-28T15:43:29Z) - Client Orchestration and Cost-Efficient Joint Optimization for
NOMA-Enabled Hierarchical Federated Learning [55.49099125128281]
半同期クラウドモデルアグリゲーションの下で非直交多重アクセス(NOMA)を実現するHFLシステムを提案する。
提案手法は,HFLの性能改善と総コスト削減に関するベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-03T13:34:44Z) - Achieving Fairness in Multi-Agent Markov Decision Processes Using
Reinforcement Learning [30.605881670761853]
有限水平エピソードMDPにおける公平性を実現するための強化学習手法を提案する。
このようなアプローチは、エピソード数の観点から、サブ線形後悔を実現することを示す。
論文 参考訳(メタデータ) (2023-06-01T03:43:53Z) - Implicitly normalized forecaster with clipping for linear and non-linear
heavy-tailed multi-armed bandits [85.27420062094086]
Implicitly Normalized Forecaster (INF) は、敵対的マルチアームバンディット(MAB)問題に対する最適解であると考えられている。
重み付き設定のMAB問題に対するクリッピング(INFclip)を用いたINFの新バージョン"Implicitly Normalized Forecaster"を提案する。
INFclipは線形重み付きMAB問題に対して最適であり、非線形問題に対して有効であることを示す。
論文 参考訳(メタデータ) (2023-05-11T12:00:43Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Maxmin-Fair Ranking: Individual Fairness under Group-Fairness
Constraints [11.3077234652777]
グループフェアの制約を課す際に生じる個人不公平の量を最小限に抑えることを目的としたランキングにおける公平性の新たな問題について検討する。
提案手法は, ランダム化を用いて, 最悪の個人が期待する満足度を最大化する分布最大化理論に根ざしている。
論文 参考訳(メタデータ) (2021-06-16T09:27:12Z) - Fair and Useful Cohort Selection [12.319543784920304]
Dwork と Ilvento は、fair-cohort-selection 問題と呼ばれるアーティピーパル問題を導入した。
与えられた大きさの候補のグループを選択するために、単一の公正分類器がそれ自身で構成される。
オフライン設定とオンライン設定の両方で、この問題に対して最適な(あるいはほぼ最適)時間アルゴリズムを提供する。
論文 参考訳(メタデータ) (2020-09-04T14:06:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。