論文の概要: Federating for Learning Group Fair Models
- arxiv url: http://arxiv.org/abs/2110.01999v2
- Date: Thu, 7 Oct 2021 15:02:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-08 11:59:48.130496
- Title: Federating for Learning Group Fair Models
- Title(参考訳): グループフェアモデル学習のためのフェデレーション
- Authors: Afroditi Papadaki, Natalia Martinez, Martin Bertran, Guillermo Sapiro,
Miguel Rodrigues
- Abstract要約: フェデレートラーニング(Federated Learning)は、多数のエンティティが協調してより良いモデルを学ぶことを可能にする、ますます人気のあるパラダイムである。
本研究は,学習段階において,異なる参加者が集団のサブセットにしかアクセスできないパラダイムにおけるminmaxグループフェアネスについて検討する。
- 参考スコア(独自算出の注目度): 19.99325961328706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning is an increasingly popular paradigm that enables a large
number of entities to collaboratively learn better models. In this work, we
study minmax group fairness in paradigms where different participating entities
may only have access to a subset of the population groups during the training
phase. We formally analyze how this fairness objective differs from existing
federated learning fairness criteria that impose similar performance across
participants instead of demographic groups. We provide an optimization
algorithm -- FedMinMax -- for solving the proposed problem that provably enjoys
the performance guarantees of centralized learning algorithms. We
experimentally compare the proposed approach against other methods in terms of
group fairness in various federated learning setups.
- Abstract(参考訳): フェデレーション学習(federated learning)は、多数のエンティティが協力してよりよいモデルを学ぶことを可能にする、ますますポピュラーなパラダイムである。
本研究では,学習段階において,異なる参加団体が集団のサブセットにしかアクセスできないパラダイムにおけるminmaxグループフェアネスについて検討する。
我々は,このフェアネスの目的が,人口集団ではなく,参加者間で同様のパフォーマンスを課す既存のフェデレーション学習フェアネス基準とどのように異なるのかを,正式に分析する。
我々は、集中学習アルゴリズムの性能保証を確実に享受する提案された問題を解決する最適化アルゴリズム、FedMinMaxを提供する。
本稿では,グループフェアネスの観点から,他の手法に対する提案手法を実験的に比較した。
関連論文リスト
- Fair Federated Learning via Bounded Group Loss [37.72259706322158]
本稿では,実証的公正なフェデレーション学習のための一般的なフレームワークを提案する。
我々は、有界群損失の概念を、群フェアネスに対する理論的に基底的なアプローチとして拡張する。
提案手法の収束保証と結果の正当性保証を提供する。
論文 参考訳(メタデータ) (2022-03-18T23:11:54Z) - On the Convergence of Clustered Federated Learning [57.934295064030636]
統合学習システムでは、例えばモバイルデバイスや組織参加者といったクライアントは通常、個人の好みや行動パターンが異なる。
本稿では,クライアントグループと各クライアントを統一最適化フレームワークで活用する,新しい重み付きクライアントベースクラスタリングFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-13T02:39:19Z) - Minimax Demographic Group Fairness in Federated Learning [23.1988909029387]
フェデレートラーニング(Federated Learning)は、多数のエンティティが協調してより良いモデルを学ぶことを可能にする、ますます人気のあるパラダイムである。
異なる参加団体がトレーニング期間中に集団のサブセットにのみアクセス可能な,連合学習シナリオにおけるミニマックスグループフェアネスについて検討した。
我々は,様々なフェデレート学習環境におけるグループフェアネスの観点から,他の最先端手法に対する提案手法を実験的に比較した。
論文 参考訳(メタデータ) (2022-01-20T17:13:54Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Unified Group Fairness on Federated Learning [22.143427873780404]
フェデレートラーニング(FL)は、グローバルモデルが分散クライアントのプライベートデータに基づいてトレーニングされる、重要な機械学習パラダイムとして登場した。
近年の研究では、顧客間の公平性に焦点が当てられているが、センシティブな属性(例えば、性別や人種)によって形成される異なるグループに対する公正性は無視されている。
本稿では,G-DRFA (Group Distributionally Robust Federated Averaging) と呼ばれる新しいFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-09T08:21:38Z) - FairFed: Enabling Group Fairness in Federated Learning [22.913999279079878]
フェデレーテッド・ラーニングは、複数のパーティで機械学習モデルを学習するための有望なソリューションと見なされている。
フェアネスを意識したアグリゲーション手法によりグループフェアネスを高める新しいアルゴリズムであるFairFedを提案する。
提案手法は,高度の不均一な属性分布の下で,最先端の公正な学習フレームワークよりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-02T17:55:20Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Practical One-Shot Federated Learning for Cross-Silo Setting [114.76232507580067]
ワンショット・フェデレーション・ラーニングは、クロスサイロ環境でフェデレーション・ラーニングを適用するための有望なアプローチである。
本稿では,FedKTという,実践的なワンショットフェデレーション学習アルゴリズムを提案する。
知識伝達技術を利用することで、FedKTは任意の分類モデルに適用でき、フレキシブルに差分プライバシー保証を達成できる。
論文 参考訳(メタデータ) (2020-10-02T14:09:10Z) - Collaborative Fairness in Federated Learning [24.7378023761443]
深層学習のための新しい協調フェアフェデレーションラーニング(CFFL)フレームワークを提案する。
CFFLは参加者に異なるモデルに収束させ、予測性能を損なうことなく公正を達成する。
ベンチマークデータセットの実験では、CFFLは高い公正性を達成し、分散フレームワークに匹敵する精度を提供する。
論文 参考訳(メタデータ) (2020-08-27T14:39:09Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。