論文の概要: Models of fairness in federated learning
- arxiv url: http://arxiv.org/abs/2112.00818v1
- Date: Wed, 1 Dec 2021 20:34:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-04 10:12:19.001951
- Title: Models of fairness in federated learning
- Title(参考訳): フェデレーション学習における公平性モデル
- Authors: Kate Donahue and Jon Kleinberg
- Abstract要約: フェデレーション学習は、複数のフェデレーションエージェントが共同でモデルを学ぶことを可能にする。
我々は「平等性」と「地域公正性」の2つの異なる状況に当てはまる公平性の概念を考察する。
比例的公平性については, 個別に合理的な連立に準比例的誤差が保証されていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In many real-world situations, data is distributed across multiple locations
and can't be combined for training. Federated learning is a novel distributed
learning approach that allows multiple federating agents to jointly learn a
model. While this approach might reduce the error each agent experiences, it
also raises questions of fairness: to what extent can the error experienced by
one agent be significantly lower than the error experienced by another agent?
In this work, we consider two notions of fairness that each may be appropriate
in different circumstances: "egalitarian fairness" (which aims to bound how
dissimilar error rates can be) and "proportional fairness" (which aims to
reward players for contributing more data). For egalitarian fairness, we obtain
a tight multiplicative bound on how widely error rates can diverge between
agents federating together. For proportional fairness, we show that
sub-proportional error (relative to the number of data points contributed) is
guaranteed for any individually rational federating coalition.
- Abstract(参考訳): 多くの現実の状況では、データは複数の場所に分散し、トレーニングのために組み合わせることはできない。
フェデレーション学習は、複数のフェデレーションエージェントが共同でモデルを学ぶことができる、新しい分散学習アプローチである。
このアプローチは、各エージェントが経験するエラーを減少させるかもしれないが、公平性の問題も提起する: あるエージェントが経験するエラーが、他のエージェントが経験するエラーよりもどの程度低いのか?
本研究では,異なる状況においてそれぞれが適切であると考えられる公平性の概念について考察する。「平等的公平性(egalitarian fairness)」と「均質的公平性(proportional fairness)」の2つである。
平等主義的公正性については, エージェント間での誤り率のばらつきについて, 厳密な乗法的境界を求める。
比例的公平性については、個々の有理連立連合に対して(寄与するデータ点の数に比例して)サブプロポーション的誤差が保証されることを示す。
関連論文リスト
- Accelerating Fair Federated Learning: Adaptive Federated Adam [0.0]
データセットが独立で同一に分散されていない場合(非IID)、単純なフェデレーションアルゴリズムによってトレーニングされたモデルは、特定の参加者に偏りが生じる可能性がある。
これは連合学習における公平性問題として知られている。
本稿では,適応的フェデレーション・アダム(AdaFedAdam)を提案し,偏見を緩和して公正なフェデレーション・ラーニングを加速させる。
論文 参考訳(メタデータ) (2023-01-23T10:56:12Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Parity-based Cumulative Fairness-aware Boosting [7.824964622317634]
データ駆動型AIシステムは、性別や人種といった保護された属性に基づいた差別につながる可能性がある。
AdaFairは、各ラウンドでデータ分布を変更するフェアネスを意識したブーピングアンサンブルである。
提案手法は, 統計的パーティ, 均等な機会, 異質な不正処理の両面から, パリティを達成できることを実証した。
論文 参考訳(メタデータ) (2022-01-04T14:16:36Z) - Fairness-aware Class Imbalanced Learning [57.45784950421179]
つぶやきの感情と職業分類のロングテール学習手法を評価する。
フェアネスを強制する手法により、マージンロスに基づくアプローチを拡張します。
論文 参考訳(メタデータ) (2021-09-21T22:16:30Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Fairness-aware Agnostic Federated Learning [47.26747955026486]
我々は、未知のテスト分布の課題に対処するために、公正に意識しない連邦学習フレームワーク(AgnosticFair)を開発した。
我々はカーネルリライジング関数を用いて、損失関数と公正制約の両方において各トレーニングサンプルにリライジング値を割り当てる。
構築されたモデルは、ローカルデータ配信の公平性を保証するため、ローカルサイトに直接適用することができる。
論文 参考訳(メタデータ) (2020-10-10T17:58:20Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Recovering from Biased Data: Can Fairness Constraints Improve Accuracy? [11.435833538081557]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、バイアスがあるだけでなく、真のデータ分布に最適な精度を持つ分類器を生成する。
公平性に制約されたERMによるこの問題の是正能力について検討する。
また、トレーニングデータの再重み付け、等化オッド、復号化パリティなど、他のリカバリ手法についても検討する。
論文 参考訳(メタデータ) (2019-12-02T22:00:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。