論文の概要: Fair Federated Learning for Heterogeneous Face Data
- arxiv url: http://arxiv.org/abs/2109.02351v1
- Date: Mon, 6 Sep 2021 10:44:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-08 00:24:06.410328
- Title: Fair Federated Learning for Heterogeneous Face Data
- Title(参考訳): 不均一顔データのためのフェアフェデレーション学習
- Authors: Samhita Kanaparthy, Manisha Padala, Sankarshan Damle, Sujit Gujar
- Abstract要約: フェデレートラーニング(FL)において、データの不均一性の下で公平に分類することの問題点を考察する。
公平な分類のために提案されたアプローチのほとんどは、関係する異なる人口集団を表す多様なデータを必要とする。
対照的に、各クライアントは単一の人口グループのみを表すデータを所有することが一般的である。
- 参考スコア(独自算出の注目度): 10.707311210901548
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the problem of achieving fair classification in Federated
Learning (FL) under data heterogeneity. Most of the approaches proposed for
fair classification require diverse data that represent the different
demographic groups involved. In contrast, it is common for each client to own
data that represents only a single demographic group. Hence the existing
approaches cannot be adopted for fair classification models at the client
level. To resolve this challenge, we propose several aggregation techniques. We
empirically validate these techniques by comparing the resulting fairness
metrics and accuracy on CelebA, UTK, and FairFace datasets.
- Abstract(参考訳): フェデレートラーニング(FL)において、データの不均一性の下で公平に分類する問題を考える。
公平な分類のために提案されたアプローチの多くは、関連する異なる人口集団を表す多様なデータを必要とする。
対照的に、各クライアントは単一の人口グループのみを表すデータを所有することが一般的である。
したがって、既存のアプローチはクライアントレベルで公正な分類モデルには適用できない。
この課題を解決するために,いくつかのアグリゲーション手法を提案する。
これらの手法を,CelebA,UTK,FairFaceのデータセット上で,結果の公平度と精度を比較して実証的に検証する。
関連論文リスト
- Comparative Evaluation of Clustered Federated Learning Methods [0.5242869847419834]
CFL(Clustered Federated Learning)は、クライアントを均質なグループに分割することを目的としている。
本稿では,2つの最先端CFLアルゴリズムの性能について,フェデレートラーニング(FL)におけるデータ不均一性の分類法を提案する。
我々の目的は、CFLのパフォーマンスとデータ異種シナリオの関係をより明確に理解することである。
論文 参考訳(メタデータ) (2024-10-18T07:01:56Z) - Addressing Skewed Heterogeneity via Federated Prototype Rectification with Personalization [35.48757125452761]
フェデレートラーニング(Federated Learning)は、複数の分散デバイス間の協調モデルトレーニングを容易にするために設計された、効率的なフレームワークである。
連合学習の重要な課題は、データレベルの不均一性、すなわち、スキュードまたはロングテールのプライベートデータの分散である。
本稿では,フェデレーション・パーソナライゼーションとフェデレーション・プロトタイプ・レクティフィケーションの2つの部分からなる新しいフェデレーション・プロトタイプ・レクティフィケーションを提案する。
論文 参考訳(メタデータ) (2024-08-15T06:26:46Z) - Score Normalization for Demographic Fairness in Face Recognition [16.421833444307232]
有名なサンプル中心スコア正規化技術であるZ-normとT-normは、高セキュリティ動作点の公平性を向上しない。
標準Z/Tノルムを拡張し、正規化における人口統計情報を統合する。
本手法は,5つの最先端の顔認識ネットワークの全体的な公正性を改善する。
論文 参考訳(メタデータ) (2024-07-19T07:51:51Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - FedABC: Targeting Fair Competition in Personalized Federated Learning [76.9646903596757]
フェデレートラーニングは、クライアントのローカルプライベートデータにアクセスすることなく、モデルを協調的にトレーニングすることを目的としている。
我々はFedABCと呼ばれるバイナリ分類によるFederated Averagingと呼ばれる新規で汎用的なPFLフレームワークを提案する。
特に、各クライアントに1対1のトレーニング戦略を採用して、クラス間の不公平な競争を軽減する。
論文 参考訳(メタデータ) (2023-02-15T03:42:59Z) - Fairness-aware Multi-view Clustering [41.479310583848246]
フェアネスを考慮したマルチビュークラスタリング手法FairMVCを提案する。
グループフェアネス制約を各クラスタのソフトメンバシップ割り当てに組み込んで、各クラスタ内の異なるグループの分断がデータセット全体とほぼ同じであることを保証します。
また,不均一なデータを扱う新たな正規化器を提案する。
論文 参考訳(メタデータ) (2023-02-11T21:36:42Z) - Rethinking Data Heterogeneity in Federated Learning: Introducing a New
Notion and Standard Benchmarks [65.34113135080105]
我々は、現在のセットアップにおけるデータ不均一性の問題が必ずしも問題であるだけでなく、FL参加者にとって有益であることを示す。
私たちの観察は直感的である。
私たちのコードはhttps://github.com/MMorafah/FL-SC-NIIDで利用可能です。
論文 参考訳(メタデータ) (2022-09-30T17:15:19Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - FairFed: Enabling Group Fairness in Federated Learning [22.913999279079878]
フェデレーテッド・ラーニングは、複数のパーティで機械学習モデルを学習するための有望なソリューションと見なされている。
フェアネスを意識したアグリゲーション手法によりグループフェアネスを高める新しいアルゴリズムであるFairFedを提案する。
提案手法は,高度の不均一な属性分布の下で,最先端の公正な学習フレームワークよりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-02T17:55:20Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。