論文の概要: GIFAIR-FL: An Approach for Group and Individual Fairness in Federated
Learning
- arxiv url: http://arxiv.org/abs/2108.02741v1
- Date: Thu, 5 Aug 2021 17:13:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-06 16:19:54.023579
- Title: GIFAIR-FL: An Approach for Group and Individual Fairness in Federated
Learning
- Title(参考訳): GIFAIR-FL:フェデレーション学習におけるグループと個人フェアネスのアプローチ
- Authors: Xubo Yue, Maher Nouiehed, Raed Al Kontar
- Abstract要約: 本稿では,グループと個別設定を保持するアプローチである texttGIFAIR-FL を提案する。
非$i.i.d.$と強い凸設定で収束を示す。
既存のアルゴリズムと比較して,提案手法は精度が向上し,予測精度も優れていた。
- 参考スコア(独自算出の注目度): 8.121462458089143
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: In this paper we propose \texttt{GIFAIR-FL}: an approach that imposes group
and individual fairness to federated learning settings. By adding a
regularization term, our algorithm penalizes the spread in the loss of client
groups to drive the optimizer to fair solutions. Theoretically, we show
convergence in non-convex and strongly convex settings. Our convergence
guarantees hold for both $i.i.d.$ and non-$i.i.d.$ data. To demonstrate the
empirical performance of our algorithm, we apply our method on image
classification and text prediction tasks. Compared to existing algorithms, our
method shows improved fairness results while retaining superior or similar
prediction accuracy.
- Abstract(参考訳): 本稿では,federated learning 設定にグループと個人を公平に強制する手法である \texttt{gifair-fl} を提案する。
正規化項を追加することで、このアルゴリズムはクライアントグループの損失の拡散をペナルティ化し、最適化器を公平な解に導く。
理論的には、非凸および強い凸設定における収束を示す。
我々の収束保証は、$i.i.d.$ と non-$i.d.$ の両方のデータを保持する。
提案アルゴリズムの実証的な性能を示すため,画像分類とテキスト予測タスクに本手法を適用した。
既存のアルゴリズムと比較して, 予測精度は良好でありながら, 公平性が向上した。
関連論文リスト
- Bayes-Optimal Fair Classification with Linear Disparity Constraints via
Pre-, In-, and Post-processing [32.5214395114507]
与えられた群フェアネス制約に対する分類誤差を最小限に抑えるため,ベイズ最適公正分類法を開発した。
人口格差、機会平等、予測平等からの逸脱など、いくつかの一般的な格差対策が双線形であることを示します。
本手法は, ほぼ最適フェアネス精度のトレードオフを達成しつつ, 相違を直接制御する。
論文 参考訳(メタデータ) (2024-02-05T08:59:47Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Proportionally Representative Clustering [17.5359577544947]
本稿では,クラスタリング問題を対象とした新しい公理比例代表フェアネス(PRF)を提案する。
我々のフェアネスの概念は、既存のフェアクラスタリングアルゴリズムで満たされていない。
制約のない設定に対する我々のアルゴリズムは、よく研究されたプロポーショナルフェアネス(PF)の公理に対する最初の既知時間近似アルゴリズムでもある。
論文 参考訳(メタデータ) (2023-04-27T02:01:24Z) - Online Learning with Adversaries: A Differential-Inclusion Analysis [52.43460995467893]
我々は,完全に非同期なオンラインフェデレート学習のための観察行列ベースのフレームワークを提案する。
我々の主な結果は、提案アルゴリズムがほぼ確実に所望の平均$mu.$に収束することである。
新たな差分包摂型2時間スケール解析を用いて,この収束を導出する。
論文 参考訳(メタデータ) (2023-04-04T04:32:29Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - Fair Federated Learning via Bounded Group Loss [37.72259706322158]
本稿では,実証的公正なフェデレーション学習のための一般的なフレームワークを提案する。
我々は、有界群損失の概念を、群フェアネスに対する理論的に基底的なアプローチとして拡張する。
提案手法の収束保証と結果の正当性保証を提供する。
論文 参考訳(メタデータ) (2022-03-18T23:11:54Z) - Repairing Regressors for Fair Binary Classification at Any Decision
Threshold [8.322348511450366]
同時にすべてのしきい値で公正なパフォーマンスを向上できることを示します。
本研究では,異なる保護群に対する分類の分布の類似度を捉える分布パリティの形式的尺度を導入する。
我々の主な成果は、最適輸送に基づく新しい後処理アルゴリズムを提案し、分散パリティを確実に最大化することである。
論文 参考訳(メタデータ) (2022-03-14T20:53:35Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Fair Correlation Clustering [92.15492066925977]
相関クラスタリングの近似アルゴリズムは,いくつかの重要なフェアネス制約の下で得られる。
相関クラスタリングに対する公平な解は、最先端の(不公平な)アルゴリズムと比較して、コストを抑えながら得られることを示す。
論文 参考訳(メタデータ) (2020-02-06T14:28:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。