論文の概要: FairGrad: Fairness Aware Gradient Descent
- arxiv url: http://arxiv.org/abs/2206.10923v1
- Date: Wed, 22 Jun 2022 09:02:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-23 14:48:23.148829
- Title: FairGrad: Fairness Aware Gradient Descent
- Title(参考訳): FairGrad:Fairness Aware Aware Gradient Descent
- Authors: Gaurav Maheshwari, Micha\"el Perrot
- Abstract要約: グループ固有の重みを反復的に学習する重み付けスキームに基づいて、公平性を強制するFairGradを提案する。
自然言語処理やコンピュータビジョンなど,さまざまなデータセットに対する標準ベースラインと同等であることを示す。
- 参考スコア(独自算出の注目度): 0.12183405753834563
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We tackle the problem of group fairness in classification, where the
objective is to learn models that do not unjustly discriminate against
subgroups of the population. Most existing approaches are limited to simple
binary tasks or involve difficult to implement training mechanisms. This
reduces their practical applicability. In this paper, we propose FairGrad, a
method to enforce fairness based on a reweighting scheme that iteratively
learns group specific weights based on whether they are advantaged or not.
FairGrad is easy to implement and can accommodate various standard fairness
definitions. Furthermore, we show that it is comparable to standard baselines
over various datasets including ones used in natural language processing and
computer vision.
- Abstract(参考訳): 分類におけるグループフェアネスの問題は、集団のサブグループに対して不当に差別しないモデルを学習することを目的としている。
既存のアプローチの多くは単純なバイナリタスクに限定されているか、あるいはトレーニングメカニズムを実装するのが難しい。
これにより実用性が低下する。
本稿では,FairGradを提案する。これは,グループ固有の重み付けを,有効かどうかに基づいて反復的に学習する再重み付け方式に基づくフェアネスの実施方法である。
FairGradは実装が容易で、様々な標準的なフェアネス定義に対応できる。
さらに,自然言語処理やコンピュータビジョンなど,各種データセットの標準ベースラインと同等であることを示す。
関連論文リスト
- Towards Harmless Rawlsian Fairness Regardless of Demographic Prior [57.30787578956235]
トレーニングセットに事前の人口統計が提供されない場合に,有効性を損なうことなく公平性を達成する可能性を探る。
本稿では,経験的損失の最適セット内でのトレーニング損失の分散を最小限に抑えるため,VFairという簡単な手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T12:40:34Z) - fairret: a Framework for Differentiable Fairness Regularization Terms [12.774108753281809]
偏見をモジュラーでフレキシブルな目的として定量化するフェアネス規則化用語(フェアレット)の枠組みを導入する。
私たちのコントリビューションには、FairretフレームワークのPyTorch実装が含まれています。
論文 参考訳(メタデータ) (2023-10-26T09:13:15Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Fairness Reprogramming [42.65700878967251]
モデル再プログラミング手法を取り入れたFairRe Programと呼ばれる新しい汎用フェアネス学習パラダイムを提案する。
具体的には、FairRe Programはモデルを変更することができず、フェアネストリガと呼ばれる一連の摂動を入力に追加するケースについて検討している。
我々は,固定MLモデルの出力予測において,公平性トリガが効果的に人口統計バイアスを曖昧にすることができることを理論的および実証的に示す。
論文 参考訳(メタデータ) (2022-09-21T09:37:00Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - FairVFL: A Fair Vertical Federated Learning Framework with Contrastive
Adversarial Learning [102.92349569788028]
本稿では,VFLモデルの公平性を改善するために,FairVFL( Fair vertical federated learning framework)を提案する。
FairVFLの中核となる考え方は、分散化された機能フィールドに基づいたサンプルの統一的で公正な表現を、プライバシ保護の方法で学習することである。
ユーザのプライバシ保護のために,サーバ内の統一表現からプライベート情報を除去する対向学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-07T11:43:32Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Blackbox Post-Processing for Multiclass Fairness [1.5305403478254664]
我々は,マルチクラス設定における公平性を達成するため,ブラックボックス機械学習分類器の予測を変更することを検討する。
我々は,系統的な合成実験を通じて,公正かつ正確な予測を行う方法を探究する。
全体として、我々の手法は精度の小さな低下を生じさせ、データセットの個体数が高い場合に公平さを強制する。
論文 参考訳(メタデータ) (2022-01-12T13:21:20Z) - Metrics and methods for a systematic comparison of fairness-aware
machine learning algorithms [0.0]
この研究はこの種の最も包括的なものである。
フェアネス、予測性能、キャリブレーション品質、28種類のモデリングパイプラインの速度を考慮に入れている。
また,フェアネスを意識したアルゴリズムは,予測力の低下を伴わずにフェアネスを誘導できることがわかった。
論文 参考訳(メタデータ) (2020-10-08T13:58:09Z) - Two Simple Ways to Learn Individual Fairness Metrics from Data [47.6390279192406]
個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
多くのMLタスクに対して広く受け入れられている公正な基準が欠如していることが、個人の公正を広く採用する大きな障壁である。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-19T23:47:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。