論文の概要: SenSeI: Sensitive Set Invariance for Enforcing Individual Fairness
- arxiv url: http://arxiv.org/abs/2006.14168v2
- Date: Thu, 1 Apr 2021 03:24:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 03:04:42.633086
- Title: SenSeI: Sensitive Set Invariance for Enforcing Individual Fairness
- Title(参考訳): SenSei: 個々人の公平性を高めるための敏感なセット不変性
- Authors: Mikhail Yurochkin and Yuekai Sun
- Abstract要約: まず、ある感度集合の不変性を強制する個別の公正性のバージョンを定式化する。
次に,輸送型正規化器を設計し,個別の公平性を強制し,効率よく正規化器を最小化するためのアルゴリズムを開発する。
- 参考スコア(独自算出の注目度): 50.916483212900275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we cast fair machine learning as invariant machine learning.
We first formulate a version of individual fairness that enforces invariance on
certain sensitive sets. We then design a transport-based regularizer that
enforces this version of individual fairness and develop an algorithm to
minimize the regularizer efficiently. Our theoretical results guarantee the
proposed approach trains certifiably fair ML models. Finally, in the
experimental studies we demonstrate improved fairness metrics in comparison to
several recent fair training procedures on three ML tasks that are susceptible
to algorithmic bias.
- Abstract(参考訳): 本稿では,フェア機械学習を不変機械学習として論じる。
まず、ある感度集合の不変性を強制する個別の公正性のバージョンを定式化する。
次に,輸送型正規化器を設計し,個別の公平性を強制し,効率よく正規化器を最小化するためのアルゴリズムを開発する。
提案手法は, 確実に公平なmlモデルを訓練する。
最後に,アルゴリズムのバイアスに敏感な3つのMLタスクに対する,近年の公正トレーニング手順と比較して,公正度指標の改善を実証した。
関連論文リスト
- Differentially Private Post-Processing for Fair Regression [13.855474876965557]
我々のアルゴリズムは任意の回帰器を後処理し、出力を再マッピングすることで公平性を向上させることができる。
我々は,本アルゴリズムのサンプル複雑性を分析し,ヒストグラム中のビン数の選択から得られる統計的バイアスと分散とのトレードオフを明らかにする。
論文 参考訳(メタデータ) (2024-05-07T06:09:37Z) - Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Achieving Fairness at No Utility Cost via Data Reweighing with Influence [27.31236521189165]
トレーニング段階におけるサンプルの重量のみを調整するデータリライジング手法を提案する。
本研究は,各トレーニングサンプルの影響を,公正度関連量と予測ユーティリティに関して詳細にモデル化する。
当社のアプローチは、トレードオフを実証的に解放し、平等な機会のために無償の公平性を得ることができます。
論文 参考訳(メタデータ) (2022-02-01T22:12:17Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Revisiting Consistency Regularization for Semi-Supervised Learning [80.28461584135967]
そこで我々は,FeatDistLossというシンプルな手法により,一貫性の規則化を改良したフレームワークを提案する。
実験結果から,本モデルは様々なデータセットや設定のための新しい技術状態を定義する。
論文 参考訳(メタデータ) (2021-12-10T20:46:13Z) - Ensuring Fairness Beyond the Training Data [22.284777913437182]
トレーニング分布と摂動のクラスに対して公平な分類器を開発する。
オンライン学習アルゴリズムに基づいて、公正で堅牢な解に収束する反復アルゴリズムを開発する。
実験の結果, 正当性と正当性との間には, 本質的にトレードオフがあることが判明した。
論文 参考訳(メタデータ) (2020-07-12T16:20:28Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。