論文の概要: Fair Classification with Noisy Protected Attributes: A Framework with
Provable Guarantees
- arxiv url: http://arxiv.org/abs/2006.04778v3
- Date: Tue, 16 Feb 2021 17:21:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 00:15:31.354453
- Title: Fair Classification with Noisy Protected Attributes: A Framework with
Provable Guarantees
- Title(参考訳): ノイズ保護属性による公平な分類:確率的保証を伴うフレームワーク
- Authors: L. Elisa Celis and Lingxiao Huang and Vijay Keswani and Nisheeth K.
Vishnoi
- Abstract要約: 本稿では,保護属性にノイズのある摂動が存在する場合に,公平な分類法を学習するための最適化フレームワークを提案する。
我々のフレームワークは、線形および線形摩擦的公正性制約の非常に一般的なクラスで利用できる。
我々は,雑音が大きい場合でも,精度の低下を最小限に抑えながら,統計的レートか偽陽性率の公平性を保証するために,我々の枠組みを利用できることを示した。
- 参考スコア(独自算出の注目度): 43.326827444321935
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an optimization framework for learning a fair classifier in the
presence of noisy perturbations in the protected attributes. Compared to prior
work, our framework can be employed with a very general class of linear and
linear-fractional fairness constraints, can handle multiple, non-binary
protected attributes, and outputs a classifier that comes with provable
guarantees on both accuracy and fairness. Empirically, we show that our
framework can be used to attain either statistical rate or false positive rate
fairness guarantees with a minimal loss in accuracy, even when the noise is
large, in two real-world datasets.
- Abstract(参考訳): 本稿では,保護属性における雑音下摂動の存在下で公平な分類器を学習するための最適化フレームワークを提案する。
従来の研究と比較すると、我々のフレームワークは線形および線形摩擦公正性制約の非常に一般的なクラスを採用でき、複数の非バイナリ保護属性を処理でき、精度と公平性の両方で証明可能な保証を持つ分類器を出力することができる。
実世界の2つのデータセットにおいて,ノイズが大きい場合でも,統計的率と偽陽性率の公平性を保証するためのフレームワークが,精度の低下を最小限に抑えることができることを示す。
関連論文リスト
- Noise-Adaptive Conformal Classification with Marginal Coverage [53.74125453366155]
本稿では,ランダムラベルノイズによる交換性からの偏差を効率的に処理できる適応型共形推論手法を提案する。
本手法は,合成および実データに対して,その有効性を示す広範囲な数値実験により検証する。
論文 参考訳(メタデータ) (2025-01-29T23:55:23Z) - Towards Fairness and Privacy: A Novel Data Pre-processing Optimization Framework for Non-binary Protected Attributes [0.0]
この研究は、(バイナリでない)保護属性を含むデータセットをデバイアスすることで公正に対処するためのフレームワークを提示している。
このフレームワークは、特定の識別基準を最小限に抑えるデータサブセットを見つけることで、この問題に対処する。
以前の作業とは対照的に、このフレームワークはメトリックとタスクに依存しないため、高い柔軟性を示す。
論文 参考訳(メタデータ) (2024-10-01T16:17:43Z) - When Fair Classification Meets Noisy Protected Attributes [8.362098382773265]
本研究は, 属性耐性, 耐雑音性, 属性ブラインドアルゴリズムを比較した, 公平な分類アルゴリズムの先進的な研究である。
本研究は,属性ブレンドとノイズ耐性公正分類器が,属性耐性アルゴリズムと同等の性能を達成できることを明らかにする。
論文 参考訳(メタデータ) (2023-07-06T21:38:18Z) - Fair Ranking with Noisy Protected Attributes [25.081136190260015]
商品の社会的特質が無作為かつ独立に摂動するモデルの下で、公平な問題を考察する。
本稿では,グループフェアネス要件と,社会的に安定な属性の摂動に関する確率的情報とを組み込んだ公平なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-30T15:22:28Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Multi-Class Classification from Single-Class Data with Confidences [90.48669386745361]
本稿では,損失/モデル/最適化非依存のリスク最小化フレームワークを提案する。
提案手法は, 与えられた信頼度が高ノイズであっても, 簡易な修正でベイズ整合性を示す。
論文 参考訳(メタデータ) (2021-06-16T15:38:13Z) - Fair Classification with Adversarial Perturbations [35.030329189029246]
本研究は,学習サンプルの任意の$eta$-fractionを選択でき,保護属性を任意に摂動することができるような,万能な逆境の存在下での公平な分類について検討する。
我々の主な貢献は、精度と公正性に関する証明可能な保証を伴うこの逆条件で公平な分類法を学ぶための最適化フレームワークである。
我々は、自然な仮説クラスに対する我々のフレームワークの保証のほぼ正当性を証明している: どのアルゴリズムもはるかに精度が良く、より良い公正性を持つアルゴリズムは、より低い精度でなければならない。
論文 参考訳(メタデータ) (2021-06-10T17:56:59Z) - Mitigating Bias in Set Selection with Noisy Protected Attributes [16.882719401742175]
ノイズを考慮せずに公平性を高めるため,ノイズ保護属性の存在下では,実のところ,結果の公平性を低下させることができることを示す。
我々は,大規模な公正度尺度に対して機能する「認知化」の選択問題を定式化する。
提案手法は, ノイズ保護属性が存在するにもかかわらず, フェアネス指標を著しく改善するサブセットを生成できることを示す。
論文 参考訳(メタデータ) (2020-11-09T06:45:15Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - Robust Optimization for Fairness with Noisy Protected Groups [85.13255550021495]
ノイズが保護されたグループラベルに頼った結果について検討した。
頑健な最適化を用いた2つの新しいアプローチを提案する。
頑健なアプローチは、単純アプローチよりも真のグループ公平性を保証することが示される。
論文 参考訳(メタデータ) (2020-02-21T14:58:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。