論文の概要: Estimating and Implementing Conventional Fairness Metrics With
Probabilistic Protected Features
- arxiv url: http://arxiv.org/abs/2310.01679v1
- Date: Mon, 2 Oct 2023 22:30:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 18:27:32.840580
- Title: Estimating and Implementing Conventional Fairness Metrics With
Probabilistic Protected Features
- Title(参考訳): 確率的保護特徴を有する従来型公平度指標の推定と実装
- Authors: Hadi Elzayn, Emily Black, Patrick Vossler, Nathanael Jo, Jacob Goldin,
Daniel E. Ho
- Abstract要約: 限られた属性ラベルを持つ設定において,違反を計測・低減する手法を開発した。
提案手法は, 従来の手法よりも5.5倍の精度で, 真の相違を抑えることができることを示す。
- 参考スコア(独自算出の注目度): 7.457585597068654
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The vast majority of techniques to train fair models require access to the
protected attribute (e.g., race, gender), either at train time or in
production. However, in many important applications this protected attribute is
largely unavailable. In this paper, we develop methods for measuring and
reducing fairness violations in a setting with limited access to protected
attribute labels. Specifically, we assume access to protected attribute labels
on a small subset of the dataset of interest, but only probabilistic estimates
of protected attribute labels (e.g., via Bayesian Improved Surname Geocoding)
for the rest of the dataset. With this setting in mind, we propose a method to
estimate bounds on common fairness metrics for an existing model, as well as a
method for training a model to limit fairness violations by solving a
constrained non-convex optimization problem. Unlike similar existing
approaches, our methods take advantage of contextual information --
specifically, the relationships between a model's predictions and the
probabilistic prediction of protected attributes, given the true protected
attribute, and vice versa -- to provide tighter bounds on the true disparity.
We provide an empirical illustration of our methods using voting data. First,
we show our measurement method can bound the true disparity up to 5.5x tighter
than previous methods in these applications. Then, we demonstrate that our
training technique effectively reduces disparity while incurring lesser
fairness-accuracy trade-offs than other fair optimization methods with limited
access to protected attributes.
- Abstract(参考訳): 公正なモデルを訓練するほとんどの技術は、列車時または生産時に保護された属性(例えば、人種、性別)へのアクセスを必要とする。
しかし、多くの重要なアプリケーションでは、この保護属性はほとんど利用できない。
本論文では,保護属性ラベルへのアクセスが制限された設定において,公平性違反を計測・低減する手法を開発する。
具体的には、興味のあるデータセットの小さなサブセットで保護された属性ラベルにアクセスするが、残りのデータセットに対して保護された属性ラベル(例えばベイジアン改良された名前ジオコーディング)の確率的推定のみを仮定する。
そこで本研究では,既存のモデルに対する共通フェアネスメトリクスの境界を推定する手法と,制約付き非凸最適化問題を解くことでフェアネス違反を制限できるモデルのトレーニング手法を提案する。
類似の既存手法とは異なり、我々の手法はコンテキスト情報(特にモデルの予測と保護属性の確率的予測の関係、真の保護属性が与えられた場合、およびその逆)を活用して、真の相違についてより厳密な境界を提供する。
投票データを用いた方法の実証的な例を示す。
まず,本手法は従来の手法よりも5.5倍の厳密な距離を確保できることを示す。
そこで,本手法は,保護属性へのアクセスが制限された他の公正最適化手法に比べて,不公平さを効果的に低減し,不公平なトレードオフを発生させることを実証する。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Can Querying for Bias Leak Protected Attributes? Achieving Privacy With
Smooth Sensitivity [14.564919048514897]
既存の規制は、モデル開発者が保護された属性にアクセスすることを禁止している。
公正度測定値を求めるだけで、モデルの開発者に対する個人の保護された属性が漏洩する可能性があることを示す。
本稿では,雑音をバイアスクエリのスムーズな感度に調整することで,差分プライバシーを実現する新しい手法であるAttribute-Concealを提案する。
論文 参考訳(メタデータ) (2022-11-03T20:44:48Z) - Fair mapping [0.0]
本稿では,保護されたグループの分布を選択対象に変換した新しい前処理手法を提案する。
我々はWasserstein GANおよびAttGANフレームワークの最近の成果を活用し、最適なデータポイントの転送を実現する。
提案手法は、データの解釈可能性を維持し、センシティブなグループを正確に定義することなく使用することができる。
論文 参考訳(メタデータ) (2022-09-01T17:31:27Z) - A Prototype-Oriented Framework for Unsupervised Domain Adaptation [52.25537670028037]
メモリと計算効率のよい確率的フレームワークを提供し、クラスプロトタイプを抽出し、ターゲットとなる特徴をそれらと整合させる。
本稿では,単一ソース,マルチソース,クラス不均衡,ソースプライベートドメイン適応など,幅広いシナリオにおいて,本手法の汎用性を実証する。
論文 参考訳(メタデータ) (2021-10-22T19:23:22Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Estimation of Fair Ranking Metrics with Incomplete Judgments [70.37717864975387]
本研究では,4つの評価指標のサンプリング手法と推定手法を提案する。
ラベル付きアイテムの数が極めて少ない場合でも動作可能な頑健で偏りのない推定器を定式化する。
論文 参考訳(メタデータ) (2021-08-11T10:57:00Z) - Fair Classification with Adversarial Perturbations [35.030329189029246]
本研究は,学習サンプルの任意の$eta$-fractionを選択でき,保護属性を任意に摂動することができるような,万能な逆境の存在下での公平な分類について検討する。
我々の主な貢献は、精度と公正性に関する証明可能な保証を伴うこの逆条件で公平な分類法を学ぶための最適化フレームワークである。
我々は、自然な仮説クラスに対する我々のフレームワークの保証のほぼ正当性を証明している: どのアルゴリズムもはるかに精度が良く、より良い公正性を持つアルゴリズムは、より低い精度でなければならない。
論文 参考訳(メタデータ) (2021-06-10T17:56:59Z) - Mitigating Bias in Set Selection with Noisy Protected Attributes [16.882719401742175]
ノイズを考慮せずに公平性を高めるため,ノイズ保護属性の存在下では,実のところ,結果の公平性を低下させることができることを示す。
我々は,大規模な公正度尺度に対して機能する「認知化」の選択問題を定式化する。
提案手法は, ノイズ保護属性が存在するにもかかわらず, フェアネス指標を著しく改善するサブセットを生成できることを示す。
論文 参考訳(メタデータ) (2020-11-09T06:45:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。