論文の概要: Estimating and Controlling for Equalized Odds via Sensitive Attribute
Predictors
- arxiv url: http://arxiv.org/abs/2207.12497v4
- Date: Fri, 9 Jun 2023 00:06:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-12 18:26:45.572609
- Title: Estimating and Controlling for Equalized Odds via Sensitive Attribute
Predictors
- Title(参考訳): 感性属性予測器による等化オッドの推定と制御
- Authors: Beepul Bharti, Paul Yi, Jeremias Sulam
- Abstract要約: フェアネスのEOD(Emphequalized odds)定義について検討する。
センシティブな属性を持たない設定では、まず予測器のEDD違反に対して、厳密で計算可能な上限を提供する。
本稿では,新たな処理後修正法により,最悪のEODを確実に制御できることを実証する。
- 参考スコア(独自算出の注目度): 7.713240800142863
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the use of machine learning models in real world high-stakes decision
settings continues to grow, it is highly important that we are able to audit
and control for any potential fairness violations these models may exhibit
towards certain groups. To do so, one naturally requires access to sensitive
attributes, such as demographics, gender, or other potentially sensitive
features that determine group membership. Unfortunately, in many settings, this
information is often unavailable. In this work we study the well known
\emph{equalized odds} (EOD) definition of fairness. In a setting without
sensitive attributes, we first provide tight and computable upper bounds for
the EOD violation of a predictor. These bounds precisely reflect the worst
possible EOD violation. Second, we demonstrate how one can provably control the
worst-case EOD by a new post-processing correction method. Our results
characterize when directly controlling for EOD with respect to the predicted
sensitive attributes is -- and when is not -- optimal when it comes to
controlling worst-case EOD. Our results hold under assumptions that are milder
than previous works, and we illustrate these results with experiments on
synthetic and real datasets.
- Abstract(参考訳): 実世界のハイテイクな意思決定設定における機械学習モデルの使用は増え続けており、これらのモデルが特定のグループに対して提示する潜在的公正性違反の監査と制御が極めて重要である。
そのためには、人口統計、性別、あるいはグループメンバーシップを決定する潜在的に敏感な機能など、センシティブな属性にアクセスする必要がある。
残念ながら、多くの設定では、この情報は利用できないことが多い。
本研究では、よく知られた「emph{equalized odds} (EOD) の公正性の定義を研究する。
センシティブな属性を持たない設定では、まず予測器のEDD違反に対して、厳密で計算可能な上限を提供する。
これらの境界は、最悪のEOD違反を正確に反映している。
第2に,新たな後処理補正法により,最悪のEODを確実に制御できることを示す。
我々の結果は,予測された機密属性に対してEODを直接制御する場合が,最悪のEODを制御する場合に最適である,と特徴付けている。
本研究は, 従来の研究よりも軽度な仮定の下で行われ, 合成および実データを用いた実験を行った結果について述べる。
関連論文リスト
- Resultant: Incremental Effectiveness on Likelihood for Unsupervised Out-of-Distribution Detection [63.93728560200819]
unsupervised out-of-distribution (U-OOD) は、未表示のin-distriion(ID)データのみに基づいて訓練された検出器でデータサンプルを識別することである。
近年の研究は、DGMに基づく様々な検出器を開発し、可能性を超えて移動している。
本研究では,各方向,特にポストホック前とデータセットエントロピー・ミューチュアルキャリブレーションの2つの手法を適用した。
実験の結果、結果が新しい最先端のU-OOD検出器になる可能性が示された。
論文 参考訳(メタデータ) (2024-09-05T02:58:13Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - Counterfactual Reasoning for Bias Evaluation and Detection in a Fairness
under Unawareness setting [6.004889078682389]
現在のAI規制では、不公平な結果を防ぐために、アルゴリズムの意思決定プロセスで機密機能を破棄する必要がある。
本稿では、機密機能が破棄された場合でも継続可能な機械学習モデルの潜在的な隠れバイアスを明らかにする方法を提案する。
論文 参考訳(メタデータ) (2023-02-16T10:36:18Z) - Simultaneous Improvement of ML Model Fairness and Performance by
Identifying Bias in Data [1.76179873429447]
トレーニング前にデータセットから削除すべき特定の種類のバイアスを記述したインスタンスを検出できるデータ前処理手法を提案する。
特に、類似した特徴を持つインスタンスが存在するが、保護属性の変動に起因するラベルが異なる問題設定では、固有のバイアスがデータセット内で引き起こされる、と主張する。
論文 参考訳(メタデータ) (2022-10-24T13:04:07Z) - Mitigating Algorithmic Bias with Limited Annotations [65.060639928772]
機密属性が公開されていない場合、バイアスを軽減するために、トレーニングデータの小さな部分を手動でアノテートする必要がある。
本稿では,アルゴリズムバイアスの影響を最大限に排除するために,限定アノテーションを誘導する対話型フレームワークであるアクティブペナライゼーション・オブ・差別(APOD)を提案する。
APODは完全なアノテートバイアス緩和と同等のパフォーマンスを示しており、機密情報が制限された場合、APODが現実世界のアプリケーションに利益をもたらすことを実証している。
論文 参考訳(メタデータ) (2022-07-20T16:31:19Z) - Partial Identification with Noisy Covariates: A Robust Optimization
Approach [94.10051154390237]
観測データセットからの因果推論は、しばしば共変量の測定と調整に依存する。
このロバストな最適化手法により、広範囲な因果調整法を拡張し、部分的同定を行うことができることを示す。
合成および実データセット全体で、このアプローチは既存の手法よりも高いカバレッジ確率でATEバウンダリを提供する。
論文 参考訳(メタデータ) (2022-02-22T04:24:26Z) - Robustness and Accuracy Could Be Reconcilable by (Proper) Definition [109.62614226793833]
強靭性と精度のトレードオフは、敵文学において広く研究されている。
局所的不変性の帰納的バイアスを課す不適切に定義された頑健な誤差に由来する可能性がある。
定義上、SCOREは、最悪のケースの不確実性に対処しながら、堅牢性と正確性の間の和解を促進する。
論文 参考訳(メタデータ) (2022-02-21T10:36:09Z) - Better sampling in explanation methods can prevent dieselgate-like
deception [0.0]
予測モデルの解釈性は、それらのバイアスとエラーの原因を決定するために必要である。
IME、LIME、SHAPなどの一般的なテクニックでは、インスタンス機能の摂動を使用して個々の予測を説明します。
改良されたサンプリングによりLIMEとSHAPのロバスト性が向上し,以前に未試験のメソッドIMEがすでに最もロバストであることが示されている。
論文 参考訳(メタデータ) (2021-01-26T13:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。