論文の概要: Fair inference on error-prone outcomes
- arxiv url: http://arxiv.org/abs/2003.07621v1
- Date: Tue, 17 Mar 2020 10:31:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 20:54:11.442081
- Title: Fair inference on error-prone outcomes
- Title(参考訳): 誤り発生結果の公平な推測
- Authors: Laura Boeschoten, Erik-Jan van Kesteren, Ayoub Bagheri, Daniel L.
Oberski
- Abstract要約: 提案手法では, エラー発生時プロキシターゲットを用いた場合, 正当性基準の評価と校正を行う既存の手法が, 真の対象変数に拡張されないことを示す。
本稿では,統計的文献から見いだされる公正なML手法と測定モデルの組み合わせから得られる枠組みを提案する。
医療決定問題では,測定誤差を考慮に入れた潜伏変数モデルを用いることで,これまで検出された不公平さを排除できることが判明した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fair inference in supervised learning is an important and active area of
research, yielding a range of useful methods to assess and account for fairness
criteria when predicting ground truth targets. As shown in recent work,
however, when target labels are error-prone, potential prediction unfairness
can arise from measurement error. In this paper, we show that, when an
error-prone proxy target is used, existing methods to assess and calibrate
fairness criteria do not extend to the true target variable of interest. To
remedy this problem, we suggest a framework resulting from the combination of
two existing literatures: fair ML methods, such as those found in the
counterfactual fairness literature on the one hand, and, on the other,
measurement models found in the statistical literature. We discuss these
approaches and their connection resulting in our framework. In a healthcare
decision problem, we find that using a latent variable model to account for
measurement error removes the unfairness detected previously.
- Abstract(参考訳): 教師あり学習における公平な推論は重要かつ活発な研究領域であり、根拠の真理目標を予測する際の公平性基準を評価し考慮するための有用な方法が数多く存在する。
しかし、最近の研究で示されているように、ターゲットラベルがエラーになりやすい場合、測定誤差から潜在的な予測の不公平さが生じる可能性がある。
本稿では,誤差の高いプロキシターゲットを使用する場合,フェアネス基準の評価と校正を行う既存の手法が真のターゲット変数に拡張されないことを示す。
この問題を解決するために,本論文では,一方の対実的公正文学に見られるようなフェアML手法と,他方の統計文献に見られる測定モデルという,既存の2つの文献の組み合わせによる枠組みを提案する。
これらのアプローチとその関係からフレームワークについて論じる。
医療決定問題では,測定誤差を考慮に入れた潜在変数モデルを用いることで,これまで検出された不公平さを排除できることがわかった。
関連論文リスト
- Does Machine Bring in Extra Bias in Learning? Approximating Fairness in Models Promptly [2.002741592555996]
機械学習モデルの識別レベルを評価するための既存の技術には、一般的に使用されるグループと個別の公正度尺度が含まれる。
本稿では,集合間の距離に基づく「HFM(Harmonic Fairness measure)」を提案する。
実験結果から,提案した公正度尺度 HFM が有効であり,提案した ApproxDist が有効かつ効率的であることが示唆された。
論文 参考訳(メタデータ) (2024-05-15T11:07:40Z) - Uncertainty-based Fairness Measures [15.964921228103243]
機械学習(ML)モデルの異常予測は、現実の環境で広く受け入れられることを妨げる。
本稿では,MLモデルが既存の点ベース公正度尺度と同等であるように見えるが,予測の不確実性の観点からは人口集団に偏っていることを示す。
論文 参考訳(メタデータ) (2023-12-18T15:49:03Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Reconciling Predictive and Statistical Parity: A Causal Approach [68.59381759875734]
本稿では,予測パリティに付随する公平度対策のための因果分解式を提案する。
統計的および予測パリティの概念は、実際には互いに排他的ではなく、相補的であり、公正の概念のスペクトルにまたがっていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:23:22Z) - Counterfactual Fair Opportunity: Measuring Decision Model Fairness with
Counterfactual Reasoning [5.626570248105078]
本研究は,不注意条件下での公正な場合において,反実的推論を用いて不公平なモデル行動を明らかにすることを目的とする。
対物フェアという対物機会の対物バージョンを定義し、対物サンプルのセンシティブな情報を分析する2つの新しい指標を紹介した。
論文 参考訳(メタデータ) (2023-02-16T09:13:53Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - In Search of Insights, Not Magic Bullets: Towards Demystification of the
Model Selection Dilemma in Heterogeneous Treatment Effect Estimation [92.51773744318119]
本稿では,異なるモデル選択基準の長所と短所を実験的に検討する。
選択戦略,候補推定器,比較に用いるデータの間には,複雑な相互作用があることを強調した。
論文 参考訳(メタデータ) (2023-02-06T16:55:37Z) - A Call to Reflect on Evaluation Practices for Failure Detection in Image
Classification [0.491574468325115]
本稿では,信頼度評価関数のベンチマーク化を初めて実現した大規模実証的研究について述べる。
簡便なソフトマックス応答ベースラインを全体の最高の実行方法として明らかにすることは、現在の評価の劇的な欠点を浮き彫りにする。
論文 参考訳(メタデータ) (2022-11-28T12:25:27Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Emergent Unfairness in Algorithmic Fairness-Accuracy Trade-Off Research [2.6397379133308214]
このような仮定は、しばしば暗黙的かつ未検討のまま残され、矛盾した結論につながると我々は主張する。
この研究の目的は、機械学習モデルの公平性を改善することだが、これらの未検討の暗黙の仮定は、実際、突発的な不公平をもたらす可能性がある。
論文 参考訳(メタデータ) (2021-02-01T22:02:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。