論文の概要: Fairness and Explainability: Bridging the Gap Towards Fair Model
Explanations
- arxiv url: http://arxiv.org/abs/2212.03840v1
- Date: Wed, 7 Dec 2022 18:35:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 17:19:12.622120
- Title: Fairness and Explainability: Bridging the Gap Towards Fair Model
Explanations
- Title(参考訳): 公正性と説明可能性:公正なモデル説明に向けてギャップを埋める
- Authors: Yuying Zhao, Yu Wang, Tyler Derr
- Abstract要約: 我々は、説明に基づく手続き指向公正の新たな視点を提示することにより、公正性と説明可能性のギャップを埋める。
本稿では,複数の目的を同時に達成する包括的公正性アルゴリズム (CFA) を提案する。
- 参考スコア(独自算出の注目度): 12.248793742165278
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While machine learning models have achieved unprecedented success in
real-world applications, they might make biased/unfair decisions for specific
demographic groups and hence result in discriminative outcomes. Although
research efforts have been devoted to measuring and mitigating bias, they
mainly study bias from the result-oriented perspective while neglecting the
bias encoded in the decision-making procedure. This results in their inability
to capture procedure-oriented bias, which therefore limits the ability to have
a fully debiasing method. Fortunately, with the rapid development of
explainable machine learning, explanations for predictions are now available to
gain insights into the procedure. In this work, we bridge the gap between
fairness and explainability by presenting a novel perspective of
procedure-oriented fairness based on explanations. We identify the
procedure-based bias by measuring the gap of explanation quality between
different groups with Ratio-based and Value-based Explanation Fairness. The new
metrics further motivate us to design an optimization objective to mitigate the
procedure-based bias where we observe that it will also mitigate bias from the
prediction. Based on our designed optimization objective, we propose a
Comprehensive Fairness Algorithm (CFA), which simultaneously fulfills multiple
objectives - improving traditional fairness, satisfying explanation fairness,
and maintaining the utility performance. Extensive experiments on real-world
datasets demonstrate the effectiveness of our proposed CFA and highlight the
importance of considering fairness from the explainability perspective. Our
code is publicly available at
https://github.com/YuyingZhao/FairExplanations-CFA .
- Abstract(参考訳): 機械学習モデルは現実世界のアプリケーションでは前例のない成功を収めてきたが、特定の人口集団に対して偏り/不公平な決定を下し、差別的な結果をもたらす可能性がある。
バイアスの測定と緩和に研究努力が注がれているが、主に意思決定手順で符号化されたバイアスを無視しながら、結果指向の観点からバイアスを研究する。
これにより、プロシージャ指向バイアスをキャプチャできないため、完全なデバイアス法を持つ能力が制限される。
幸いなことに、説明可能な機械学習の急速な開発により、予測に関する説明が利用できるようになった。
本研究では,説明に基づく手続き指向公正の新たな視点を提示することにより,公正性と説明可能性のギャップを埋める。
本研究では,Ratio と Value-based Explanation Fairness の異なるグループ間の説明品質のギャップを測定することで,手順に基づくバイアスを同定する。
新たなメトリクスは、予測からバイアスを緩和するだけでなく、手順に基づくバイアスを軽減するための最適化目標の設計をさらに動機付けます。
設計した最適化目標に基づいて,従来の公正性の向上,説明公正性の向上,実用性能の維持など,複数の目標を同時に達成する包括的公正性アルゴリズム(CFA)を提案する。
実世界のデータセットに関する広範な実験は,提案するcfaの有効性を示し,説明可能性の観点から公平性を検討することの重要性を強調した。
私たちのコードはhttps://github.com/YuyingZhao/FairExplanations-CFAで公開されています。
関連論文リスト
- Achieving Fairness in Predictive Process Analytics via Adversarial Learning [50.31323204077591]
本稿では、デバイアスフェーズを予測ビジネスプロセス分析に組み込むことの課題に対処する。
本研究の枠組みは, 4つのケーススタディで検証し, 予測値に対する偏り変数の寄与を著しく低減することを示した。
論文 参考訳(メタデータ) (2024-10-03T15:56:03Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Large Language Model Bias Mitigation from the Perspective of Knowledge Editing [12.855975783223236]
本研究では,個々のバイアス知識の微粒化による編集可能な公平性を実現するための,新しい脱バイアス手法であるFairness Stamp(FAST)を提案する。
FASTは、知識保存のための全体的なモデル能力を妨げることなく、最先端のベースラインをはるかに上回っている。
論文 参考訳(メタデータ) (2024-05-15T13:44:13Z) - Take Care of Your Prompt Bias! Investigating and Mitigating Prompt Bias in Factual Knowledge Extraction [56.17020601803071]
近年の研究では、事前学習言語モデル(PLM)が、事実知識抽出において「急激なバイアス」に悩まされていることが示されている。
本稿では,突発バイアスを徹底的に調査し緩和することにより,既存のベンチマークの信頼性を向上させることを目的とする。
論文 参考訳(メタデータ) (2024-03-15T02:04:35Z) - Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Counterfactual Fair Opportunity: Measuring Decision Model Fairness with
Counterfactual Reasoning [5.626570248105078]
本研究は,不注意条件下での公正な場合において,反実的推論を用いて不公平なモデル行動を明らかにすることを目的とする。
対物フェアという対物機会の対物バージョンを定義し、対物サンプルのセンシティブな情報を分析する2つの新しい指標を紹介した。
論文 参考訳(メタデータ) (2023-02-16T09:13:53Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - A Sandbox Tool to Bias(Stress)-Test Fairness Algorithms [19.86635585740634]
バイアス注入型サンドボックスツールの概念と実装について, 各種バイアスの公平性について検討する。
既存のツールキットとは異なり、私たちのツールはMLパイプラインに事実上バイアスを注入する制御された環境を提供します。
特に、バイアス注入前において、偏りのない状態の真のラベルに介入した後に生じる予測を比較することで、与えられた治療法が注入されたバイアスを軽減することができるかどうかを検証できる。
論文 参考訳(メタデータ) (2022-04-21T16:12:19Z) - Towards Equal Opportunity Fairness through Adversarial Learning [64.45845091719002]
逆行訓練は、自然言語処理におけるバイアス緩和の一般的なアプローチである。
本稿では、よりリッチな特徴を生み出すために、ターゲットクラスをインプットとして利用する、対位訓練のための拡張判別器を提案する。
論文 参考訳(メタデータ) (2022-03-12T02:22:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。