論文の概要: Gender Bias in Explainability: Investigating Performance Disparity in Post-hoc Methods
- arxiv url: http://arxiv.org/abs/2505.01198v1
- Date: Fri, 02 May 2025 11:41:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-05 17:21:20.0066
- Title: Gender Bias in Explainability: Investigating Performance Disparity in Post-hoc Methods
- Title(参考訳): 説明可能性におけるジェンダーバイアス:ポストホック法におけるパフォーマンス格差の調査
- Authors: Mahdi Dhaini, Ege Erdogan, Nils Feldhus, Gjergji Kasneci,
- Abstract要約: 本研究では,ポストホック特徴帰属法が,その忠実性,堅牢性,複雑さに関して,有意な男女差を示すことを示す。
本研究は,説明可能性法の開発と適用における説明の相違に対処することの重要性を強調した。
- 参考スコア(独自算出の注目度): 11.754326620700283
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While research on applications and evaluations of explanation methods continues to expand, fairness of the explanation methods concerning disparities in their performance across subgroups remains an often overlooked aspect. In this paper, we address this gap by showing that, across three tasks and five language models, widely used post-hoc feature attribution methods exhibit significant gender disparity with respect to their faithfulness, robustness, and complexity. These disparities persist even when the models are pre-trained or fine-tuned on particularly unbiased datasets, indicating that the disparities we observe are not merely consequences of biased training data. Our results highlight the importance of addressing disparities in explanations when developing and applying explainability methods, as these can lead to biased outcomes against certain subgroups, with particularly critical implications in high-stakes contexts. Furthermore, our findings underscore the importance of incorporating the fairness of explanations, alongside overall model fairness and explainability, as a requirement in regulatory frameworks.
- Abstract(参考訳): 説明手法の応用と評価についての研究は拡大し続けているが、サブグループ間のパフォーマンスの相違に関する説明手法の公平性は、しばしば見過ごされがちである。
本稿では,3つのタスクと5つの言語モデルにまたがって,多用されるポストホック特徴属性法が,その忠実性,堅牢性,複雑さに関して,有意な男女差を示すことを示す。
これらの格差は、モデルが特にバイアスのないデータセットで事前トレーニングされたり、微調整されたとしても持続する。
本研究は,説明可能性法の開発と適用における説明の相違に対処することの重要性を強調した。
さらに,本研究は,ルールフレームワークの要件として,モデルフェアネスと説明可能性とともに,説明の公正さを取り入れることの重要性を強調した。
関連論文リスト
- Rethinking Fair Representation Learning for Performance-Sensitive Tasks [19.40265690963578]
因果推論を用いて、データセットバイアスの異なるソースを定義し、定式化する。
我々は、分布シフト下での公正表現学習の性能を調べるために、様々な医学的モダリティにまたがる実験を行う。
論文 参考訳(メタデータ) (2024-10-05T11:01:16Z) - Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Understanding Disparities in Post Hoc Machine Learning Explanation [2.965442487094603]
従来の研究では、既存のポストホックな説明法は説明の忠実度に相違があることが強調されている(「レース」と「ジェンダー」は敏感な属性である)。
データの性質から生じる格差を説明するための課題を特に評価する。
結果は、モデル説明の相違はデータやモデルの性質にも依存できることを示している。
論文 参考訳(メタデータ) (2024-01-25T22:09:28Z) - Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - Conditional Supervised Contrastive Learning for Fair Text Classification [59.813422435604025]
対照的な学習を通してテキスト分類のための等化オッズとして知られる公平性の概念を満たす学習公正表現について研究する。
具体的には、まず、公正性制約のある学習表現と条件付き教師付きコントラスト目的との間の関係を理論的に分析する。
論文 参考訳(メタデータ) (2022-05-23T17:38:30Z) - Fairness via Explanation Quality: Evaluating Disparities in the Quality
of Post hoc Explanations [19.125887321893522]
本稿では,最先端の手法によって出力される説明の質の相違を定量的に測定できる新しい評価フレームワークを提案する。
以上の結果から,モデルが複雑で非線形である場合,このような相違が生じる可能性が示唆された。
この研究は、説明品質におけるグループベースの格差の問題を強調し、研究する最初のものである。
論文 参考訳(メタデータ) (2022-05-15T13:01:20Z) - On Modality Bias Recognition and Reduction [70.69194431713825]
マルチモーダル分類の文脈におけるモダリティバイアス問題について検討する。
本稿では,各ラベルの特徴空間を適応的に学習するプラグアンドプレイ損失関数法を提案する。
本手法は, ベースラインに比べ, 顕著な性能向上を実現している。
論文 参考訳(メタデータ) (2022-02-25T13:47:09Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - On Disentangled Representations Learned From Correlated Data [59.41587388303554]
相関データに対する最も顕著な絡み合うアプローチの挙動を解析することにより、現実のシナリオにギャップを埋める。
本研究では,データセットの体系的相関が学習され,潜在表現に反映されていることを示す。
また、トレーニング中の弱い監督や、少数のラベルで事前訓練されたモデルを修正することで、これらの潜伏相関を解消する方法を実証する。
論文 参考訳(メタデータ) (2020-06-14T12:47:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。