論文の概要: Explanations as Bias Detectors: A Critical Study of Local Post-hoc XAI Methods for Fairness Exploration
- arxiv url: http://arxiv.org/abs/2505.00802v1
- Date: Thu, 01 May 2025 19:03:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-05 17:21:19.799239
- Title: Explanations as Bias Detectors: A Critical Study of Local Post-hoc XAI Methods for Fairness Exploration
- Title(参考訳): バイアス検知器としての解説:局所的ポストホックXAI法によるフェアネス探索の批判的研究
- Authors: Vasiliki Papanikou, Danae Pla Karidi, Evaggelia Pitoura, Emmanouil Panagiotou, Eirini Ntoutsi,
- Abstract要約: 本稿では、不公平を検知し、解釈するために、説明可能性法をどのように活用するかを考察する。
本研究では,局所的なポストホックな説明手法を統合し,公平性に関する洞察を導出するパイプラインを提案する。
- 参考スコア(独自算出の注目度): 5.113545724516812
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As Artificial Intelligence (AI) is increasingly used in areas that significantly impact human lives, concerns about fairness and transparency have grown, especially regarding their impact on protected groups. Recently, the intersection of explainability and fairness has emerged as an important area to promote responsible AI systems. This paper explores how explainability methods can be leveraged to detect and interpret unfairness. We propose a pipeline that integrates local post-hoc explanation methods to derive fairness-related insights. During the pipeline design, we identify and address critical questions arising from the use of explanations as bias detectors such as the relationship between distributive and procedural fairness, the effect of removing the protected attribute, the consistency and quality of results across different explanation methods, the impact of various aggregation strategies of local explanations on group fairness evaluations, and the overall trustworthiness of explanations as bias detectors. Our results show the potential of explanation methods used for fairness while highlighting the need to carefully consider the aforementioned critical aspects.
- Abstract(参考訳): 人工知能(AI)は、人間の生活に大きな影響を及ぼす領域でますます使われてきているため、公正性や透明性に対する懸念が高まり、特に保護されたグループに対する影響が強まっている。
近年、説明可能性と公正性の交わりが、責任あるAIシステムを促進する重要な領域として浮上している。
本稿では、不公平を検知し、解釈するために、説明可能性法をどのように活用するかを考察する。
本研究では,局所的なポストホックな説明手法を統合し,公平性に関する洞察を導出するパイプラインを提案する。
パイプライン設計において、分配的および手続き的公正性の関係、保護された属性の除去の効果、異なる説明方法による結果の一貫性と品質、グループフェアネス評価に対する局所的説明の様々な集約戦略の影響、およびバイアス検出器としての説明の全体的な信頼性など、説明の使用から生じる重要な問題を特定し、対処する。
本研究は, 上述の批判的側面を慎重に検討する必要性を強調しつつ, 公平性のための説明手法の可能性を示すものである。
関連論文リスト
- What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - The Impact of Explanations on Fairness in Human-AI Decision-Making: Protected vs Proxy Features [25.752072910748716]
説明は、人間とAIチームがより公平な意思決定のバイアスに対処するのに役立ちます。
モデルフェアネスに対する参加者の認識に及ぼす保護的・代理的特徴の有無の影響について検討した。
説明は直接的ではあるが間接的偏見を検出するのに役立ちます。
論文 参考訳(メタデータ) (2023-10-12T16:00:16Z) - Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - Fairness and robustness in anti-causal prediction [73.693135253335]
分散シフトと公平性に対するロバストさは、機械学習モデルに必要な2つの重要なデシラタとして独立に現れている。
これら2つのデシダラタは関連しているように見えるが、実際にはその関連性はしばしば不明である。
この観点から見れば、共通フェアネス基準(分離)とロバストネスの共通概念との明確な関係を描いています。
論文 参考訳(メタデータ) (2022-09-20T02:41:17Z) - Attributing Fair Decisions with Attention Interventions [28.968122909973975]
我々は、属性フレームワークとして活用できる注意ベースのモデルを設計する。
注意介入と注意重み操作によって、モデルの性能と公平性の両方に責任を負う特徴を特定することができる。
次に、後処理のバイアス軽減戦略を設計し、ベースラインのスイートと比較します。
論文 参考訳(メタデータ) (2021-09-08T22:28:44Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - Through the Data Management Lens: Experimental Analysis and Evaluation
of Fair Classification [75.49600684537117]
データ管理研究は、データとアルゴリズムの公平性に関連するトピックに対する存在感と関心が高まっている。
我々は,その正しさ,公平性,効率性,スケーラビリティ,安定性よりも,13の公正な分類アプローチと追加の変種を幅広く分析している。
我々の分析は、異なるメトリクスとハイレベルなアプローチ特性がパフォーマンスの異なる側面に与える影響に関する新しい洞察を強調します。
論文 参考訳(メタデータ) (2021-01-18T22:55:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。