論文の概要: Fairness via Explanation Quality: Evaluating Disparities in the Quality
of Post hoc Explanations
- arxiv url: http://arxiv.org/abs/2205.07277v1
- Date: Sun, 15 May 2022 13:01:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-18 07:06:56.086391
- Title: Fairness via Explanation Quality: Evaluating Disparities in the Quality
of Post hoc Explanations
- Title(参考訳): 説明品質による公正性:ポストホック説明の質における格差の評価
- Authors: Jessica Dai, Sohini Upadhyay, Ulrich Aivodji, Stephen H. Bach,
Himabindu Lakkaraju
- Abstract要約: 本稿では,最先端の手法によって出力される説明の質の相違を定量的に測定できる新しい評価フレームワークを提案する。
以上の結果から,モデルが複雑で非線形である場合,このような相違が生じる可能性が示唆された。
この研究は、説明品質におけるグループベースの格差の問題を強調し、研究する最初のものである。
- 参考スコア(独自算出の注目度): 19.125887321893522
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As post hoc explanation methods are increasingly being leveraged to explain
complex models in high-stakes settings, it becomes critical to ensure that the
quality of the resulting explanations is consistently high across various
population subgroups including the minority groups. For instance, it should not
be the case that explanations associated with instances belonging to a
particular gender subgroup (e.g., female) are less accurate than those
associated with other genders. However, there is little to no research that
assesses if there exist such group-based disparities in the quality of the
explanations output by state-of-the-art explanation methods. In this work, we
address the aforementioned gaps by initiating the study of identifying
group-based disparities in explanation quality. To this end, we first outline
the key properties which constitute explanation quality and where disparities
can be particularly problematic. We then leverage these properties to propose a
novel evaluation framework which can quantitatively measure disparities in the
quality of explanations output by state-of-the-art methods. Using this
framework, we carry out a rigorous empirical analysis to understand if and when
group-based disparities in explanation quality arise. Our results indicate that
such disparities are more likely to occur when the models being explained are
complex and highly non-linear. In addition, we also observe that certain post
hoc explanation methods (e.g., Integrated Gradients, SHAP) are more likely to
exhibit the aforementioned disparities. To the best of our knowledge, this work
is the first to highlight and study the problem of group-based disparities in
explanation quality. In doing so, our work sheds light on previously unexplored
ways in which explanation methods may introduce unfairness in real world
decision making.
- Abstract(参考訳): ポストホックな説明手法が高リスク設定で複雑なモデルを説明するためにますます活用されているため、結果として得られる説明の質がマイノリティグループを含む様々な集団で一貫して高いことを保証することが重要である。
例えば、特定の性サブグループに属するインスタンス(例えば、女性)に関連付けられた説明が、他の性別に関連付けられた説明よりも正確ではないというような場合ではない。
しかし,最先端の解説手法によって得られた説明の質において,このような集団的差異が存在するかどうかを評価する研究はほとんどない。
本研究は,説明品質におけるグループに基づく差異を識別する研究を開始することで,上記のギャップを解消する。
この目的のために,まず,説明品質を構成する重要な特性と,特に異質性が問題となる要因について概説する。
そこで本研究では,これらの特性を活かし,最先端手法による説明の質のばらつきを定量的に測定できる評価フレームワークを提案する。
このフレームワークを用いて、説明品質におけるグループベースの格差が生じたかどうかを厳密な実証分析する。
以上の結果から,モデルが複雑で非線形である場合,このような相違が生じる可能性が示唆された。
また,特定のポストホックな説明手法(例えば,統合グラディエント,SHAP)が,上記の相違を示す可能性が高くなることも観察した。
我々の知る限りでは、この研究は、説明品質におけるグループベースの格差の問題を強調し、研究する最初のものである。
そうすることで、私たちの仕事は、説明手法が現実世界の意思決定に不公平をもたらす可能性のある、未解明の方法に光を当てています。
関連論文リスト
- Evaluating Human Alignment and Model Faithfulness of LLM Rationale [66.75309523854476]
大規模言語モデル(LLM)が,その世代を理論的にどのように説明するかを考察する。
提案手法は帰属に基づく説明よりも「偽り」が少ないことを示す。
論文 参考訳(メタデータ) (2024-06-28T20:06:30Z) - Explaining Groups of Instances Counterfactually for XAI: A Use Case,
Algorithm and User Study for Group-Counterfactuals [7.22614468437919]
類似事例群を包括的に説明する新たなユースケースについて検討する。
集団のカウンターファクトは、複数の事象や事件を網羅する、一貫性のある幅広い説明を人間の好みに適合させる。
結果から,AIシステムに対する理解は軽微だが,明確な改善が見られた。
論文 参考訳(メタデータ) (2023-03-16T13:16:50Z) - REVEL Framework to measure Local Linear Explanations for black-box
models: Deep Learning Image Classification case of study [12.49538398746092]
本稿では,理論的コヒーレントな発展を伴う説明の質に関する諸側面を評価するためのREVELと呼ばれる手法を提案する。
実験は,REVELの記述的および解析的パワーを示すベンチマークとして,画像4つのデータセットを用いて実施されている。
論文 参考訳(メタデータ) (2022-11-11T12:15:36Z) - How (Not) To Evaluate Explanation Quality [29.40729766120284]
タスクやドメインにまたがって適用される説明品質の望ましい特性を定式化する。
本稿では,今日の説明品質評価を制限する障害を克服するための実用的なガイドラインを提案する。
論文 参考訳(メタデータ) (2022-10-13T16:06:59Z) - A Meta Survey of Quality Evaluation Criteria in Explanation Methods [0.5801044612920815]
説明可能な人工知能(XAI)において、説明方法とその評価が重要な問題となっている。
最も正確なAIモデルは透明性と理解性の低い不透明であるため、バイアスの検出と不確実性の制御には説明が不可欠である。
説明方法の品質を評価する際には、選択すべき基準が多々ある。
論文 参考訳(メタデータ) (2022-03-25T22:24:21Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Explaining Algorithmic Fairness Through Fairness-Aware Causal Path
Decomposition [37.823248189626014]
本稿では,モデルの相違点の同定問題について検討する。
特徴重要度を学習する既存の解釈方法とは異なり,特徴変数間の因果関係を考察する。
我々のフレームワークはまた、モデルに依存しないものであり、様々な量的格差の尺度に適用できる。
論文 参考訳(メタデータ) (2021-08-11T17:23:47Z) - Prompting Contrastive Explanations for Commonsense Reasoning Tasks [74.7346558082693]
大規模事前学習言語モデル(PLM)は、常識推論タスクにおいて、ほぼ人間に近い性能を達成することができる。
人間の解釈可能な証拠を生成するために、同じモデルを使う方法を示す。
論文 参考訳(メタデータ) (2021-06-12T17:06:13Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - SCOUT: Self-aware Discriminant Counterfactual Explanations [78.79534272979305]
対物的視覚的説明の問題点を考察する。
新しい差別的な説明の族が紹介される。
結果として生じる反実的な説明は、最適化が自由で、従って以前の方法よりもはるかに高速である。
論文 参考訳(メタデータ) (2020-04-16T17:05:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。