論文の概要: Fairness and Robustness of Contrasting Explanations
- arxiv url: http://arxiv.org/abs/2103.02354v1
- Date: Wed, 3 Mar 2021 12:16:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-04 15:10:31.215123
- Title: Fairness and Robustness of Contrasting Explanations
- Title(参考訳): 解釈説明の公平性とロバスト性
- Authors: Andr\'e Artelt and Barbara Hammer
- Abstract要約: 対比する説明の個人の公平性と堅牢性を研究します。
反実説明の個人的公平性を改善するために,最も近い反実語の代わりに実用可能な反実語を使用することを提案する。
- 参考スコア(独自算出の注目度): 9.104557591459283
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness and explainability are two important and closely related
requirements of decision making systems. While ensuring and evaluating fairness
as well as explainability of decision masking systems has been extensively
studied independently, only little effort has been investigated into studying
fairness of explanations on their own - i.e. the explanations it self should be
fair. In this work we formally and empirically study individual fairness and
robustness of contrasting explanations - in particular we consider
counterfactual explanations as a prominent instance of contrasting
explanations. Furthermore, we propose to use plausible counterfactuals instead
of closest counterfactuals for improving the individual fairness of
counterfactual explanations.
- Abstract(参考訳): 公平性と説明性は、意思決定システムの重要かつ密接に関連する2つの要件である。
公平性と意思決定マスキングシステムの説明可能性の確保と評価は独立して研究されているが、説明の公平さを独自に研究する試みは少ない。
その説明は公平であるべきだ。
本研究では,対比的な説明の個人的公平性と堅牢性を公式かつ実証的に研究する。特に反実的な説明は対比的な説明の顕著な例であると考える。
さらに,最も近い反実ではなく実用的反実体を用いて,個々の実用的説明の公平性を改善することを提案する。
関連論文リスト
- Does Faithfulness Conflict with Plausibility? An Empirical Study in Explainable AI across NLP Tasks [9.979726030996051]
私たちは、Shapleyの価値とLIMEがより忠実で妥当性が高いことを示す。
この結果から,一方の次元を一方の次元に最適化するのではなく,2つの目的を持つ説明可能性アルゴリズムを最適化する可能性が示唆された。
論文 参考訳(メタデータ) (2024-03-29T20:28:42Z) - On Explaining Unfairness: An Overview [2.0277446818411]
アルゴリズムの公正性と説明可能性は、責任あるAIを達成するための基本的な要素である。
フェアネスは,(a)フェアネス指標を高めるための説明,(b)フェアネスの原因を理解するための説明,(c)フェアネスを緩和する手法の設計を支援する説明の3つのタイプに分類される。
論文 参考訳(メタデータ) (2024-02-16T15:38:00Z) - On the Relationship Between Interpretability and Explainability in Machine Learning [2.828173677501078]
解釈可能性と説明可能性は、機械学習の分野でますます注目を集めている。
両者は予測者とその決定プロセスに関する情報を提供するため、単一のエンドに対して2つの独立した手段と見なされることが多い。
複雑なブラックボックスモデル用に設計された説明可能性技術、あるいは多くの説明可能性ツールを無視した解釈可能なアプローチ。
論文 参考訳(メタデータ) (2023-11-20T02:31:08Z) - Dissenting Explanations: Leveraging Disagreement to Reduce Model Overreliance [4.962171160815189]
本稿では, 矛盾する説明, 付随する説明と矛盾する予測について紹介する。
まず、モデル乗法の設定における不一致の説明の利点を考察する。
本研究では,不一致説明が全体の精度を低下させることなく,モデル予測の過度な信頼性を低下させることを実証する。
論文 参考訳(メタデータ) (2023-07-14T21:27:00Z) - On the Connection between Game-Theoretic Feature Attributions and
Counterfactual Explanations [14.552505966070358]
最も一般的な説明は、特徴属性と反実的説明である。
この研究は、ゲーム理論的特徴属性と反事実的説明の間に明確な理論的関係を確立する。
我々は、特徴的重要性を提供するために、反事実的説明を用いることの限界に光を当てた。
論文 参考訳(メタデータ) (2023-07-13T17:57:21Z) - Complementary Explanations for Effective In-Context Learning [77.83124315634386]
大規模言語モデル (LLM) は、説明のインプロンプトから学習する際、顕著な能力を示した。
この研究は、文脈内学習に説明が使用されるメカニズムをよりよく理解することを目的としている。
論文 参考訳(メタデータ) (2022-11-25T04:40:47Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Prompting Contrastive Explanations for Commonsense Reasoning Tasks [74.7346558082693]
大規模事前学習言語モデル(PLM)は、常識推論タスクにおいて、ほぼ人間に近い性能を達成することができる。
人間の解釈可能な証拠を生成するために、同じモデルを使う方法を示す。
論文 参考訳(メタデータ) (2021-06-12T17:06:13Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Aligning Faithful Interpretations with their Social Attribution [58.13152510843004]
モデル解釈が忠実であることの要件はあいまいで不完全であることに気付く。
因果的帰属(因果的帰属)と解釈(社会的帰属)に対する人間の行動の帰属(因果的帰属)の相違が問題であると認識する。
論文 参考訳(メタデータ) (2020-06-01T16:45:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。