論文の概要: Evaluating Explainable AI: Which Algorithmic Explanations Help Users
Predict Model Behavior?
- arxiv url: http://arxiv.org/abs/2005.01831v1
- Date: Mon, 4 May 2020 20:35:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 23:54:27.850642
- Title: Evaluating Explainable AI: Which Algorithmic Explanations Help Users
Predict Model Behavior?
- Title(参考訳): 説明可能なAIを評価する: ユーザーがモデル行動を予測するのに役立つアルゴリズム的説明
- Authors: Peter Hase, Mohit Bansal
- Abstract要約: 我々は、モデル解釈性に対するアルゴリズム的説明の影響を分離するために、人体テストを実施している。
方法の有効性の明確な証拠はごく少数にみえる。
以上の結果から,説明がシミュラビリティにどのように影響するかの信頼性と包括的評価が得られた。
- 参考スコア(独自算出の注目度): 97.77183117452235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Algorithmic approaches to interpreting machine learning models have
proliferated in recent years. We carry out human subject tests that are the
first of their kind to isolate the effect of algorithmic explanations on a key
aspect of model interpretability, simulatability, while avoiding important
confounding experimental factors. A model is simulatable when a person can
predict its behavior on new inputs. Through two kinds of simulation tests
involving text and tabular data, we evaluate five explanations methods: (1)
LIME, (2) Anchor, (3) Decision Boundary, (4) a Prototype model, and (5) a
Composite approach that combines explanations from each method. Clear evidence
of method effectiveness is found in very few cases: LIME improves
simulatability in tabular classification, and our Prototype method is effective
in counterfactual simulation tests. We also collect subjective ratings of
explanations, but we do not find that ratings are predictive of how helpful
explanations are. Our results provide the first reliable and comprehensive
estimates of how explanations influence simulatability across a variety of
explanation methods and data domains. We show that (1) we need to be careful
about the metrics we use to evaluate explanation methods, and (2) there is
significant room for improvement in current methods. All our supporting code,
data, and models are publicly available at:
https://github.com/peterbhase/InterpretableNLP-ACL2020
- Abstract(参考訳): 近年,機械学習モデルの解釈に対するアルゴリズム的アプローチが盛んである。
我々は, モデル解釈可能性, シミュレーション可能性の重要な側面に対するアルゴリズム的説明の効果を, 実験的要因の融合を回避しつつ, アルゴリズム的説明の効果を分離する, 人間の主題テストを実施する。
モデルは、新しい入力でその振る舞いを予測できるときにシミュラブルである。
テキストと表データを含む2種類のシミュレーションテストを通して,(1)ライム,(2)アンカー,(3)決定境界,(4)プロトタイプモデル,(5)各手法の説明を結合した合成手法の評価を行った。
limeは表分類の同時性を改善し,プロトタイプ手法は偽りのシミュレーションテストに有効である。
また、主観的な説明格付けも収集するが、説明格付けがいかに役に立つかは予測できない。
この結果から,様々な説明手法やデータ領域において,説明がシミュラビリティにどのように影響するかを,信頼性と包括的に評価した。
我々は,(1)説明手法の評価に使用する指標に注意が必要であること,(2)現在の手法に改善の余地があること,を示す。
サポートコード、データ、モデルはすべて、https://github.com/peterbhase/InterpretableNLP-ACL2020で公開されています。
関連論文リスト
- Interpretability in Symbolic Regression: a benchmark of Explanatory Methods using the Feynman data set [0.0]
機械学習モデルの解釈可能性は、モデルの精度と同じくらい重要な役割を果たす。
本稿では,回帰モデルを説明するための説明手法を評価するためのベンチマーク手法を提案する。
その結果、シンボリック回帰モデルは、ホワイトボックスモデルやブラックボックスモデルに代わる興味深い選択肢になり得ることが示されている。
論文 参考訳(メタデータ) (2024-04-08T23:46:59Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Right for the Wrong Reason: Can Interpretable ML Techniques Detect
Spurious Correlations? [2.7558542803110244]
本稿では,素早い相関関係を正確に識別する説明手法の能力を評価するための厳密な評価手法を提案する。
ポストホックな手法であるSHAPと本質的に解釈可能なAttri-Netが最高のパフォーマンスを提供することがわかった。
論文 参考訳(メタデータ) (2023-07-23T14:43:17Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Don't Explain Noise: Robust Counterfactuals for Randomized Ensembles [50.81061839052459]
我々は確率論的問題として、堅牢な対実的説明の生成を定式化する。
アンサンブルモデルのロバスト性とベース学習者のロバスト性との関係を示す。
本手法は, 反実的説明から初期観測までの距離をわずかに増加させるだけで, 高いロバスト性を実現する。
論文 参考訳(メタデータ) (2022-05-27T17:28:54Z) - Evaluation of Local Model-Agnostic Explanations Using Ground Truth [4.278336455989584]
説明手法は人為的手法を用いて一般的に評価される。
本稿では,局所モデルに依存しない説明手法に関する機能的評価手法を提案する。
論文 参考訳(メタデータ) (2021-06-04T13:47:31Z) - Search Methods for Sufficient, Socially-Aligned Feature Importance
Explanations with In-Distribution Counterfactuals [72.00815192668193]
特徴重要度(FI)推定は一般的な説明形式であり、テスト時に特定の入力特徴を除去することによって生じるモデル信頼度の変化を計算し、評価することが一般的である。
FIに基づく説明の未探索次元についていくつかの考察を行い、この説明形式に対する概念的および実証的な改善を提供する。
論文 参考訳(メタデータ) (2021-06-01T20:36:48Z) - Leakage-Adjusted Simulatability: Can Models Generate Non-Trivial
Explanations of Their Behavior in Natural Language? [86.60613602337246]
我々はNL説明を評価するためのリーク調整シミュラビリティ(LAS)指標を提案する。
LASは、どのように説明が直接アウトプットをリークするかを制御しながら、オブザーバがモデルのアウトプットを予測するのに役立つかを計測する。
マルチエージェントゲームとしての説明文生成を行い、ラベルリークをペナライズしながら、シミュラビリティの説明を最適化する。
論文 参考訳(メタデータ) (2020-10-08T16:59:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。