論文の概要: BASED-XAI: Breaking Ablation Studies Down for Explainable Artificial
Intelligence
- arxiv url: http://arxiv.org/abs/2207.05566v1
- Date: Tue, 12 Jul 2022 14:38:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-13 17:42:46.989751
- Title: BASED-XAI: Breaking Ablation Studies Down for Explainable Artificial
Intelligence
- Title(参考訳): BASED-XAI: 説明可能な人工知能のためのアブレーション研究を断ち切る
- Authors: Isha Hameed, Samuel Sharpe, Daniel Barcklow, Justin Au-Yeung, Sahil
Verma, Jocelyn Huang, Brian Barr, C. Bayan Bruss
- Abstract要約: 様々な摂動が、潜在的に欠陥のある結論を避けるのにどのように役立つかを示す。
また,ホック後の説明可能性とアブレーション研究において,カテゴリー変数の扱いが重要であることも明らかにした。
- 参考スコア(独自算出の注目度): 1.2948254191169823
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable artificial intelligence (XAI) methods lack ground truth. In its
place, method developers have relied on axioms to determine desirable
properties for their explanations' behavior. For high stakes uses of machine
learning that require explainability, it is not sufficient to rely on axioms as
the implementation, or its usage, can fail to live up to the ideal. As a
result, there exists active research on validating the performance of XAI
methods. The need for validation is especially magnified in domains with a
reliance on XAI. A procedure frequently used to assess their utility, and to
some extent their fidelity, is an ablation study. By perturbing the input
variables in rank order of importance, the goal is to assess the sensitivity of
the model's performance. Perturbing important variables should correlate with
larger decreases in measures of model capability than perturbing less important
features. While the intent is clear, the actual implementation details have not
been studied rigorously for tabular data. Using five datasets, three XAI
methods, four baselines, and three perturbations, we aim to show 1) how varying
perturbations and adding simple guardrails can help to avoid potentially flawed
conclusions, 2) how treatment of categorical variables is an important
consideration in both post-hoc explainability and ablation studies, and 3) how
to identify useful baselines for XAI methods and viable perturbations for
ablation studies.
- Abstract(参考訳): 説明可能な人工知能(XAI)の手法には根本的真実が欠けている。
その代わりに、メソッド開発者は、説明の振る舞いに望ましい特性を決定するのに公理に依存しています。
説明可能性を必要とする高利率な機械学習の利用では、実装やその使用が理想に合致しない可能性があるため、公理に頼るだけでは不十分である。
その結果,XAI法の性能評価に関する研究が活発に行われている。
検証の必要性は特にXAIに依存した領域で拡大している。
それらの効用やある程度の忠実さを評価するために頻繁に用いられる手順は、アブレーション研究である。
入力変数を重要度のランク順に摂動させることで、モデルの性能の感度を評価することが目的である。
重要な変数の摂動は、重要でない特徴の摂動よりもモデル能力の測定値の減少と相関するべきである。
意図は明らかだが、実際の実装の詳細は表データに対して厳密に研究されていない。
5つのデータセット、3つのxaiメソッド、4つのベースライン、3つの摂動を使用して、
1) 摂動の変化と単純なガードレールの追加は、潜在的に欠陥のある結論を避けるのにどのように役立つか。
2)分類変数の扱いは,ポストホックな説明可能性とアブレーション研究の両方において重要である。
3)XAI法に有用なベースラインの同定法とアブレーション研究に有効な摂動
関連論文リスト
- F-Fidelity: A Robust Framework for Faithfulness Evaluation of Explainable AI [15.314388210699443]
微調整フィデリティF-フィデリティはXAIの堅牢な評価フレームワークである。
その結果, F-Fidelity は, 説明者の信頼度を回復する上で, 事前評価基準を著しく改善することを示した。
また,F-Fidelityの指標を忠実に説明すれば,入力成分の空間性を計算することができることを示す。
論文 参考訳(メタデータ) (2024-10-03T20:23:06Z) - Explainable AI needs formal notions of explanation correctness [2.1309989863595677]
医学のような重要な分野における機械学習はリスクをもたらし、規制を必要とする。
1つの要件は、リスクの高いアプリケーションにおけるMLシステムの決定は、人間に理解可能なものであるべきです。
現在の形式では、XAIはMLの品質管理に不適であり、それ自体は精査が必要である。
論文 参考訳(メタデータ) (2024-09-22T20:47:04Z) - Evaluating Human Alignment and Model Faithfulness of LLM Rationale [66.75309523854476]
大規模言語モデル(LLM)が,その世代を理論的にどのように説明するかを考察する。
提案手法は帰属に基づく説明よりも「偽り」が少ないことを示す。
論文 参考訳(メタデータ) (2024-06-28T20:06:30Z) - XAI-TRIS: Non-linear image benchmarks to quantify false positive
post-hoc attribution of feature importance [1.3958169829527285]
形式的な基盤の欠如は、与えられた XAI 法の結果からどの結論を安全に導き出すことができるのかがはっきりしない。
これは、一般的にディープニューラルネットワークによって解決される非線形問題に挑戦するが、現在は適切な治療法が欠如していることを意味する。
我々は,一般的なXAI手法が,ランダムな性能基準やエッジ検出方法よりも著しく優れていることを示す。
論文 参考訳(メタデータ) (2023-06-22T11:31:11Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Trying to Outrun Causality with Machine Learning: Limitations of Model
Explainability Techniques for Identifying Predictive Variables [7.106986689736828]
機械学習のアルゴリズムは、見た目ほど柔軟性がなく、データの根底にある因果構造に驚くほど敏感であることを示す。
我々は、重要な変数のデータを探索したい研究者のために、いくつかの代替のレコメンデーションを提供する。
論文 参考訳(メタデータ) (2022-02-20T17:48:54Z) - Logic Constraints to Feature Importances [17.234442722611803]
AIモデルの"ブラックボックス"の性質は、診断技術や自律的ガイドなど、高度な分野における信頼性の高い応用の限界であることが多い。
近年の研究では、適切な解釈可能性のレベルが、モデル信頼性というより一般的な概念を強制できることが示されている。
本論文の基本的な考え方は,特定のタスクにおける特徴の重要性に関する人間の事前知識を利用して,モデルの適合のフェーズを整合的に支援することである。
論文 参考訳(メタデータ) (2021-10-13T09:28:38Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Evaluating Explainable AI: Which Algorithmic Explanations Help Users
Predict Model Behavior? [97.77183117452235]
我々は、モデル解釈性に対するアルゴリズム的説明の影響を分離するために、人体テストを実施している。
方法の有効性の明確な証拠はごく少数にみえる。
以上の結果から,説明がシミュラビリティにどのように影響するかの信頼性と包括的評価が得られた。
論文 参考訳(メタデータ) (2020-05-04T20:35:17Z) - Fairness by Learning Orthogonal Disentangled Representations [50.82638766862974]
不変表現問題に対する新しい非絡み合い手法を提案する。
エントロピーによりセンシティブな情報に依存しない有意義な表現を強制する。
提案手法は5つの公開データセットで評価される。
論文 参考訳(メタデータ) (2020-03-12T11:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。