論文の概要: Characterizing the contribution of dependent features in XAI methods
- arxiv url: http://arxiv.org/abs/2304.01717v1
- Date: Tue, 4 Apr 2023 11:25:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 14:08:55.245599
- Title: Characterizing the contribution of dependent features in XAI methods
- Title(参考訳): XAI法における依存的特徴の寄与を特徴づける
- Authors: Ahmed Salih, Ilaria Boscolo Galazzo, Zahra Raisi-Estabragh, Steffen E.
Petersen, Gloria Menegaz, Petia Radeva
- Abstract要約: 本稿では,XAI特徴量ランキング法の結果を,予測者間の依存性を考慮に入れたプロキシを提案する。
提案手法はモデルに依存しないという利点があり、コリニアリティが存在する場合のモデルにおける各予測器の影響を計算するのが簡単である。
- 参考スコア(独自算出の注目度): 6.990173577370281
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable Artificial Intelligence (XAI) provides tools to help
understanding how the machine learning models work and reach a specific
outcome. It helps to increase the interpretability of models and makes the
models more trustworthy and transparent. In this context, many XAI methods were
proposed being SHAP and LIME the most popular. However, the proposed methods
assume that used predictors in the machine learning models are independent
which in general is not necessarily true. Such assumption casts shadows on the
robustness of the XAI outcomes such as the list of informative predictors.
Here, we propose a simple, yet useful proxy that modifies the outcome of any
XAI feature ranking method allowing to account for the dependency among the
predictors. The proposed approach has the advantage of being model-agnostic as
well as simple to calculate the impact of each predictor in the model in
presence of collinearity.
- Abstract(参考訳): 説明可能な人工知能(XAI)は、機械学習モデルがどのように機能し、特定の結果に達するかを理解するためのツールを提供する。
モデルの解釈性を高め、モデルの信頼性と透明性を高めるのに役立つ。
この文脈では、多くのXAI手法がSHAPとLIMEが最も人気である。
しかし、提案手法では、機械学習モデルで使用される予測器は独立であり、必ずしも真ではないと仮定する。
このような仮定は、情報的予測者のリストのようなXAI結果の堅牢性に影を落としている。
本稿では,任意のxai機能ランキング手法の結果を修正し,予測者間の依存性を考慮できる簡易かつ有用なプロキシを提案する。
提案手法は, モデル非依存であるだけでなく, モデル内の各予測器の影響をコリニア性の存在下で簡単に計算できるという利点がある。
関連論文リスト
- Explainable Artificial Intelligence for Dependent Features: Additive Effects of Collinearity [0.0]
本稿では,コリナリティ問題を考慮した新しいXAI手法として,コリナリティの付加効果(AEC)を提案する。
提案手法はシミュレーションデータと実データを用いて,芸術的XAI法と比較し,その効率性を検証した。
論文 参考訳(メタデータ) (2024-10-30T07:00:30Z) - Metric Tools for Sensitivity Analysis with Applications to Neural
Networks [0.0]
説明可能な人工知能(XAI)は、機械学習モデルによる予測の解釈を提供することを目的としている。
本稿では,計量手法を用いてMLモデルの感性を研究するための理論的枠組みを提案する。
$alpha$-curvesと呼ばれる新しいメトリクスの完全なファミリーが抽出される。
論文 参考訳(メタデータ) (2023-05-03T18:10:21Z) - Explanation-by-Example Based on Item Response Theory [0.0]
本研究は, 項目応答理論(IRT)を, モデルを説明し, 説明による信頼性のレベルを測定するためのツールとして検討する。
テストセットからすると、83.8%のエラーはIRTがモデルを信頼できないと指摘しているインスタンスからのものである。
論文 参考訳(メタデータ) (2022-10-04T14:36:33Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Tree-based local explanations of machine learning model predictions,
AraucanaXAI [2.9660372210786563]
パフォーマンスと知性の間のトレードオフは、特に医学のような高度な応用において、しばしば直面する。
本稿では,ジェネリックMLモデルの予測に関する説明を生成するための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-10-15T17:39:19Z) - Instance-Based Neural Dependency Parsing [56.63500180843504]
依存関係解析のための解釈可能な推論プロセスを持つニューラルモデルを開発する。
私たちのモデルはインスタンスベースの推論を採用しており、トレーニングセットのエッジと比較することで、依存関係のエッジを抽出し、ラベル付けします。
論文 参考訳(メタデータ) (2021-09-28T05:30:52Z) - Hessian-based toolbox for reliable and interpretable machine learning in
physics [58.720142291102135]
本稿では,モデルアーキテクチャの解釈可能性と信頼性,外挿を行うためのツールボックスを提案する。
与えられたテストポイントでの予測に対する入力データの影響、モデル予測の不確実性の推定、およびモデル予測の不可知スコアを提供する。
我々の研究は、物理学やより一般的には科学に適用されたMLにおける解釈可能性と信頼性の方法の体系的利用への道を開く。
論文 参考訳(メタデータ) (2021-08-04T16:32:59Z) - Rational Shapley Values [0.0]
ポストホックな説明可能な人工知能(XAI)の一般的なツールは、文脈に敏感であるか、要約が難しい。
非互換なアプローチを合成し拡張する新しいXAI手法である、エミュレーション型シェープリー値を導入する。
私は、意思決定理論や因果モデリングのツールを活用して、XAIにおける多くの既知の課題を解決する実用的なアプローチを定式化し、実装します。
論文 参考訳(メタデータ) (2021-06-18T15:45:21Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。