論文の概要: AcME -- Accelerated Model-agnostic Explanations: Fast Whitening of the
Machine-Learning Black Box
- arxiv url: http://arxiv.org/abs/2112.12635v1
- Date: Thu, 23 Dec 2021 15:18:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-24 16:34:04.805856
- Title: AcME -- Accelerated Model-agnostic Explanations: Fast Whitening of the
Machine-Learning Black Box
- Title(参考訳): AcME --Accelerated Model-Agnostic Explanations: Fast Whitening of the Machine-Learning Black Box
- Authors: David Dandolo, Chiara Masiero, Mattia Carletti, Davide Dalle Pezze,
Gian Antonio Susto
- Abstract要約: 解釈可能性のアプローチは、ユーザが待つことなく、実行可能な洞察を提供するべきです。
本稿では,グローバルレベルとローカルレベルの両方で特徴的重要性のスコアを迅速に提供する解釈可能性アプローチである,アクセレーションモデル非依存説明(AcME)を提案する。
AcMEは機能ランキングを計算しますが、機能値の変化がモデル予測にどのように影響するかを評価するために、What-if分析ツールも提供しています。
- 参考スコア(独自算出の注目度): 1.7534486934148554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the context of human-in-the-loop Machine Learning applications, like
Decision Support Systems, interpretability approaches should provide actionable
insights without making the users wait. In this paper, we propose Accelerated
Model-agnostic Explanations (AcME), an interpretability approach that quickly
provides feature importance scores both at the global and the local level. AcME
can be applied a posteriori to each regression or classification model. Not
only does AcME compute feature ranking, but it also provides a what-if analysis
tool to assess how changes in features values would affect model predictions.
We evaluated the proposed approach on synthetic and real-world datasets, also
in comparison with SHapley Additive exPlanations (SHAP), the approach we drew
inspiration from, which is currently one of the state-of-the-art model-agnostic
interpretability approaches. We achieved comparable results in terms of quality
of produced explanations while reducing dramatically the computational time and
providing consistent visualization for global and local interpretations. To
foster research in this field, and for the sake of reproducibility, we also
provide a repository with the code used for the experiments.
- Abstract(参考訳): Decision Support Systemsのようなヒューマン・イン・ザ・ループの機械学習アプリケーションの場合、解釈可能性のアプローチはユーザーを待たせることなく行動可能な洞察を提供するべきである。
本稿では,グローバルレベルとローカルレベルの両方で特徴量スコアを迅速に提供する解釈可能性アプローチであるacme(accelerated model-agnostic explanations)を提案する。
AcMEは、各回帰モデルや分類モデルに後部に適用することができる。
acmeの計算機能ランキングだけでなく、機能値の変化がモデル予測に与える影響を評価するためのwhat-if分析ツールも提供している。
SHAP(SHapley Additive exPlanations)と比較して,合成および実世界のデータセットに対する提案手法の評価を行った。
計算時間を劇的に短縮し,グローバルおよび局所的な解釈に対して一貫した可視化を実現するとともに,生成した説明の品質の観点から比較結果を得た。
この分野での研究を育むため、再現性のために、実験に使用するコードを持つリポジトリも提供します。
関連論文リスト
- On Discriminative Probabilistic Modeling for Self-Supervised Representation Learning [85.75164588939185]
複数モーダルな)自己教師付き表現学習のための連続領域における識別確率モデル問題について検討する。
我々は、自己教師付き表現学習における現在のInfoNCEに基づくコントラスト損失の制限を明らかにするために一般化誤差解析を行う。
論文 参考訳(メタデータ) (2024-10-11T18:02:46Z) - LaPLACE: Probabilistic Local Model-Agnostic Causal Explanations [1.0370398945228227]
本稿では,機械学習モデルに対する確率論的原因・効果説明を提供するLaPLACE-Explainerを紹介する。
LaPLACE-Explainerコンポーネントはマルコフ毛布の概念を利用して、関連する特徴と非関連する特徴の間の統計的境界を確立する。
提案手法は,LIME と SHAP の局所的精度と特徴の整合性の観点から,因果的説明と性能を向上する。
論文 参考訳(メタデータ) (2023-10-01T04:09:59Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - Consensus-Adaptive RANSAC [104.87576373187426]
本稿では,パラメータ空間の探索を学習する新しいRANSACフレームワークを提案する。
注意機構は、ポイント・ツー・モデル残差のバッチで動作し、軽量のワンステップ・トランスフォーマーで見いだされたコンセンサスを考慮するために、ポイント・ツー・モデル推定状態を更新する。
論文 参考訳(メタデータ) (2023-07-26T08:25:46Z) - Evaluating Explainability in Machine Learning Predictions through Explainer-Agnostic Metrics [0.0]
我々は,モデル予測が説明できる範囲を定量化するために,6つの異なるモデルに依存しないメトリクスを開発した。
これらのメトリクスは、局所的な重要性、グローバルな重要性、代理予測など、モデル説明可能性のさまざまな側面を測定する。
分類と回帰タスクにおけるこれらのメトリクスの実用性を実証し、これらのメトリクスを公開のために既存のPythonパッケージに統合する。
論文 参考訳(メタデータ) (2023-02-23T15:28:36Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Layer-wise Analysis of a Self-supervised Speech Representation Model [26.727775920272205]
自己教師付き学習アプローチは、音声表現モデルの事前学習に成功している。
事前訓練された表現そのものに符号化された情報のタイプや範囲についてはあまり研究されていない。
論文 参考訳(メタデータ) (2021-07-10T02:13:25Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z) - Adversarial Infidelity Learning for Model Interpretation [43.37354056251584]
本稿では,モデル解釈のためのモデル非依存能率直接(MEED)FSフレームワークを提案する。
我々のフレームワークは、正当性、ショートカット、モデルの識別可能性、情報伝達に関する懸念を緩和する。
我々のAILメカニズムは、選択した特徴と目標の間の条件分布を学習するのに役立ちます。
論文 参考訳(メタデータ) (2020-06-09T16:27:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。