論文の概要: Quantus: An Explainable AI Toolkit for Responsible Evaluation of Neural
Network Explanations and Beyond
- arxiv url: http://arxiv.org/abs/2202.06861v2
- Date: Fri, 31 Mar 2023 17:58:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 17:47:25.140837
- Title: Quantus: An Explainable AI Toolkit for Responsible Evaluation of Neural
Network Explanations and Beyond
- Title(参考訳): quantus: ニューラルネットワークの説明の責任評価のための説明可能なaiツールキット
- Authors: Anna Hedstr\"om, Leander Weber, Dilyara Bareeva, Franz Motzkus,
Wojciech Samek, Sebastian Lapuschkin, Marina M.-C. H\"ohne
- Abstract要約: QuantusはPythonの包括的な評価ツールキットであり、説明可能なメソッドを評価するための評価メトリクスとチュートリアルのコレクションを含んでいる。
ツールキットは徹底的にテストされており、PyPiのオープンソースライセンスの下で利用できる。
- 参考スコア(独自算出の注目度): 9.323720244373682
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The evaluation of explanation methods is a research topic that has not yet
been explored deeply, however, since explainability is supposed to strengthen
trust in artificial intelligence, it is necessary to systematically review and
compare explanation methods in order to confirm their correctness. Until now,
no tool with focus on XAI evaluation exists that exhaustively and speedily
allows researchers to evaluate the performance of explanations of neural
network predictions. To increase transparency and reproducibility in the field,
we therefore built Quantus -- a comprehensive, evaluation toolkit in Python
that includes a growing, well-organised collection of evaluation metrics and
tutorials for evaluating explainable methods. The toolkit has been thoroughly
tested and is available under an open-source license on PyPi (or on
https://github.com/understandable-machine-intelligence-lab/Quantus/).
- Abstract(参考訳): 説明方法の評価は、まだ深く研究されていない研究課題であるが、説明可能性については、人工知能への信頼を高めるため、その正確性を確認するためには、説明方法を体系的に検証・比較する必要がある。
これまでxai評価にフォーカスしたツールは存在せず、研究者がニューラルネットワークの予測に関する説明のパフォーマンスを徹底的に評価できる。
この分野の透明性と再現性を高めるため、我々はquantusを開発した。quantusはpythonの包括的な評価ツールキットで、よく組織された評価メトリクスのコレクションと説明可能なメソッドを評価するチュートリアルを含んでいる。
ツールキットは徹底的にテストされ、PyPi(https://github.com/understandable-machine-intelligence-lab/Quantus/)のオープンソースライセンスで利用可能である。
関連論文リスト
- BEExAI: Benchmark to Evaluate Explainable AI [0.9176056742068812]
本稿では,ポストホックXAI手法の大規模比較を可能にするベンチマークツールであるBEExAIを提案する。
説明の質と正確性を測定するための信頼性の高い方法の必要性が重要になっていると論じる。
論文 参考訳(メタデータ) (2024-07-29T11:21:17Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - FIND: A Function Description Benchmark for Evaluating Interpretability
Methods [86.80718559904854]
本稿では,自動解釈可能性評価のためのベンチマークスイートであるFIND(Function Interpretation and Description)を紹介する。
FINDには、トレーニングされたニューラルネットワークのコンポーネントに似た機能と、私たちが生成しようとしている種類の記述が含まれています。
本研究では、事前訓練された言語モデルを用いて、自然言語とコードにおける関数の振る舞いの記述を生成する手法を評価する。
論文 参考訳(メタデータ) (2023-09-07T17:47:26Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - The Meta-Evaluation Problem in Explainable AI: Identifying Reliable
Estimators with MetaQuantus [10.135749005469686]
説明可能なAI(XAI)分野における未解決課題の1つは、説明方法の品質を最も確実に見積もる方法を決定することである。
我々は、XAIの異なる品質推定器のメタ評価を通じてこの問題に対処する。
我々の新しいフレームワークMetaQuantusは、品質推定器の2つの相補的な性能特性を解析する。
論文 参考訳(メタデータ) (2023-02-14T18:59:02Z) - NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants [73.85768093666582]
我々はNeuroExplainerと呼ばれる説明可能な幾何学的深層ネットワークを提案する。
NeuroExplainerは、早産に伴う幼児の皮質発達パターンの解明に使用される。
論文 参考訳(メタデータ) (2023-01-01T12:48:12Z) - An Objective Metric for Explainable AI: How and Why to Estimate the
Degree of Explainability [3.04585143845864]
本稿では, 客観的手法を用いて, 正しい情報のeX説明可能性の度合いを測定するための, モデルに依存しない新しい指標を提案する。
私たちは、医療とファイナンスのための2つの現実的なAIベースのシステムについて、いくつかの実験とユーザースタディを設計しました。
論文 参考訳(メタデータ) (2021-09-11T17:44:13Z) - Uncertainty Quantification 360: A Holistic Toolkit for Quantifying and
Communicating the Uncertainty of AI [49.64037266892634]
我々は、AIモデルの不確実性定量化のためのオープンソースのPythonツールキットUncertainty Quantification 360 (UQ360)について述べる。
このツールキットの目標は2つある: ひとつは、AIアプリケーション開発ライフサイクルにおける不確実性を定量化し、評価し、改善し、伝達する共通のプラクティスを育むとともに、合理化するための幅広い能力を提供すること、もうひとつは、信頼できるAIの他の柱とのUQの接続をさらに探求することである。
論文 参考訳(メタデータ) (2021-06-02T18:29:04Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Ground Truth Evaluation of Neural Network Explanations with CLEVR-XAI [12.680653816836541]
我々は,CLEVR視覚質問応答タスクに基づくXAI手法の基盤的真理に基づく評価フレームワークを提案する。
本フレームワークは,(1)選択的,(2)制御,(3)リアルなテストベッドをニューラルネットワークの説明評価のために提供する。
論文 参考訳(メタデータ) (2020-03-16T14:43:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。