論文の概要: XAI Benchmark for Visual Explanation
- arxiv url: http://arxiv.org/abs/2310.08537v1
- Date: Thu, 12 Oct 2023 17:26:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-14 08:36:23.630545
- Title: XAI Benchmark for Visual Explanation
- Title(参考訳): ビジュアル説明のためのXAIベンチマーク
- Authors: Yifei Zhang, Siyi Gu, James Song, Bo Pan, Liang Zhao
- Abstract要約: 画像のクラスラベルとそれに対応する説明アノテーションの両方を提供する多様なトピックからデータセットを収集するXAIベンチマークを導入する。
データ読み込み、事前処理、実験的なセットアップ、モデル評価プロセスを統合した総合的なVisual Explanationパイプラインを導入する。
我々は,様々なモデル中心および基底真理中心評価指標を用いて,選択したデータセット上で実験を行う。
- 参考スコア(独自算出の注目度): 12.19503592897236
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rise of deep learning algorithms has led to significant advancements in
computer vision tasks, but their "black box" nature has raised concerns
regarding interpretability. Explainable AI (XAI) has emerged as a critical area
of research aiming to open this "black box", and shed light on the
decision-making process of AI models. Visual explanations, as a subset of
Explainable Artificial Intelligence (XAI), provide intuitive insights into the
decision-making processes of AI models handling visual data by highlighting
influential areas in an input image. Despite extensive research conducted on
visual explanations, most evaluations are model-centered since the availability
of corresponding real-world datasets with ground truth explanations is scarce
in the context of image data. To bridge this gap, we introduce an XAI Benchmark
comprising a dataset collection from diverse topics that provide both class
labels and corresponding explanation annotations for images. We have processed
data from diverse domains to align with our unified visual explanation
framework. We introduce a comprehensive Visual Explanation pipeline, which
integrates data loading, preprocessing, experimental setup, and model
evaluation processes. This structure enables researchers to conduct fair
comparisons of various visual explanation techniques. In addition, we provide a
comprehensive review of over 10 evaluation methods for visual explanation to
assist researchers in effectively utilizing our dataset collection. To further
assess the performance of existing visual explanation methods, we conduct
experiments on selected datasets using various model-centered and ground
truth-centered evaluation metrics. We envision this benchmark could facilitate
the advancement of visual explanation models. The XAI dataset collection and
easy-to-use code for evaluation are publicly accessible at
https://xaidataset.github.io.
- Abstract(参考訳): ディープラーニングアルゴリズムの台頭はコンピュータビジョンタスクの大幅な進歩につながったが、その「ブラックボックス」の性質は解釈可能性に関する懸念を引き起こしている。
説明可能なAI(XAI)は、この"ブラックボックス"を開くことを目的とした研究の重要領域として現れ、AIモデルの意思決定プロセスに光を当てている。
ビジュアル説明は、説明可能な人工知能(XAI)のサブセットとして、入力画像内の影響力のある領域を強調することで、視覚データを扱うAIモデルの意思決定プロセスに関する直感的な洞察を提供する。
視覚的な説明に関する広範な研究にもかかわらず、ほとんどの評価は、画像データの文脈で対応する実世界のデータセットが利用可能であるため、モデル中心である。
このギャップを埋めるために、クラスラベルとそれに対応する画像説明アノテーションの両方を提供する多様なトピックからデータセットを収集するXAIベンチマークを導入する。
さまざまなドメインのデータを処理して、統一的なビジュアル説明フレームワークに適合させました。
データ読み込み、事前処理、実験的なセットアップ、モデル評価プロセスを統合した総合的なVisual Explanationパイプラインを導入する。
この構造により、研究者は様々な視覚的説明技法の公正な比較を行うことができる。
また,データセット収集を効果的に活用するために,視覚説明のための10以上の評価方法を総合的に検討した。
既存の視覚的説明法の性能を更に評価するために,様々なモデル中心および基底真理中心の評価指標を用いて,選択したデータセット上で実験を行う。
このベンチマークが視覚的な説明モデルの進歩を促進することを期待している。
XAIデータセットの収集と評価のための使いやすいコードはhttps://xaidataset.github.ioで公開されている。
関連論文リスト
- MEGL: Multimodal Explanation-Guided Learning [23.54169888224728]
本稿では,モデル解釈性の向上と分類性能の向上を目的とした,新しいマルチモーダル説明誘導学習(MEGL)フレームワークを提案する。
我々のSDTG(Saliency-Driven Textual Grounding)アプローチは、視覚的説明からテキスト論理へ空間情報を統合し、空間的根拠と文脈的リッチな説明を提供する。
我々は、マルチモーダルな説明を伴う画像分類のための2つの新しいデータセットであるObject-MEとAction-MEでMEGLを検証した。
論文 参考訳(メタデータ) (2024-11-20T05:57:00Z) - Intrinsic Subgraph Generation for Interpretable Graph based Visual Question Answering [27.193336817953142]
グラフに基づく視覚質問応答(VQA)に対する解釈可能なアプローチを提案する。
本モデルは,問合せ処理中に本質的にサブグラフを生成するように設計されている。
生成した部分グラフを,グラフニューラルネットワークの確立したポストホックな説明可能性法と比較し,人的評価を行う。
論文 参考訳(メタデータ) (2024-03-26T12:29:18Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Dynamic Clue Bottlenecks: Towards Interpretable-by-Design Visual Question Answering [58.64831511644917]
本稿では, モデル決定を中間的人間法的な説明に分解する設計モデルを提案する。
我々は、我々の本質的に解釈可能なシステムは、推論に焦点をあてた質問において、同等のブラックボックスシステムよりも4.64%改善できることを示した。
論文 参考訳(メタデータ) (2023-05-24T08:33:15Z) - Towards Unsupervised Visual Reasoning: Do Off-The-Shelf Features Know
How to Reason? [30.16956370267339]
視覚質問応答のタスクに対する視覚的表現を評価するためのプロトコルを提案する。
視覚的特徴抽出を推論から分離するために,特定の注意に基づく推論モジュールを設計する。
局所的な特徴を密に抽出した2種類の視覚表現とオブジェクト中心の視覚表現を、基底真理を用いた完全な画像表現の性能と比較する。
論文 参考訳(メタデータ) (2022-12-20T14:36:45Z) - REVEL Framework to measure Local Linear Explanations for black-box
models: Deep Learning Image Classification case of study [12.49538398746092]
本稿では,理論的コヒーレントな発展を伴う説明の質に関する諸側面を評価するためのREVELと呼ばれる手法を提案する。
実験は,REVELの記述的および解析的パワーを示すベンチマークとして,画像4つのデータセットを用いて実施されている。
論文 参考訳(メタデータ) (2022-11-11T12:15:36Z) - Understanding ME? Multimodal Evaluation for Fine-grained Visual
Commonsense [98.70218717851665]
モデルが、限られた評価データ資源のために、視覚的シーンと基礎となるコモンセンス知識を本当に理解しているかどうかは不明だ。
本稿では,視覚シーン,テキスト,関連知識に対するモデルの理解をテストするために,質問応答ペアを自動的に生成するマルチモーダル評価(ME)パイプラインを提案する。
次に、MEデータによるトレーニングが標準VCR評価におけるモデルの性能を高めることを示すために、さらに一歩踏み出します。
論文 参考訳(メタデータ) (2022-11-10T21:44:33Z) - CX-ToM: Counterfactual Explanations with Theory-of-Mind for Enhancing
Human Trust in Image Recognition Models [84.32751938563426]
我々は、深層畳み込みニューラルネットワーク(CNN)による決定を説明するための、新しい説明可能なAI(XAI)フレームワークを提案する。
単発応答として説明を生成するXAIの現在の手法とは対照的に,我々は反復的な通信プロセスとして説明を行う。
本フレームワークは,機械の心と人間の心の相違を媒介し,対話における説明文のシーケンスを生成する。
論文 参考訳(メタデータ) (2021-09-03T09:46:20Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。