論文の概要: TbExplain: A Text-based Explanation Method for Scene Classification
Models with the Statistical Prediction Correction
- arxiv url: http://arxiv.org/abs/2307.10003v1
- Date: Wed, 19 Jul 2023 14:23:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-20 13:48:29.069343
- Title: TbExplain: A Text-based Explanation Method for Scene Classification
Models with the Statistical Prediction Correction
- Title(参考訳): TbExplain: 統計的予測補正を用いたシーン分類モデルのテキストベース説明法
- Authors: Amirhossein Aminimehr, Pouya Khani, Amirali Molaei, Amirmohammad
Kazemeini, Erik Cambria
- Abstract要約: 我々は,XAI技術と事前学習対象検出器を用いたTbExplainというフレームワークを提案し,シーン分類モデルのテキストベース説明を行う。
TbExplainは、初期予測が信頼できない場合に、入力画像内のオブジェクトの統計に基づいて予測を補正し、それらをテキストで説明するための新しい手法を取り入れている。
- 参考スコア(独自算出の注目度): 10.145290968117402
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The field of Explainable Artificial Intelligence (XAI) aims to improve the
interpretability of black-box machine learning models. Building a heatmap based
on the importance value of input features is a popular method for explaining
the underlying functions of such models in producing their predictions.
Heatmaps are almost understandable to humans, yet they are not without flaws.
Non-expert users, for example, may not fully understand the logic of heatmaps
(the logic in which relevant pixels to the model's prediction are highlighted
with different intensities or colors). Additionally, objects and regions of the
input image that are relevant to the model prediction are frequently not
entirely differentiated by heatmaps. In this paper, we propose a framework
called TbExplain that employs XAI techniques and a pre-trained object detector
to present text-based explanations of scene classification models. Moreover,
TbExplain incorporates a novel method to correct predictions and textually
explain them based on the statistics of objects in the input image when the
initial prediction is unreliable. To assess the trustworthiness and validity of
the text-based explanations, we conducted a qualitative experiment, and the
findings indicated that these explanations are sufficiently reliable.
Furthermore, our quantitative and qualitative experiments on TbExplain with
scene classification datasets reveal an improvement in classification accuracy
over ResNet variants.
- Abstract(参考訳): 説明可能な人工知能(XAI)の分野は、ブラックボックス機械学習モデルの解釈可能性を改善することを目的としている。
入力特徴量の重要性に基づいたヒートマップの構築は,これらのモデルの基本機能を説明するための一般的な手法である。
ヒートマップはほとんど人間には理解できるが、欠陥がないわけではない。
例えば、専門家でないユーザーはヒートマップ(モデルの予測に関連するピクセルが異なる強度や色でハイライトされるロジック)の論理を十分に理解していないかもしれない。
さらに、モデル予測に関連する入力画像のオブジェクトと領域は、ヒートマップによって完全に区別されないことが多い。
本稿では,XAI技術と事前学習対象検出器を用いたTbExplainというフレームワークを提案し,シーン分類モデルのテキストによる説明を行う。
さらに、tbexplainでは、初期予測が信頼できない場合、入力画像内のオブジェクトの統計に基づいて予測を訂正し、テキスト的に説明するための新しい手法が組み込まれている。
テキストに基づく説明の信頼性と妥当性を評価するため,質的実験を行い,これらの説明が十分に信頼できることを示す。
さらに,シーン分類データセットを用いたTbExplainの定量的,定性的な実験により,ResNet変種に対する分類精度の向上が示された。
関連論文リスト
- Interpretable Machine Learning for Weather and Climate Prediction: A Survey [24.028385794099435]
気象予測に適用された現在の解釈可能な機械学習手法について概説する。
ツリーアンサンブルや説明可能なニューラルネットワークといったアーキテクチャを使って、スクラッチから本質的に解釈可能なモデルを設計する。
物理原理に沿ったより深い機械的解釈を達成するための研究課題について論じる。
論文 参考訳(メタデータ) (2024-03-24T14:23:35Z) - Faithful and Robust Local Interpretability for Textual Predictions [6.492879435794228]
FRED(Fithful and Robust Explainer for textual Documents)を提案する。
FREDは、モデル予測を説明するための3つの重要な洞察を提供する:(1)除去が予測に最も強い影響を及ぼす文書内の単語の最小セットを識別し、(2)重要スコアを各トークンに割り当て、モデルの出力にその影響を反映し、(3)非現実的な説明を提供する。
論文 参考訳(メタデータ) (2023-10-30T20:27:36Z) - Rationalizing Predictions by Adversarial Information Calibration [65.19407304154177]
我々は2つのモデルを共同で訓練する: 1つは、正確だがブラックボックスな方法でタスクを解く典型的なニューラルモデルであり、もう1つは、予測の理論的根拠を付加するセレクタ・予測モデルである。
我々は,2つのモデルから抽出した情報を,それらの違いが欠落した特徴や過度に選択された特徴の指標であるように校正するために,敵対的手法を用いる。
論文 参考訳(メタデータ) (2023-01-15T03:13:09Z) - Explanation Method for Anomaly Detection on Mixed Numerical and
Categorical Spaces [0.9543943371833464]
EADMNC (混合数値およびカテゴリー空間における説明可能な異常検出)
これは、元のモデルで得られた予測に説明可能性を追加する。
本稿では,大規模な実世界のデータ,特にネットワーク侵入検出領域における実験結果について報告する。
論文 参考訳(メタデータ) (2022-09-09T08:20:13Z) - Pathologies of Pre-trained Language Models in Few-shot Fine-tuning [50.3686606679048]
実例が少ない事前学習言語モデルはラベル間に強い予測バイアスを示すことを示す。
わずかな微調整で予測バイアスを軽減できるが,本分析では,非タスク関連の特徴を捉えることで,モデルの性能向上を図っている。
これらの観察は、より少ない例でモデルのパフォーマンスを追求することは、病理学的予測行動を引き起こす可能性があることを警告する。
論文 参考訳(メタデータ) (2022-04-17T15:55:18Z) - Hessian-based toolbox for reliable and interpretable machine learning in
physics [58.720142291102135]
本稿では,モデルアーキテクチャの解釈可能性と信頼性,外挿を行うためのツールボックスを提案する。
与えられたテストポイントでの予測に対する入力データの影響、モデル予測の不確実性の推定、およびモデル予測の不可知スコアを提供する。
我々の研究は、物理学やより一般的には科学に適用されたMLにおける解釈可能性と信頼性の方法の体系的利用への道を開く。
論文 参考訳(メタデータ) (2021-08-04T16:32:59Z) - Robust Semantic Interpretability: Revisiting Concept Activation Vectors [0.0]
画像分類のための解釈可能性手法は、モデルが系統的に偏りがあるか、あるいは人間と同じ手掛かりに従うかを明らかにすることを試みる。
提案するRobust Concept Activation Vectors (RCAV) は,個々のモデル予測やモデル全体の振る舞いに対する意味概念の影響を定量化する。
論文 参考訳(メタデータ) (2021-04-06T20:14:59Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Do Input Gradients Highlight Discriminative Features? [42.47346844105727]
解釈可能性メソッドはインスタンス固有のモデル予測を説明する。
ベンチマーク画像分類タスクのためのこの仮説を研究するための評価フレームワークを紹介します。
CIFAR-10とImagenet-10データセットの2つの驚くべき観測を行った。
論文 参考訳(メタデータ) (2021-02-25T11:04:38Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。