論文の概要: The Weighting Game: Evaluating Quality of Explainability Methods
- arxiv url: http://arxiv.org/abs/2208.06175v1
- Date: Fri, 12 Aug 2022 08:50:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-15 13:30:53.855274
- Title: The Weighting Game: Evaluating Quality of Explainability Methods
- Title(参考訳): 重み付けゲーム:説明可能性手法の品質評価
- Authors: Lassi Raatikainen and Esa Rahtu
- Abstract要約: 本稿では,クラスガイドによる説明がどの程度正しいクラスセグメンテーションマスクに含まれるかを測定するWeighting Gameを紹介した。
次に、ズーム/パンニング変換を用いて、類似した内容を持つ塩分マップ間の差異を測定することで、説明安定性の指標を提案する。
CAM法によって提供される説明の質を評価するために,これらの新しい指標を用いて定量的な実験が作成されている。
- 参考スコア(独自算出の注目度): 14.632777952261716
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The objective of this paper is to assess the quality of explanation heatmaps
for image classification tasks. To assess the quality of explainability
methods, we approach the task through the lens of accuracy and stability.
In this work, we make the following contributions. Firstly, we introduce the
Weighting Game, which measures how much of a class-guided explanation is
contained within the correct class' segmentation mask. Secondly, we introduce a
metric for explanation stability, using zooming/panning transformations to
measure differences between saliency maps with similar contents.
Quantitative experiments are produced, using these new metrics, to evaluate
the quality of explanations provided by commonly used CAM methods. The quality
of explanations is also contrasted between different model architectures, with
findings highlighting the need to consider model architecture when choosing an
explainability method.
- Abstract(参考訳): 本研究の目的は,画像分類作業における説明ヒートマップの品質を評価することである。
説明可能性法の品質を評価するために,精度と安定性のレンズを用いてタスクにアプローチする。
本研究では,以下の貢献を行う。
まず,クラス誘導型説明がどの程度正しいクラスセグメンテーションマスクに含まれるかを計測するWeighting Gameを導入する。
次に,類似した内容を持つ給与マップ間の差を測定するために,ズーム/パンニング変換を用いて,説明安定性のための指標を提案する。
CAM法によって提供される説明の質を評価するために,これらの新しい指標を用いて定量的実験が作成されている。
説明の質は異なるモデルアーキテクチャの間でも対照的であり、説明可能性の方法を選択する際にモデルアーキテクチャを考える必要性が指摘されている。
関連論文リスト
- Multi-Modal Prompt Learning on Blind Image Quality Assessment [65.0676908930946]
画像品質評価(IQA)モデルは意味情報から大きな恩恵を受け、異なる種類のオブジェクトを明瞭に扱うことができる。
十分な注釈付きデータが不足している従来の手法では、セマンティックな認識を得るために、CLIPイメージテキスト事前学習モデルをバックボーンとして使用していた。
近年のアプローチでは、このミスマッチに即時技術を使って対処する試みがあるが、これらの解決策には欠点がある。
本稿では、IQAのための革新的なマルチモーダルプロンプトベースの手法を提案する。
論文 参考訳(メタデータ) (2024-04-23T11:45:32Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - On the stability, correctness and plausibility of visual explanation
methods based on feature importance [0.0]
画像分類器の特徴的重要性に基づいて, 説明の安定性, 正確性, 妥当性の相違について検討した。
これらの特性を評価するための既存の指標は必ずしも一致せず、説明のための優れた評価基準を構成するものの問題を提起する。
論文 参考訳(メタデータ) (2023-10-25T08:59:21Z) - COSE: A Consistency-Sensitivity Metric for Saliency on Image
Classification [21.3855970055692]
本稿では,画像分類タスクにおいて,視覚の先行値を用いてサリエンシ手法の性能を評価する指標について述べる。
しかし,ほとんどの手法では,畳み込みモデルよりもトランスフォーマーモデルの方がよく説明できる。
論文 参考訳(メタデータ) (2023-09-20T01:06:44Z) - An Explainable Model-Agnostic Algorithm for CNN-based Biometrics
Verification [55.28171619580959]
本稿では,生体認証環境下でのLIME(Local Interpretable Model-Agnostic Explanations)AI手法の適用について述べる。
論文 参考訳(メタデータ) (2023-07-25T11:51:14Z) - Clarity: an improved gradient method for producing quality visual
counterfactual explanations [7.279730418361996]
視覚的対物的説明は、分類器の予測を変えるような画像への修正を特定する。
本稿では、生成モデル(VAE)と、潜在空間で直接訓練された分類器アンサンブルに基づく手法を提案する。
これらの改善により、新しい分類モデルであるClarityが、すべての画像に対して現実的な対実的な説明を生成する。
論文 参考訳(メタデータ) (2022-11-22T10:53:17Z) - REVEL Framework to measure Local Linear Explanations for black-box
models: Deep Learning Image Classification case of study [12.49538398746092]
本稿では,理論的コヒーレントな発展を伴う説明の質に関する諸側面を評価するためのREVELと呼ばれる手法を提案する。
実験は,REVELの記述的および解析的パワーを示すベンチマークとして,画像4つのデータセットを用いて実施されている。
論文 参考訳(メタデータ) (2022-11-11T12:15:36Z) - Revisiting The Evaluation of Class Activation Mapping for
Explainability: A Novel Metric and Experimental Analysis [54.94682858474711]
クラスアクティベーションマッピング(cam)アプローチは、アクティベーションマップの平均を重み付けすることで、効果的な可視化を提供する。
説明マップを定量化するための新しいメトリクスセットを提案し、より効果的な方法を示し、アプローチ間の比較を簡素化します。
論文 参考訳(メタデータ) (2021-04-20T21:34:24Z) - Explainers in the Wild: Making Surrogate Explainers Robust to
Distortions through Perception [77.34726150561087]
説明における歪みの影響を知覚距離を埋め込むことで評価する手法を提案する。
Imagenet-Cデータセットの画像の説明を生成し、サロゲート説明書の知覚距離を使用して歪んだ画像と参照画像のより一貫性のある説明を作成する方法を示しています。
論文 参考訳(メタデータ) (2021-02-22T12:38:53Z) - Explainable Image Classification with Evidence Counterfactual [0.0]
画像分類のためのモデルに依存しないインスタンスレベルの説明法としてSEDCを導入する。
ある画像に対して、SEDCは、削除された場合、分類を変更する小さなセグメントの集合を検索する。
我々は,SEDC(-T) と LRP, LIME, SHAP などの特徴重要度評価手法を比較し, 上記の重要度ランキング問題にどう対処するかを述べる。
論文 参考訳(メタデータ) (2020-04-16T08:02:48Z) - There and Back Again: Revisiting Backpropagation Saliency Methods [87.40330595283969]
正当性法は,各入力サンプルの重要度マップを作成することによって,モデルの予測を説明する。
このような手法の一般的なクラスは、信号のバックプロパゲートと結果の勾配の分析に基づいている。
本稿では,そのような手法を統一可能な単一のフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-06T17:58:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。