論文の概要: This looks more like that: Enhancing Self-Explaining Models by
Prototypical Relevance Propagation
- arxiv url: http://arxiv.org/abs/2108.12204v1
- Date: Fri, 27 Aug 2021 09:55:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-30 14:10:36.903127
- Title: This looks more like that: Enhancing Self-Explaining Models by
Prototypical Relevance Propagation
- Title(参考訳): 原型的関連性伝播による自己説明モデルの拡張
- Authors: Srishti Gautam, Marina M.-C. H\"ohne, Stine Hansen, Robert Jenssen and
Michael Kampffmeyer
- Abstract要約: 本稿では,自己説明型ネットワークであるProtoPNetのアーティファクトのスペクトルの存在下でのケーススタディを示す。
より正確なモデル認識説明を生成するための新しい手法を提案する。
クリーンなデータセットを得るために,アーティファクト画像を分離するためのマルチビュークラスタリング戦略を提案する。
- 参考スコア(独自算出の注目度): 17.485732906337507
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current machine learning models have shown high efficiency in solving a wide
variety of real-world problems. However, their black box character poses a
major challenge for the understanding and traceability of the underlying
decision-making strategies. As a remedy, many post-hoc explanation and
self-explanatory methods have been developed to interpret the models' behavior.
These methods, in addition, enable the identification of artifacts that can be
learned by the model as class-relevant features. In this work, we provide a
detailed case study of the self-explaining network, ProtoPNet, in the presence
of a spectrum of artifacts. Accordingly, we identify the main drawbacks of
ProtoPNet, especially, its coarse and spatially imprecise explanations. We
address these limitations by introducing Prototypical Relevance Propagation
(PRP), a novel method for generating more precise model-aware explanations.
Furthermore, in order to obtain a clean dataset, we propose to use multi-view
clustering strategies for segregating the artifact images using the PRP
explanations, thereby suppressing the potential artifact learning in the
models.
- Abstract(参考訳): 現在の機械学習モデルは、様々な現実世界の問題を解決する上で高い効率性を示している。
しかし、ブラックボックスの性格は、根底にある意思決定戦略の理解とトレーサビリティに大きな課題をもたらす。
治療として、モデルの振る舞いを解釈する多くのポストホックな説明と自己説明法が開発されている。
これらの手法は、モデルによってクラス関連の特徴として学習できるアーティファクトの識別を可能にする。
本研究では,自己説明型ネットワークであるProtoPNetのアーティファクトのスペクトルの存在下での詳細なケーススタディを提供する。
したがって,protopnet の主な欠点,特にその粗さと空間的不正確な説明を特定する。
より正確なモデル認識記述を生成する新しい手法である Prototypeal Relevance Propagation (PRP) を導入することで,これらの制約に対処する。
さらに, クリーンなデータセットを得るために, PRP説明を用いたアーティファクト画像の分離にマルチビュークラスタリング戦略を用いることにより, モデルにおける潜在的なアーティファクト学習を抑制することを提案する。
関連論文リスト
- Automatic Discovery of Visual Circuits [66.99553804855931]
本稿では,視覚モデルにおける視覚的概念の認識の基盤となる計算グラフのサブグラフを抽出するスケーラブルな手法について検討する。
提案手法は, モデル出力に因果的に影響を及ぼす回路を抽出し, これらの回路を編集することで, 敵攻撃から大きな事前学習モデルを守ることができることがわかった。
論文 参考訳(メタデータ) (2024-04-22T17:00:57Z) - CNN-based explanation ensembling for dataset, representation and explanations evaluation [1.1060425537315088]
畳み込みモデルを用いた深層分類モデルによる説明文の要約の可能性について検討する。
実験と分析を通じて、モデル行動のより一貫性と信頼性のあるパターンを明らかにするために、説明を組み合わせることの意味を明らかにすることを目的とする。
論文 参考訳(メタデータ) (2024-04-16T08:39:29Z) - Exploring the Trade-off Between Model Performance and Explanation Plausibility of Text Classifiers Using Human Rationales [3.242050660144211]
ホック後説明可能性法は、ますます複雑なNLPモデルを理解するための重要なツールである。
本稿では,人間の判断を説明するテキストアノテーションをテキスト分類モデルに組み込む手法を提案する。
論文 参考訳(メタデータ) (2024-04-03T22:39:33Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - A Detailed Study of Interpretability of Deep Neural Network based Top
Taggers [3.8541104292281805]
説明可能なAI(XAI)の最近の進歩により、研究者はディープニューラルネットワーク(DNN)の内部動作を探索できる。
大型ハドロン衝突型加速器(LHC)における高エネルギー陽子-陽子衝突におけるトップクォーク崩壊からのジェットの解釈可能性について検討する。
本研究は,既存のXAI手法の大きな落とし穴を明らかにし,これらのモデルの一貫性と意味のある解釈をいかに克服できるかを説明する。
論文 参考訳(メタデータ) (2022-10-09T23:02:42Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - MeLIME: Meaningful Local Explanation for Machine Learning Models [2.819725769698229]
我々のアプローチであるMeLIMEは、異なるMLモデル上での他の手法と比較して、より意味のある説明を生成する。
MeLIMEはLIME法を一般化し、より柔軟な摂動サンプリングと異なる局所解釈可能なモデルの使用を可能にした。
論文 参考訳(メタデータ) (2020-09-12T16:06:58Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。