論文の概要: P2ExNet: Patch-based Prototype Explanation Network
- arxiv url: http://arxiv.org/abs/2005.02006v2
- Date: Thu, 19 Nov 2020 13:02:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 13:23:13.418312
- Title: P2ExNet: Patch-based Prototype Explanation Network
- Title(参考訳): P2ExNet: パッチベースのプロトタイプ説明ネットワーク
- Authors: Dominique Mercier, Andreas Dengel, Sheraz Ahmed
- Abstract要約: 人間の認知に触発された説明可能な推論過程を本質的に利用するために設計された,解釈可能な新しいネットワークスキームを提案する。
P2ExNetは、本質的には理解可能でトレース可能な決定を提供するが、それと比較すると、同等のパフォーマンスに達する。
- 参考スコア(独自算出の注目度): 5.557646286040063
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning methods have shown great success in several domains as they
process a large amount of data efficiently, capable of solving complex
classification, forecast, segmentation, and other tasks. However, they come
with the inherent drawback of inexplicability limiting their applicability and
trustworthiness. Although there exists work addressing this perspective, most
of the existing approaches are limited to the image modality due to the
intuitive and prominent concepts. Conversely, the concepts in the time-series
domain are more complex and non-comprehensive but these and an explanation for
the network decision are pivotal in critical domains like medical, financial,
or industry. Addressing the need for an explainable approach, we propose a
novel interpretable network scheme, designed to inherently use an explainable
reasoning process inspired by the human cognition without the need of
additional post-hoc explainability methods. Therefore, class-specific patches
are used as they cover local concepts relevant to the classification to reveal
similarities with samples of the same class. In addition, we introduce a novel
loss concerning interpretability and accuracy that constraints P2ExNet to
provide viable explanations of the data including relevant patches, their
position, class similarities, and comparison methods without compromising
accuracy. Analysis of the results on eight publicly available time-series
datasets reveals that P2ExNet reaches comparable performance when compared to
its counterparts while inherently providing understandable and traceable
decisions.
- Abstract(参考訳): ディープラーニングの手法は、複雑な分類、予測、セグメンテーション、その他のタスクを効率的に処理することで、いくつかの領域で大きな成功を収めています。
しかし、それらには、適用性と信頼性を制限した説明不能の固有の欠点がある。
この視点への取り組みは存在するが、既存のアプローチのほとんどは直感的で顕著な概念のためにイメージモダリティに限定されている。
逆に、時系列ドメインの概念はより複雑で理解できないが、これらとネットワーク決定の説明は、医療、金融、産業といった重要な領域において重要である。
説明可能なアプローチの必要性に対処し,人間認知に触発された説明可能な推論処理を本質的に使用するように設計された,新たな解釈可能なネットワークスキームを提案する。
したがって、クラス固有のパッチは、分類に関連するローカル概念をカバーし、同じクラスのサンプルと類似点を明らかにするために使用される。
さらに,P2ExNetを制約して,関連するパッチ,その位置,クラス類似性,比較方法などのデータについて,精度を損なうことなく説明できるような,解釈可能性と精度に関する新たな損失を導入する。
8つの公開時系列データセットの結果の分析によると、P2ExNetは本質的に理解可能でトレース可能な決定を提供しながら、それと比較すると同等のパフォーマンスに達する。
関連論文リスト
- Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - InterpretCC: Intrinsic User-Centric Interpretability through Global Mixture of Experts [31.738009841932374]
ニューラルネットワークの解釈性は、3つの重要な要件間のトレードオフである。
本稿では,人間中心の解釈可能性を保証する,解釈可能なニューラルネットワークのファミリであるInterpretCCを提案する。
論文 参考訳(メタデータ) (2024-02-05T11:55:50Z) - DARE: Towards Robust Text Explanations in Biomedical and Healthcare
Applications [54.93807822347193]
帰属ロバスト性評価手法を与えられたドメインに適応させ、ドメイン固有の妥当性を考慮する方法を示す。
次に,DAREが特徴とする脆さを軽減するために,対人訓練とFAR訓練の2つの方法を提案する。
最後に,確立した3つのバイオメディカル・ベンチマークを用いて実験を行い,本手法を実証的に検証した。
論文 参考訳(メタデータ) (2023-07-05T08:11:40Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Evaluation and Improvement of Interpretability for Self-Explainable
Part-Prototype Networks [43.821442711496154]
パートプロトタイプネットワークは、固有の解釈可能性と非解釈可能ネットワークと同等の精度で、幅広い研究の関心を集めている。
本研究は,パートプロトタイプネットワークの解釈可能性について定量的かつ客観的に評価する試みである。
本研究では, 浅層深度特徴アライメントモジュールとスコアアグリゲーションモジュールを備えた高精細な部分プロトタイプネットワークを提案し, プロトタイプの解釈性を向上させる。
論文 参考訳(メタデータ) (2022-12-12T14:59:11Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - Time to Focus: A Comprehensive Benchmark Using Time Series Attribution
Methods [4.9449660544238085]
本論文は時系列解析といくつかの最先端属性手法のベンチマークに焦点をあてる。
本実験では, 勾配および摂動に基づく帰属法について検討した。
その結果,最も適した帰属法を選択することは,所望のユースケースと強く相関していることが示唆された。
論文 参考訳(メタデータ) (2022-02-08T10:06:13Z) - Coarse to Fine: Domain Adaptive Crowd Counting via Adversarial Scoring
Network [58.05473757538834]
本稿では,ドメイン間のギャップを粗い粒度から細かな粒度に埋める新しい逆スコアリングネットワーク (ASNet) を提案する。
3組のマイグレーション実験により,提案手法が最先端のカウント性能を実現することを示す。
論文 参考訳(メタデータ) (2021-07-27T14:47:24Z) - Temporal graph-based approach for behavioural entity classification [0.0]
本研究では,サイバーセキュリティ領域におけるグラフ構造の可能性を利用するための2段階的アプローチを提案する。
主なアイデアは、ネットワーク分類問題をグラフベースの振る舞い問題に変換することです。
正常実体と攻撃実体の両方の進化を表すことができるこれらのグラフ構造を抽出します。
3つのクラスタリング手法が通常のエンティティに適用され、類似の動作を集約し、不均衡問題を緩和し、ノイズデータを削減する。
論文 参考訳(メタデータ) (2021-05-11T06:13:58Z) - Toward Scalable and Unified Example-based Explanation and Outlier
Detection [128.23117182137418]
我々は,試行錯誤の予測に例ベースの説明を与えることのできる,プロトタイプベースの学生ネットワークのより広範な採用を論じる。
類似カーネル以外のプロトタイプベースのネットワークは,分類精度を損なうことなく,有意義な説明と有望な外乱検出結果が得られることを示す。
論文 参考訳(メタデータ) (2020-11-11T05:58:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。