論文の概要: RES: A Robust Framework for Guiding Visual Explanation
- arxiv url: http://arxiv.org/abs/2206.13413v1
- Date: Mon, 27 Jun 2022 16:06:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-28 15:35:46.287342
- Title: RES: A Robust Framework for Guiding Visual Explanation
- Title(参考訳): RES: ビジュアルな説明をガイドするロバストなフレームワーク
- Authors: Yuyang Gao, Tong Steven Sun, Guangji Bai, Siyi Gu, Sungsoo Ray Hong,
Liang Zhao
- Abstract要約: 本研究では,不正確な境界,不完全領域,不整合なアノテーションの分布を扱う新しい目的を開発することにより,視覚的説明を導くための枠組みを提案する。
2つの実世界の画像データセットに対する実験は、説明の理性およびバックボーンモデルの性能を向上させる上で、提案フレームワークの有効性を実証している。
- 参考スコア(独自算出の注目度): 8.835733039270364
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Despite the fast progress of explanation techniques in modern Deep Neural
Networks (DNNs) where the main focus is handling "how to generate the
explanations", advanced research questions that examine the quality of the
explanation itself (e.g., "whether the explanations are accurate") and improve
the explanation quality (e.g., "how to adjust the model to generate more
accurate explanations when explanations are inaccurate") are still relatively
under-explored. To guide the model toward better explanations, techniques in
explanation supervision - which add supervision signals on the model
explanation - have started to show promising effects on improving both the
generalizability as and intrinsic interpretability of Deep Neural Networks.
However, the research on supervising explanations, especially in vision-based
applications represented through saliency maps, is in its early stage due to
several inherent challenges: 1) inaccuracy of the human explanation annotation
boundary, 2) incompleteness of the human explanation annotation region, and 3)
inconsistency of the data distribution between human annotation and model
explanation maps. To address the challenges, we propose a generic RES framework
for guiding visual explanation by developing a novel objective that handles
inaccurate boundary, incomplete region, and inconsistent distribution of human
annotations, with a theoretical justification on model generalizability.
Extensive experiments on two real-world image datasets demonstrate the
effectiveness of the proposed framework on enhancing both the reasonability of
the explanation and the performance of the backbone DNNs model.
- Abstract(参考訳): 現代のディープ・ニューラル・ネットワーク(dnn)における説明手法の急速な進歩は「説明の生成方法」を扱っているにもかかわらず、説明自体の品質(例えば「説明が正確であるかどうか」)を検証し、説明品質(例えば「説明が不正確であるときにより正確な説明を生成するためにモデルを調整する方法」)を改善する高度な研究疑問は、比較的未熟である。
モデルをより良い説明へと導くため、モデル説明に監督信号を追加する説明監督技術は、ディープニューラルネットワークの一般化可能性と本質的解釈可能性の両方を改善することに有望な効果を見せ始めた。
しかし、特にサリエンシマップで表現される視覚ベースのアプリケーションにおける監視説明の研究は、いくつかの固有の課題のために初期段階にある。
1)人間の説明注釈境界の不正確性
2)人間の説明注釈領域の不完全性,及び
3)人間のアノテーションとモデル説明図間のデータ分布の不整合性。
そこで本研究では,不正確な境界,不完全領域,不整合分布を扱う新しい目的を,モデル一般化可能性に関する理論的正当化とともに開発し,視覚的説明を導くための汎用resフレームワークを提案する。
2つの実世界の画像データセットに対する大規模な実験は、提案フレームワークが説明の理性およびバックボーンDNNモデルの性能を向上させる上での有効性を示した。
関連論文リスト
- Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Factorized Explainer for Graph Neural Networks [7.382632811417645]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習する能力によって、注目を集めている。
GNN予測を理解するために、ポストホックなインスタンスレベルの説明法が提案されている。
理論的性能保証を伴う新しい因子化説明モデルを提案する。
論文 参考訳(メタデータ) (2023-12-09T15:29:45Z) - Generative Explanations for Graph Neural Network: Methods and
Evaluations [16.67839967139831]
グラフニューラルネットワーク(GNN)は、様々なグラフ関連タスクにおいて最先端のパフォーマンスを達成する。
GNNのブラックボックスの性質は、解釈可能性と信頼性を制限している。
GNNの意思決定ロジックを明らかにするために,多くの説明可能性手法が提案されている。
論文 参考訳(メタデータ) (2023-11-09T22:07:15Z) - D4Explainer: In-Distribution GNN Explanations via Discrete Denoising
Diffusion [12.548966346327349]
グラフニューラルネットワーク(GNN)は、モデル監査と信頼できるグラフ学習の確保において重要な役割を果たす。
D4Explainerは、偽物とモデルレベルの説明シナリオの両方に対して、分散GNN説明を提供する新しいアプローチである。
これは、カウンターファクトとモデルレベルの説明を組み合わせた最初の統合フレームワークである。
論文 参考訳(メタデータ) (2023-10-30T07:41:42Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Towards Explanation for Unsupervised Graph-Level Representation Learning [108.31036962735911]
既存の説明手法は,教師付き設定,例えばノード分類,グラフ分類に重点を置いているが,教師なしグラフレベルの表現学習に関する説明はまだ探索されていない。
本稿では,非教師付きグラフ表現における説明問題に対処するために,インフォメーション・ボトルネックの原則(IB)を推進し,新しい原理であるtextitUnsupervised Subgraph Information Bottleneck(USIB)を導出する。
また,グラフ表現とラベル空間上の説明部分グラフの関連性も理論的に解析し,表現の堅牢性が説明部分グラフの忠実性に寄与することを明らかにする。
論文 参考訳(メタデータ) (2022-05-20T02:50:15Z) - Explaining, Evaluating and Enhancing Neural Networks' Learned
Representations [2.1485350418225244]
より効率的で効率的な表現への障害ではなく、いかに説明可能性が助けになるかを示す。
我々は,2つの新しいスコアを定義して,潜伏埋め込みの難易度と難易度を評価する。
表現学習課題の訓練において,提案したスコアを制約として採用することで,モデルの下流性能が向上することを示す。
論文 参考訳(メタデータ) (2022-02-18T19:00:01Z) - Task-Agnostic Graph Explanations [50.17442349253348]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをエンコードする強力なツールとして登場した。
既存の学習ベースのGNN説明手法は、訓練においてタスク固有である。
本稿では、下流タスクの知識のない自己監督下で訓練されたタスク非依存のGNN Explainer(TAGE)を提案する。
論文 参考訳(メタデータ) (2022-02-16T21:11:47Z) - Towards the Explanation of Graph Neural Networks in Digital Pathology
with Information Flows [67.23405590815602]
グラフニューラルネットワーク(GNN)は、デジタル病理学において広く採用されている。
既存の説明者は、予測に関連する説明的部分グラフを発見する。
説明文は、予測に必要であるだけでなく、最も予測可能な領域を明らかにするのに十分である。
本稿では, IFEXPLAINERを提案する。
論文 参考訳(メタデータ) (2021-12-18T10:19:01Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。