論文の概要: FICNN: A Framework for the Interpretation of Deep Convolutional Neural
Networks
- arxiv url: http://arxiv.org/abs/2305.10121v1
- Date: Wed, 17 May 2023 10:59:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-18 16:26:59.322655
- Title: FICNN: A Framework for the Interpretation of Deep Convolutional Neural
Networks
- Title(参考訳): FICNN: 深層畳み込みニューラルネットワークの解釈のためのフレームワーク
- Authors: Hamed Behzadi-Khormouji and Jos\'e Oramas
- Abstract要約: 本研究の目的は,視覚データから学習したCNNモデルを対象とした解釈手法の研究のためのフレームワークを提案することである。
提案する要因のごく一部と組み合わせが実際に研究されていることを,我々のフレームワークが強調する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the continue development of Convolutional Neural Networks (CNNs), there
is a growing concern regarding representations that they encode internally.
Analyzing these internal representations is referred to as model
interpretation. While the task of model explanation, justifying the predictions
of such models, has been studied extensively; the task of model interpretation
has received less attention. The aim of this paper is to propose a framework
for the study of interpretation methods designed for CNN models trained from
visual data. More specifically, we first specify the difference between the
interpretation and explanation tasks which are often considered the same in the
literature. Then, we define a set of six specific factors that can be used to
characterize interpretation methods. Third, based on the previous factors, we
propose a framework for the positioning of interpretation methods. Our
framework highlights that just a very small amount of the suggested factors,
and combinations thereof, have been actually studied. Consequently, leaving
significant areas unexplored. Following the proposed framework, we discuss
existing interpretation methods and give some attention to the evaluation
protocols followed to validate them. Finally, the paper highlights capabilities
of the methods in producing feedback for enabling interpretation and proposes
possible research problems arising from the framework.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)の継続的な開発に伴い、それらが内部的にエンコードする表現に関する懸念が高まっている。
これらの内部表現を分析することをモデル解釈と呼ぶ。
モデル解釈の課題は、そのようなモデルの予測を正当化するものであるが、モデル解釈の課題は、あまり注目されていない。
本研究の目的は,視覚データから学習したCNNモデルを対象とした解釈手法の枠組みを提案することである。
より具体的には、文献においてよく同一視される解釈課題と説明課題の相違を最初に特定する。
次に,解釈法の特徴付けに使用できる6つの特定の因子の集合を定義する。
第3に,先行する因子に基づき,解釈手法の位置決めのための枠組みを提案する。
我々のフレームワークは、提案する要素とそれらの組み合わせのごく一部しか研究されていないことを強調する。
その結果、重要な地域は未探検のままとなった。
提案する枠組みに従えば,既存の解釈手法について議論し,評価プロトコルに注意を払って検証する。
最後に,解釈を可能にするためのフィードバック作成手法の能力を強調し,フレームワークから生じる研究上の課題を提案する。
関連論文リスト
- Deep Model Interpretation with Limited Data : A Coreset-based Approach [0.810304644344495]
本稿では,コアセット選択手法を用いて,大規模データセットの代表的なサブセットを抽出する,コアセットに基づく解釈フレームワークを提案する。
本稿では,モデル解釈手法のロバスト性を評価するための類似性に基づく評価プロトコルを提案する。
論文 参考訳(メタデータ) (2024-10-01T09:07:24Z) - Counterfactuals of Counterfactuals: a back-translation-inspired approach
to analyse counterfactual editors [3.4253416336476246]
我々は、反事実的、対照的な説明の分析に焦点をあてる。
本稿では,新しい逆翻訳に基づく評価手法を提案する。
本研究では, 予測モデルと説明モデルの両方の振る舞いについて, 反事実を反復的に説明者に与えることで, 価値ある洞察を得ることができることを示す。
論文 参考訳(メタデータ) (2023-05-26T16:04:28Z) - On the Faithfulness Measurements for Model Interpretations [100.2730234575114]
ポストホックな解釈は、自然言語処理(NLP)モデルがどのように予測を行うかを明らかにすることを目的とする。
これらの問題に取り組むために,我々は,削除基準,解釈の感度,解釈の安定性という3つの基準から始める。
これらの忠実性概念のデシデラタムに動機づけられ、敵対的領域からのテクニックを採用する新しい解釈方法のクラスを導入する。
論文 参考訳(メタデータ) (2021-04-18T09:19:44Z) - Local Interpretations for Explainable Natural Language Processing: A Survey [5.717407321642629]
本研究では,自然言語処理(NLP)タスクにおけるディープニューラルネットワークの解釈可能性を改善するための様々な手法について検討する。
本研究のはじめに,解釈可能性という用語の定義とその諸側面について,包括的に議論する。
論文 参考訳(メタデータ) (2021-03-20T02:28:33Z) - Interpretable Deep Learning: Interpretations, Interpretability,
Trustworthiness, and Beyond [49.93153180169685]
一般に混同される2つの基本的な概念(解釈と解釈可能性)を紹介・明らかにする。
我々は,新しい分類法を提案することにより,異なる視点から,最近のいくつかの解釈アルゴリズムの設計を詳細に述べる。
信頼される」解釈アルゴリズムを用いてモデルの解釈可能性を評価する上での既存の作業をまとめる。
論文 参考訳(メタデータ) (2021-03-19T08:40:30Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Towards Interpretable Reasoning over Paragraph Effects in Situation [126.65672196760345]
我々は,原因と効果を理解するためのモデルを必要とする状況において,段落効果を推論する作業に焦点をあてる。
本稿では,ニューラルネットワークモジュールを用いた推論プロセスの各ステップを明示的にモデル化する逐次的手法を提案する。
特に、5つの推論モジュールはエンドツーエンドで設計され、学習され、より解釈可能なモデルにつながる。
論文 参考訳(メタデータ) (2020-10-03T04:03:52Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z) - Obtaining Faithful Interpretations from Compositional Neural Networks [72.41100663462191]
NLVR2およびDROPデータセット上でNMNの中間出力を評価する。
中間出力は期待出力と異なり,ネットワーク構造がモデル動作の忠実な説明を提供していないことを示す。
論文 参考訳(メタデータ) (2020-05-02T06:50:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。