論文の概要: Deriving Explanation of Deep Visual Saliency Models
- arxiv url: http://arxiv.org/abs/2109.03575v1
- Date: Wed, 8 Sep 2021 12:22:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-09 13:57:10.944525
- Title: Deriving Explanation of Deep Visual Saliency Models
- Title(参考訳): 深部視覚塩分率モデルの記述法
- Authors: Sai Phani Kumar Malladi, Jayanta Mukhopadhyay, Chaker Larabi, Santanu
Chaudhury
- Abstract要約: 我々は,その深部ニューラルネットワークに基づくサリエンシモデルから説明可能なサリエンシモデルを導出する手法を開発した。
我々は2つの最先端のディープ・サリエンシ・モデル、すなわちUNISALとMSI-Netを解釈として検討する。
我々はまた、サリエンシ予測のためのクロスコンカレントマルチスケール残差ブロックベースネットワーク(CMRNet)という独自のディープサリエンシモデルを構築した。
- 参考スコア(独自算出の注目度): 6.808418311272862
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep neural networks have shown their profound impact on achieving human
level performance in visual saliency prediction. However, it is still unclear
how they learn the task and what it means in terms of understanding human
visual system. In this work, we develop a technique to derive explainable
saliency models from their corresponding deep neural architecture based
saliency models by applying human perception theories and the conventional
concepts of saliency. This technique helps us understand the learning pattern
of the deep network at its intermediate layers through their activation maps.
Initially, we consider two state-of-the-art deep saliency models, namely UNISAL
and MSI-Net for our interpretation. We use a set of biologically plausible
log-gabor filters for identifying and reconstructing the activation maps of
them using our explainable saliency model. The final saliency map is generated
using these reconstructed activation maps. We also build our own deep saliency
model named cross-concatenated multi-scale residual block based network
(CMRNet) for saliency prediction. Then, we evaluate and compare the performance
of the explainable models derived from UNISAL, MSI-Net and CMRNet on three
benchmark datasets with other state-of-the-art methods. Hence, we propose that
this approach of explainability can be applied to any deep visual saliency
model for interpretation which makes it a generic one.
- Abstract(参考訳): ディープニューラルネットワークは、視覚的サリエンシ予測において、人間のレベルのパフォーマンスを達成する上で、その大きな影響を示している。
しかし、人間の視覚システムを理解するという点で、どのようにしてタスクを学習するかは、まだ不明である。
本研究では,人間の知覚理論と従来のサリエンシの概念を適用し,対応する深層ニューラルネットワークに基づくサリエンシモデルから説明可能なサリエンシモデルを導出する手法を開発した。
この手法は,活性化マップを用いて,中間層における深層ネットワークの学習パターンを理解するのに役立つ。
当初、我々は2つの最先端のディープラーニングモデル、すなわちUNISALとMSI-Netを解釈として検討した。
我々は,生体に再現可能なlog-gaborフィルタのセットを用いて,それらの活性化マップの同定と再構成を行う。
これらの再構築された活性化マップを用いて、最後のサルリエンシーマップが生成される。
我々はまた、サリエンシ予測のためのクロスコンカレントマルチスケール残差ブロックベースネットワーク(CMRNet)という独自のディープサリエンシモデルを構築した。
そこで本研究では,UNISAL,MSI-Net,CMRNetから派生した解析可能なモデルの性能を,他の最先端手法を用いた3つのベンチマークデータセット上で評価し,比較した。
そこで本研究では,この説明可能性のアプローチを,汎用的な解釈のための深いビジュアル・サリエンシ・モデルに適用可能であることを提案する。
関連論文リスト
- Sparks of Explainability: Recent Advancements in Explaining Large Vision Models [6.1642231492615345]
この論文は、ディープニューラルネットワークによって利用される特徴を分析し、モデル化することにより、コンピュータビジョンにおける説明可能性を改善するための高度なアプローチを探求する。
アルゴリズム的安定性に基づく計量とソボル指標を用いたアプローチを導入することにより、帰属法、特にサリエンシマップを評価する。
モデルと人間の推論を一致させ、概念的説明可能性アプローチを採用するという2つの仮説が検討されている。
論文 参考訳(メタデータ) (2025-02-03T04:49:32Z) - Generating visual explanations from deep networks using implicit neural representations [0.6056822594090163]
本研究では、暗黙的神経表現(INR)が視覚的説明を生成するための良い枠組みであることを示す。
同じ画像に対して複数の重複しない属性マスクを生成するために、反復INRベースの手法を提案する。
論文 参考訳(メタデータ) (2025-01-20T23:17:57Z) - Language Model as Visual Explainer [72.88137795439407]
本稿では,木構造言語学的説明を用いた視覚モデル解釈のための体系的アプローチを提案する。
提案手法は,属性を付与した木の形で人間に理解可能な説明を提供する。
提案手法の有効性を確認するため,新しいベンチマークを導入し,厳密な評価を行う。
論文 参考訳(メタデータ) (2024-12-08T20:46:23Z) - Deep Learning Through A Telescoping Lens: A Simple Model Provides Empirical Insights On Grokking, Gradient Boosting & Beyond [61.18736646013446]
その驚くべき振る舞いをより深く理解するために、トレーニングされたニューラルネットワークの単純かつ正確なモデルの有用性について検討する。
3つのケーススタディで、様々な顕著な現象に関する新しい経験的洞察を導き出すためにどのように適用できるかを説明します。
論文 参考訳(メタデータ) (2024-10-31T22:54:34Z) - Automatic Discovery of Visual Circuits [66.99553804855931]
本稿では,視覚モデルにおける視覚的概念の認識の基盤となる計算グラフのサブグラフを抽出するスケーラブルな手法について検討する。
提案手法は, モデル出力に因果的に影響を及ぼす回路を抽出し, これらの回路を編集することで, 敵攻撃から大きな事前学習モデルを守ることができることがわかった。
論文 参考訳(メタデータ) (2024-04-22T17:00:57Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Hierarchical Semantic Tree Concept Whitening for Interpretable Image
Classification [19.306487616731765]
ポストホック分析は、モデルに自然に存在するパターンやルールのみを発見することができる。
我々は、隠された層における人間の理解可能な概念の表現を変えるために、積極的に知識を注入する。
本手法は,モデル分類性能に悪影響を及ぼすことなく,セマンティックな概念の絡み合いを良くし,モデルの解釈可能性を向上させる。
論文 参考訳(メタデータ) (2023-07-10T04:54:05Z) - Experimental Observations of the Topology of Convolutional Neural
Network Activations [2.4235626091331737]
トポロジカル・データ解析は、複雑な構造のコンパクトでノイズ・ロバストな表現を提供する。
ディープニューラルネットワーク(DNN)は、モデルアーキテクチャによって定義された一連の変換に関連する数百万のパラメータを学習する。
本稿では,画像分類に使用される畳み込みニューラルネットワークの解釈可能性に関する知見を得る目的で,TDAの最先端技術を適用した。
論文 参考訳(メタデータ) (2022-12-01T02:05:44Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Multi-Branch Deep Radial Basis Function Networks for Facial Emotion
Recognition [80.35852245488043]
放射状基底関数(RBF)ユニットによって形成された複数の分岐で拡張されたCNNベースのアーキテクチャを提案する。
RBFユニットは、中間表現を用いて類似のインスタンスで共有される局所パターンをキャプチャする。
提案手法は,提案手法の競争力を高めるためのローカル情報の導入であることを示す。
論文 参考訳(メタデータ) (2021-09-07T21:05:56Z) - Explaining Convolutional Neural Networks through Attribution-Based Input
Sampling and Block-Wise Feature Aggregation [22.688772441351308]
クラスアクティベーションマッピングとランダムな入力サンプリングに基づく手法が広く普及している。
しかし、帰属法は、その説明力を制限した解像度とぼやけた説明地図を提供する。
本研究では、帰属型入力サンプリング技術に基づいて、モデルの複数の層から可視化マップを収集する。
また,CNNモデル全体に適用可能な層選択戦略を提案する。
論文 参考訳(メタデータ) (2020-10-01T20:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。