論文の概要: Finding Representative Interpretations on Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2108.06384v1
- Date: Fri, 13 Aug 2021 20:17:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-18 11:44:48.566930
- Title: Finding Representative Interpretations on Convolutional Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークにおける代表解釈の探索
- Authors: Peter Cho-Ho Lam, Lingyang Chu, Maxim Torgonskiy, Jian Pei, Yong
Zhang, Lanjun Wang
- Abstract要約: 我々は、多数の類似画像に対して非常に代表的な解釈を生成するために、新しい教師なしのアプローチを開発する。
我々は,共クラスタリング問題として代表解釈を求める問題を定式化し,それをサブモジュラーコストのサブモジュラーカバー問題に変換する。
提案手法の優れた性能を示す実験を行った。
- 参考スコア(独自算出の注目度): 43.25913447473829
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interpreting the decision logic behind effective deep convolutional neural
networks (CNN) on images complements the success of deep learning models.
However, the existing methods can only interpret some specific decision logic
on individual or a small number of images. To facilitate human
understandability and generalization ability, it is important to develop
representative interpretations that interpret common decision logics of a CNN
on a large group of similar images, which reveal the common semantics data
contributes to many closely related predictions. In this paper, we develop a
novel unsupervised approach to produce a highly representative interpretation
for a large number of similar images. We formulate the problem of finding
representative interpretations as a co-clustering problem, and convert it into
a submodular cost submodular cover problem based on a sample of the linear
decision boundaries of a CNN. We also present a visualization and similarity
ranking method. Our extensive experiments demonstrate the excellent performance
of our method.
- Abstract(参考訳): 画像上で効果的な深層畳み込みニューラルネットワーク(cnn)の背後にある決定論理を解釈することは、ディープラーニングモデルの成功を補完する。
しかし、既存の手法では、個々の画像や少数の画像に対してのみ特定の決定論理を解釈できる。
人間の理解可能性と一般化能力を促進するために,CNNの共通決定論理を類似した画像群で解釈する代表的解釈を開発することが重要である。
本稿では,多数の類似画像に対して高度に代表される解釈を生成するための新しい教師なし手法を提案する。
我々は,共クラスタリング問題として代表解釈を求める問題を定式化し,CNNの線形決定境界のサンプルに基づいて,部分モジュラーコストのサブモジュラー被覆問題に変換する。
また,可視化と類似度ランキング手法を提案する。
本手法の優れた性能を示す大規模な実験を行った。
関連論文リスト
- DP-Net: Learning Discriminative Parts for image recognition [4.480595534587716]
DP-Netは強力な解釈能力を持つディープアーキテクチャである。
プリトレーニングされた畳み込みニューラルネットワーク(CNN)とパートベースの認識モジュールを併用する。
論文 参考訳(メタデータ) (2024-04-23T13:42:12Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Adversarial Attacks on the Interpretation of Neuron Activation
Maximization [70.5472799454224]
アクティベーション最大化アプローチは、訓練されたディープラーニングモデルの解釈と解析に使用される。
本研究では,解釈を欺くためにモデルを操作する敵の概念を考察する。
論文 参考訳(メタデータ) (2023-06-12T19:54:33Z) - SO(2) and O(2) Equivariance in Image Recognition with
Bessel-Convolutional Neural Networks [63.24965775030674]
この研究はベッセル畳み込みニューラルネットワーク(B-CNN)の開発を示す
B-CNNは、ベッセル関数に基づく特定の分解を利用して、画像とフィルタの間のキー操作を変更する。
他の手法と比較して,B-CNNの性能を評価するために検討を行った。
論文 参考訳(メタデータ) (2023-04-18T18:06:35Z) - Exploring layerwise decision making in DNNs [1.766593834306011]
ノードの離散的なサンプルアクティベーション値をバイナリ表現として符号化することにより、決定木を抽出できることが示される。
次に、モデルの各レイヤの解釈を生成するために、これらの決定木と既存の特徴属性技術を組み合わせる。
論文 参考訳(メタデータ) (2022-02-01T11:38:59Z) - Visualizing the Diversity of Representations Learned by Bayesian Neural
Networks [5.660714085843854]
ベイジアンニューラルネットワーク(BNN)で学習した特徴表現の多様性を探索・可視化するために,XAI手法がどう利用できるかを検討する。
我々の研究は、人間の理解可能な特徴情報の観点から、下層の意思決定戦略に関して、後天的な分布に関する新たな洞察を提供する。
論文 参考訳(メタデータ) (2022-01-26T10:40:55Z) - Multi-Semantic Image Recognition Model and Evaluating Index for
explaining the deep learning models [31.387124252490377]
まず,ニューラルネットワークの意思決定過程を人間に理解させるマルチセマンティック画像認識モデルを提案する。
次に、モデルの解釈可能性について定量的に評価できる新しい評価指標を示す。
本稿では,現在最先端のディープラーニングモデルを用いて,関連するベースライン性能を示す。
論文 参考訳(メタデータ) (2021-09-28T07:18:05Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。