論文の概要: InfoDisent: Explainability of Image Classification Models by Information Disentanglement
- arxiv url: http://arxiv.org/abs/2409.10329v1
- Date: Mon, 16 Sep 2024 14:39:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-09-17 15:10:41.936896
- Title: InfoDisent: Explainability of Image Classification Models by Information Disentanglement
- Title(参考訳): InfoDisent:情報分散による画像分類モデルの説明可能性
- Authors: Łukasz Struski, Jacek Tabor,
- Abstract要約: 両アプローチの利点を組み合わせたハイブリッドモデルであるInfoDisentを紹介します。
InfoDisentは、情報ボトルネックを利用することで、事前訓練されたディープネットワークの最終層にある情報をアンハングルする。
我々は、ImageNet、CUB-200-2011、Stanford Cars、Stanford Dogsなどのベンチマークデータセットに対するInfoDisentの有効性を検証する。
- 参考スコア(独自算出の注目度): 9.380255522558294
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding the decisions made by image classification networks is a critical area of research in deep learning. This task is traditionally divided into two distinct approaches: post-hoc methods and intrinsic methods. Post-hoc methods, such as GradCam, aim to interpret the decisions of pre-trained models by identifying regions of the image where the network focuses its attention. However, these methods provide only a high-level overview, making it difficult to fully understand the network's decision-making process. Conversely, intrinsic methods, like prototypical parts models, offer a more detailed understanding of network predictions but are constrained by specific architectures, training methods, and datasets. In this paper, we introduce InfoDisent, a hybrid model that combines the advantages of both approaches. By utilizing an information bottleneck, InfoDisent disentangles the information in the final layer of a pre-trained deep network, enabling the breakdown of classification decisions into basic, understandable atomic components. Unlike standard prototypical parts approaches, InfoDisent can interpret the decisions of pre-trained classification networks and be used for making classification decisions, similar to intrinsic models. We validate the effectiveness of InfoDisent on benchmark datasets such as ImageNet, CUB-200-2011, Stanford Cars, and Stanford Dogs for both convolutional and transformer backbones.
- Abstract(参考訳): 画像分類ネットワークによる決定を理解することは、ディープラーニングにおける重要な研究領域である。
このタスクは伝統的に、ポストホック法と本質的な方法の2つの異なるアプローチに分けられる。
GradCamのようなポストホックな手法は、ネットワークが注目する画像の領域を特定することによって、事前訓練されたモデルの決定を解釈することを目的としている。
しかし、これらの手法は高レベルな概要しか提供しないため、ネットワークの意思決定プロセスを完全に理解することは困難である。
逆に、原型部品モデルのような本質的な手法は、ネットワーク予測をより詳細に理解するが、特定のアーキテクチャ、トレーニング方法、データセットによって制約される。
本稿では,両アプローチの利点を組み合わせたハイブリッドモデルであるInfoDisentを紹介する。
情報ボトルネックを利用することでInfoDisentは、事前訓練されたディープネットワークの最終層に情報を格納し、分類決定を基本的な、理解可能な原子コンポーネントに分解する。
標準の原型部品アプローチとは異なり、InfoDisentは事前訓練された分類ネットワークの決定を解釈し、本質的なモデルと同様の分類決定に使用できる。
我々は、ImageNet、CUB-200-2011、Stanford Cars、Stanford DogsといったベンチマークデータセットにおけるInfoDisentの有効性を検証する。
関連論文リスト
- Interpretable Image Classification via Non-parametric Part Prototype Learning [14.390730075612248]
解釈可能な意思決定プロセスで画像を分類することは、コンピュータビジョンにおける長年の問題である。
近年、自己説明可能なニューラルネットワークのアプローチとして、プロトタイプのPart Networksが注目を集めている。
本稿では,各クラスに対して意味的に固有のオブジェクト部品の集合を学習する,部分的解釈可能な画像分類のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-13T10:46:53Z) - How to Probe: Simple Yet Effective Techniques for Improving Post-hoc Explanations [69.72654127617058]
ポストホック重要属性法は、ディープニューラルネットワーク(DNN)を"説明"するための一般的なツールである
この研究において、我々はこの概念に挑戦する経験的証拠を提示する。
トレーニング済みモデルの分類レイヤのトレーニング詳細が重要な役割を果たすことを示す。
論文 参考訳(メタデータ) (2025-03-01T22:25:11Z) - Enhancing Neural Network Interpretability Through Conductance-Based Information Plane Analysis [0.0]
インフォメーションプレーン(Information Plane)は、ニューラルネットワーク内の情報の流れを分析するための概念的フレームワークである。
本稿では,入力特徴に対する感度尺度であるレイヤコンダクタンスを用いて情報平面解析を強化する手法を提案する。
論文 参考訳(メタデータ) (2024-08-26T23:10:42Z) - Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Automatic Discovery of Visual Circuits [66.99553804855931]
本稿では,視覚モデルにおける視覚的概念の認識の基盤となる計算グラフのサブグラフを抽出するスケーラブルな手法について検討する。
提案手法は, モデル出力に因果的に影響を及ぼす回路を抽出し, これらの回路を編集することで, 敵攻撃から大きな事前学習モデルを守ることができることがわかった。
論文 参考訳(メタデータ) (2024-04-22T17:00:57Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Concept backpropagation: An Explainable AI approach for visualising
learned concepts in neural network models [0.0]
本稿では,ある概念を表す情報が与えられたニューラルネットワークモデルにどのように内在化されているかを分析する方法として,Emphconcept backpropagationという概念検出手法の拡張を提案する。
論文 参考訳(メタデータ) (2023-07-24T08:21:13Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Consistent Explanations by Contrastive Learning [15.80891456718324]
Grad-CAMのようなポストホック評価技術により、人間は特定のネットワーク決定に責任のある空間領域を検査することができる。
より一貫した説明を生み出すためにモデルをトレーニングするための新しいトレーニング手法を提案する。
提案手法であるContrastive Grad-CAM Consistency (CGC) は,人間のアノテーションと一致したGrad-CAM解釈熱マップを生成する。
論文 参考訳(メタデータ) (2021-10-01T16:49:16Z) - White Box Methods for Explanations of Convolutional Neural Networks in
Image Classification Tasks [3.3959642559854357]
畳み込みニューラルネットワーク(CNN)は,画像分類作業における技術性能の状態を実証している。
ネットワークによる予測の背後にある推論を理解するために、いくつかのアプローチが提案されている。
我々は、ネットワークの内部アーキテクチャの情報を利用してその決定を説明するホワイトボックスメソッドに重点を置いている。
論文 参考訳(メタデータ) (2021-04-06T14:40:00Z) - Playing to distraction: towards a robust training of CNN classifiers
through visual explanation techniques [1.2321022105220707]
本研究では,視覚的説明手法を学習プロセスに組み込んだ,斬新かつ堅牢なトレーニング手法を提案する。
特に、EgoFoodPlacesデータセットに挑戦し、より低いレベルの複雑さで最先端の結果を達成する。
論文 参考訳(メタデータ) (2020-12-28T10:24:32Z) - Visualization of Supervised and Self-Supervised Neural Networks via
Attribution Guided Factorization [87.96102461221415]
クラスごとの説明性を提供するアルゴリズムを開発した。
実験の広範なバッテリーでは、クラス固有の可視化のための手法の能力を実証する。
論文 参考訳(メタデータ) (2020-12-03T18:48:39Z) - Explaining Convolutional Neural Networks through Attribution-Based Input
Sampling and Block-Wise Feature Aggregation [22.688772441351308]
クラスアクティベーションマッピングとランダムな入力サンプリングに基づく手法が広く普及している。
しかし、帰属法は、その説明力を制限した解像度とぼやけた説明地図を提供する。
本研究では、帰属型入力サンプリング技術に基づいて、モデルの複数の層から可視化マップを収集する。
また,CNNモデル全体に適用可能な層選択戦略を提案する。
論文 参考訳(メタデータ) (2020-10-01T20:27:30Z) - Region Comparison Network for Interpretable Few-shot Image
Classification [97.97902360117368]
新しいクラスのモデルをトレーニングするために、ラベル付きサンプルの限られた数だけを効果的に活用するための画像分類が提案されている。
本研究では,領域比較ネットワーク (RCN) と呼ばれる距離学習に基づく手法を提案する。
また,タスクのレベルからカテゴリへの解釈可能性の一般化も提案する。
論文 参考訳(メタデータ) (2020-09-08T07:29:05Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z) - Explanation-Guided Training for Cross-Domain Few-Shot Classification [96.12873073444091]
クロスドメイン・ショット分類タスク(CD-FSC)は、データセットで表されるドメインをまたいで一般化する要件と、少数ショット分類を組み合わせたものである。
既存のFSCモデルに対する新しいトレーニング手法を提案する。
説明誘導学習はモデル一般化を効果的に改善することを示す。
論文 参考訳(メタデータ) (2020-07-17T07:28:08Z) - Explainable Image Classification with Evidence Counterfactual [0.0]
画像分類のためのモデルに依存しないインスタンスレベルの説明法としてSEDCを導入する。
ある画像に対して、SEDCは、削除された場合、分類を変更する小さなセグメントの集合を検索する。
我々は,SEDC(-T) と LRP, LIME, SHAP などの特徴重要度評価手法を比較し, 上記の重要度ランキング問題にどう対処するかを述べる。
論文 参考訳(メタデータ) (2020-04-16T08:02:48Z) - Deep Unfolding Network for Image Super-Resolution [159.50726840791697]
本稿では,学習に基づく手法とモデルに基づく手法の両方を活用する,エンドツーエンドのトレーニング可能なアンフォールディングネットワークを提案する。
提案するネットワークは, モデルベース手法の柔軟性を継承し, 一つのモデルを用いて, 異なるスケール要因に対する, 曖昧でノイズの多い画像の超解像化を行う。
論文 参考訳(メタデータ) (2020-03-23T17:55:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。