論文の概要: Deep Integrated Explanations
- arxiv url: http://arxiv.org/abs/2310.15368v2
- Date: Sat, 28 Oct 2023 03:43:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 19:25:35.972610
- Title: Deep Integrated Explanations
- Title(参考訳): 深い統合的な説明
- Authors: Oren Barkan, Yehonatan Elisha, Jonathan Weill, Yuval Asher, Amit
Eshel, Noam Koenigstein
- Abstract要約: Deep Integrated Explanations (DIX) は視覚モデルを説明する普遍的な方法である。
DIXは、モデルの中間表現から情報を統合することで説明写像を生成し、対応する勾配と結合する。
- 参考スコア(独自算出の注目度): 9.466459220376205
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents Deep Integrated Explanations (DIX) - a universal method
for explaining vision models. DIX generates explanation maps by integrating
information from the intermediate representations of the model, coupled with
their corresponding gradients. Through an extensive array of both objective and
subjective evaluations spanning diverse tasks, datasets, and model
configurations, we showcase the efficacy of DIX in generating faithful and
accurate explanation maps, while surpassing current state-of-the-art methods.
- Abstract(参考訳): 本稿では,視覚モデルを説明する普遍的手法であるDeep Integrated Explanations (DIX)を提案する。
DIXは、モデルの中間表現から情報を統合することで説明写像を生成し、対応する勾配と結合する。
多様なタスク,データセット,モデル構成にまたがる客観的および主観的評価の広範な配列を通じて,現状の手法を超越しつつ,忠実で正確な説明図を生成する上でのDIXの有効性を示す。
関連論文リスト
- PCEvE: Part Contribution Evaluation Based Model Explanation for Human Figure Drawing Assessment and Beyond [5.104096700315427]
本稿では,PCEvE(Part Contribution Evaluation based model explanation)フレームワークを提案する。
既存の属性ベースのXAIアプローチとは異なり、PCEvEはモデル決定の簡単な説明を提供する。
複数のHFDアセスメントデータセットに関する広範な実験を通じて,PCEvEを厳格に検証する。
論文 参考訳(メタデータ) (2024-09-26T20:13:03Z) - Decompose the model: Mechanistic interpretability in image models with Generalized Integrated Gradients (GIG) [24.02036048242832]
本稿では,すべての中間層を経由した入力から,データセット全体の最終的な出力まで,経路全体をトレースする新しい手法を提案する。
本稿では,PFV(Pointwise Feature Vectors)とERF(Effective Receptive Fields)を用いて,モデル埋め込みを解釈可能な概念ベクトルに分解する。
そして,汎用統合勾配(GIG)を用いて概念ベクトル間の関係を計算し,モデル行動の包括的,データセットワイドな解析を可能にする。
論文 参考訳(メタデータ) (2024-09-03T05:19:35Z) - Integrated feature analysis for deep learning interpretation and class activation maps [1.5943223374606597]
深層学習モデルから抽出した中間的特徴を深く調べる統合的特徴分析法を提案する。
この統合された機能分析は、データセットのオーバーフィット、共同創設者、アウトリーチに関する情報を提供する可能性がある。
CAMの平均クラスアクティベーションレベルとモデルのロジットとの整合性を計算することにより,本手法の評価を行った。
論文 参考訳(メタデータ) (2024-07-01T10:10:57Z) - Diffexplainer: Towards Cross-modal Global Explanations with Diffusion Models [51.21351775178525]
DiffExplainerは、言語ビジョンモデルを活用することで、マルチモーダルなグローバルな説明可能性を実現する新しいフレームワークである。
最適化されたテキストプロンプトに条件付けされた拡散モデルを使用し、クラス出力を最大化する画像を合成する。
生成した視覚的記述の分析により、バイアスと突発的特徴の自動識別が可能になる。
論文 参考訳(メタデータ) (2024-04-03T10:11:22Z) - Images in Discrete Choice Modeling: Addressing Data Isomorphism in
Multi-Modality Inputs [77.54052164713394]
本稿では,離散選択モデリング(DCM)と機械学習の交わりについて考察する。
本稿では,DCMフレームワーク内の従来の表型入力と同型情報を共有する高次元画像データの埋め込み結果について検討する。
論文 参考訳(メタデータ) (2023-12-22T14:33:54Z) - Visual Explanations via Iterated Integrated Attributions [9.945345991490624]
視覚モデルの予測を説明する汎用的な手法として,Iterated Integrated Attributions (IIA)を提案する。
IIAは、入力画像、モデルによって生成された内部表現、およびそれらの勾配を反復的に統合し、正確で集中した説明図を生成する。
論文 参考訳(メタデータ) (2023-10-28T04:30:16Z) - Compositional Visual Generation with Composable Diffusion Models [80.75258849913574]
拡散モデルを用いた構成生成のための代替的な構造的アプローチを提案する。
画像は拡散モデルの集合を構成することで生成され、それぞれが画像の特定のコンポーネントをモデル化する。
提案手法は, トレーニングで見られるものよりもはるかに複雑なシーンを, テスト時に生成することができる。
論文 参考訳(メタデータ) (2022-06-03T17:47:04Z) - Manifold Topology Divergence: a Framework for Comparing Data Manifolds [109.0784952256104]
本研究では,深部生成モデルの評価を目的としたデータ多様体の比較フレームワークを開発する。
クロスバーコードに基づき,manifold Topology Divergence score(MTop-Divergence)を導入する。
MTop-Divergenceは,様々なモードドロップ,モード内崩壊,モード発明,画像乱れを正確に検出する。
論文 参考訳(メタデータ) (2021-06-08T00:30:43Z) - Unified Graph Structured Models for Video Understanding [93.72081456202672]
リレーショナル・テンポラル関係を明示的にモデル化するメッセージパッシンググラフニューラルネットワークを提案する。
本手法は,シーン内の関連エンティティ間の関係をより効果的にモデル化できることを示す。
論文 参考訳(メタデータ) (2021-03-29T14:37:35Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Explaining Convolutional Neural Networks through Attribution-Based Input
Sampling and Block-Wise Feature Aggregation [22.688772441351308]
クラスアクティベーションマッピングとランダムな入力サンプリングに基づく手法が広く普及している。
しかし、帰属法は、その説明力を制限した解像度とぼやけた説明地図を提供する。
本研究では、帰属型入力サンプリング技術に基づいて、モデルの複数の層から可視化マップを収集する。
また,CNNモデル全体に適用可能な層選択戦略を提案する。
論文 参考訳(メタデータ) (2020-10-01T20:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。