論文の概要: Deep Integrated Explanations
- arxiv url: http://arxiv.org/abs/2310.15368v1
- Date: Mon, 23 Oct 2023 21:03:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 21:29:28.223026
- Title: Deep Integrated Explanations
- Title(参考訳): 深い統合的な説明
- Authors: Oren Barkan, Yehonathan Elisha, Jonathan Weill, Yuval Asher, Amit
Eshel, Noam Koenigstein
- Abstract要約: Deep Integrated Explanations (DIX) は視覚モデルを説明する普遍的な方法である。
DIXは、モデルの中間表現から情報を統合することで説明写像を生成し、対応する勾配と結合する。
- 参考スコア(独自算出の注目度): 9.466459220376205
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents Deep Integrated Explanations (DIX) - a universal method
for explaining vision models. DIX generates explanation maps by integrating
information from the intermediate representations of the model, coupled with
their corresponding gradients. Through an extensive array of both objective and
subjective evaluations spanning diverse tasks, datasets, and model
configurations, we showcase the efficacy of DIX in generating faithful and
accurate explanation maps, while surpassing current state-of-the-art methods.
- Abstract(参考訳): 本稿では,視覚モデルを説明する普遍的手法であるDeep Integrated Explanations (DIX)を提案する。
DIXは、モデルの中間表現から情報を統合することで説明写像を生成し、対応する勾配と結合する。
多様なタスク,データセット,モデル構成にまたがる客観的および主観的評価の広範な配列を通じて,現状の手法を超越しつつ,忠実で正確な説明図を生成する上でのDIXの有効性を示す。
関連論文リスト
- Diffexplainer: Towards Cross-modal Global Explanations with Diffusion Models [51.21351775178525]
DiffExplainerは、言語ビジョンモデルを活用することで、マルチモーダルなグローバルな説明可能性を実現する新しいフレームワークである。
最適化されたテキストプロンプトに条件付けされた拡散モデルを使用し、クラス出力を最大化する画像を合成する。
生成した視覚的記述の分析により、バイアスと突発的特徴の自動識別が可能になる。
論文 参考訳(メタデータ) (2024-04-03T10:11:22Z) - Structure Your Data: Towards Semantic Graph Counterfactuals [1.9939549451457024]
概念に基づく対実的説明(CE)は、モデル予測にどの高レベルな意味的特徴が寄与するかを理解するための代替シナリオを考える説明である。
本研究では,入力データに付随する意味グラフに基づくCEを提案する。
論文 参考訳(メタデータ) (2024-03-11T08:40:37Z) - Images in Discrete Choice Modeling: Addressing Data Isomorphism in
Multi-Modality Inputs [77.54052164713394]
本稿では,離散選択モデリング(DCM)と機械学習の交わりについて考察する。
本稿では,DCMフレームワーク内の従来の表型入力と同型情報を共有する高次元画像データの埋め込み結果について検討する。
論文 参考訳(メタデータ) (2023-12-22T14:33:54Z) - Visual Explanations via Iterated Integrated Attributions [9.945345991490624]
視覚モデルの予測を説明する汎用的な手法として,Iterated Integrated Attributions (IIA)を提案する。
IIAは、入力画像、モデルによって生成された内部表現、およびそれらの勾配を反復的に統合し、正確で集中した説明図を生成する。
論文 参考訳(メタデータ) (2023-10-28T04:30:16Z) - Unsupervised discovery of Interpretable Visual Concepts [0.0]
モデルの決定を説明する2つの方法を提案し,グローバルな解釈可能性を高める。
咬合・感性分析(因果性を含む)にインスパイアされた1つの方法
別の方法は、クラス認識順序相関 (Class-Aware Order correlation, CAOC) と呼ばれる新しいメトリクスを用いて、最も重要な画像領域を世界規模で評価する。
論文 参考訳(メタデータ) (2023-08-31T07:53:02Z) - Models and Benchmarks for Representation Learning of Partially Observed
Subgraphs [13.10073267779116]
グラフはグラフの豊富な部分構造であり、それらのノードとエッジは現実世界のタスクで部分的に観察できる。
既存のノードレベルまたはサブグラフレベルのメッセージパッシングは、準最適表現を生成する。
本稿では,部分部分グラフInfoMaxフレームワークを提案し,既存のInfoMaxモデルを一般化する。
論文 参考訳(メタデータ) (2022-09-01T14:51:37Z) - Compositional Visual Generation with Composable Diffusion Models [80.75258849913574]
拡散モデルを用いた構成生成のための代替的な構造的アプローチを提案する。
画像は拡散モデルの集合を構成することで生成され、それぞれが画像の特定のコンポーネントをモデル化する。
提案手法は, トレーニングで見られるものよりもはるかに複雑なシーンを, テスト時に生成することができる。
論文 参考訳(メタデータ) (2022-06-03T17:47:04Z) - Manifold Topology Divergence: a Framework for Comparing Data Manifolds [109.0784952256104]
本研究では,深部生成モデルの評価を目的としたデータ多様体の比較フレームワークを開発する。
クロスバーコードに基づき,manifold Topology Divergence score(MTop-Divergence)を導入する。
MTop-Divergenceは,様々なモードドロップ,モード内崩壊,モード発明,画像乱れを正確に検出する。
論文 参考訳(メタデータ) (2021-06-08T00:30:43Z) - Unified Graph Structured Models for Video Understanding [93.72081456202672]
リレーショナル・テンポラル関係を明示的にモデル化するメッセージパッシンググラフニューラルネットワークを提案する。
本手法は,シーン内の関連エンティティ間の関係をより効果的にモデル化できることを示す。
論文 参考訳(メタデータ) (2021-03-29T14:37:35Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Explaining Convolutional Neural Networks through Attribution-Based Input
Sampling and Block-Wise Feature Aggregation [22.688772441351308]
クラスアクティベーションマッピングとランダムな入力サンプリングに基づく手法が広く普及している。
しかし、帰属法は、その説明力を制限した解像度とぼやけた説明地図を提供する。
本研究では、帰属型入力サンプリング技術に基づいて、モデルの複数の層から可視化マップを収集する。
また,CNNモデル全体に適用可能な層選択戦略を提案する。
論文 参考訳(メタデータ) (2020-10-01T20:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。