論文の概要: Visual Explanations via Iterated Integrated Attributions
- arxiv url: http://arxiv.org/abs/2310.18585v1
- Date: Sat, 28 Oct 2023 04:30:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 17:41:12.972453
- Title: Visual Explanations via Iterated Integrated Attributions
- Title(参考訳): 反復統合属性による視覚的説明
- Authors: Oren Barkan, Yehonatan Elisha, Yuval Asher, Amit Eshel, Noam
Koenigstein
- Abstract要約: 視覚モデルの予測を説明する汎用的な手法として,Iterated Integrated Attributions (IIA)を提案する。
IIAは、入力画像、モデルによって生成された内部表現、およびそれらの勾配を反復的に統合し、正確で集中した説明図を生成する。
- 参考スコア(独自算出の注目度): 9.945345991490624
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Iterated Integrated Attributions (IIA) - a generic method for
explaining the predictions of vision models. IIA employs iterative integration
across the input image, the internal representations generated by the model,
and their gradients, yielding precise and focused explanation maps. We
demonstrate the effectiveness of IIA through comprehensive evaluations across
various tasks, datasets, and network architectures. Our results showcase that
IIA produces accurate explanation maps, outperforming other state-of-the-art
explanation techniques.
- Abstract(参考訳): 視覚モデルの予測を説明する汎用的な手法として,Iterated Integrated Attributions (IIA)を提案する。
IIAは、入力画像、モデルによって生成された内部表現、およびそれらの勾配を反復的に統合し、精密で集中した説明図を生成する。
各種タスク,データセット,ネットワークアーキテクチャの包括的な評価を通じて,IIAの有効性を示す。
iiaが正確な説明マップを作成し、他の最先端の説明技術よりも優れていることを示した。
関連論文リスト
- Decompose the model: Mechanistic interpretability in image models with Generalized Integrated Gradients (GIG) [24.02036048242832]
本稿では,すべての中間層を経由した入力から,データセット全体の最終的な出力まで,経路全体をトレースする新しい手法を提案する。
本稿では,PFV(Pointwise Feature Vectors)とERF(Effective Receptive Fields)を用いて,モデル埋め込みを解釈可能な概念ベクトルに分解する。
そして,汎用統合勾配(GIG)を用いて概念ベクトル間の関係を計算し,モデル行動の包括的,データセットワイドな解析を可能にする。
論文 参考訳(メタデータ) (2024-09-03T05:19:35Z) - Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Structure Your Data: Towards Semantic Graph Counterfactuals [1.8817715864806608]
概念に基づく対実的説明(CE)は、モデル予測にどの高レベルな意味的特徴が寄与するかを理解するための代替シナリオを考える説明である。
本研究では,入力データに付随する意味グラフに基づくCEを提案する。
論文 参考訳(メタデータ) (2024-03-11T08:40:37Z) - Deep Integrated Explanations [9.466459220376205]
Deep Integrated Explanations (DIX) は視覚モデルを説明する普遍的な方法である。
DIXは、モデルの中間表現から情報を統合することで説明写像を生成し、対応する勾配と結合する。
論文 参考訳(メタデータ) (2023-10-23T21:03:30Z) - MINER: Improving Out-of-Vocabulary Named Entity Recognition from an
Information Theoretic Perspective [57.19660234992812]
NERモデルは標準のNERベンチマークで有望な性能を達成した。
近年の研究では、従来のアプローチはエンティティ参照情報に過度に依存し、OoV(out-of-vocabulary)エンティティ認識の性能が劣っていることが示されている。
我々は、情報理論の観点からこの問題を改善するための新しいNER学習フレームワークであるMINERを提案する。
論文 参考訳(メタデータ) (2022-04-09T05:18:20Z) - Interactive Visualization and Representation Analysis Applied to Glacier
Segmentation [0.0]
氷河セグメンテーションモデルの解釈にインタラクティブな可視化と表現分析を適用した。
Shiny Rパッケージを使ってオンラインインターフェースを構築し、予測の包括的なエラー解析を行う。
論文 参考訳(メタデータ) (2021-12-11T14:03:53Z) - Revisiting The Evaluation of Class Activation Mapping for
Explainability: A Novel Metric and Experimental Analysis [54.94682858474711]
クラスアクティベーションマッピング(cam)アプローチは、アクティベーションマップの平均を重み付けすることで、効果的な可視化を提供する。
説明マップを定量化するための新しいメトリクスセットを提案し、より効果的な方法を示し、アプローチ間の比較を簡素化します。
論文 参考訳(メタデータ) (2021-04-20T21:34:24Z) - Unified Graph Structured Models for Video Understanding [93.72081456202672]
リレーショナル・テンポラル関係を明示的にモデル化するメッセージパッシンググラフニューラルネットワークを提案する。
本手法は,シーン内の関連エンティティ間の関係をより効果的にモデル化できることを示す。
論文 参考訳(メタデータ) (2021-03-29T14:37:35Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Explaining Convolutional Neural Networks through Attribution-Based Input
Sampling and Block-Wise Feature Aggregation [22.688772441351308]
クラスアクティベーションマッピングとランダムな入力サンプリングに基づく手法が広く普及している。
しかし、帰属法は、その説明力を制限した解像度とぼやけた説明地図を提供する。
本研究では、帰属型入力サンプリング技術に基づいて、モデルの複数の層から可視化マップを収集する。
また,CNNモデル全体に適用可能な層選択戦略を提案する。
論文 参考訳(メタデータ) (2020-10-01T20:27:30Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。