論文の概要: Towards the Visualization of Aggregated Class Activation Maps to Analyse
the Global Contribution of Class Features
- arxiv url: http://arxiv.org/abs/2308.00710v1
- Date: Sat, 29 Jul 2023 11:13:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-03 15:09:19.642378
- Title: Towards the Visualization of Aggregated Class Activation Maps to Analyse
the Global Contribution of Class Features
- Title(参考訳): クラス特徴のグローバル寄与分析のための集合クラス活性化マップの可視化に向けて
- Authors: Igor Cherepanov, David Sessler, Alex Ulmer, Hendrik L\"ucke-Tieke,
J\"orn Kohlhammer
- Abstract要約: クラスアクティベーションマップ(CAM)は、分類に寄与するデータサンプルの各機能の重要性を視覚化する。
複数のサンプルからCAMを集約し,意味的に構造化されたデータの分類のグローバルな説明を示す。
我々のアプローチでは,分析者が高次元データの重要な特徴を検出し,世界的説明の可視化に基づいてAIモデルに調整を導出することができる。
- 参考スコア(独自算出の注目度): 0.47248250311484113
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep learning (DL) models achieve remarkable performance in classification
tasks. However, models with high complexity can not be used in many
risk-sensitive applications unless a comprehensible explanation is presented.
Explainable artificial intelligence (xAI) focuses on the research to explain
the decision-making of AI systems like DL. We extend a recent method of Class
Activation Maps (CAMs) which visualizes the importance of each feature of a
data sample contributing to the classification. In this paper, we aggregate
CAMs from multiple samples to show a global explanation of the classification
for semantically structured data. The aggregation allows the analyst to make
sophisticated assumptions and analyze them with further drill-down
visualizations. Our visual representation for the global CAM illustrates the
impact of each feature with a square glyph containing two indicators. The color
of the square indicates the classification impact of this feature. The size of
the filled square describes the variability of the impact between single
samples. For interesting features that require further analysis, a detailed
view is necessary that provides the distribution of these values. We propose an
interactive histogram to filter samples and refine the CAM to show relevant
samples only. Our approach allows an analyst to detect important features of
high-dimensional data and derive adjustments to the AI model based on our
global explanation visualization.
- Abstract(参考訳): ディープラーニング(DL)モデルは、分類タスクにおいて顕著なパフォーマンスを達成する。
しかし、高い複雑性を持つモデルは、理解可能な説明が示されない限り、多くのリスクに敏感なアプリケーションでは使用できない。
説明可能な人工知能(xAI)は、DLのようなAIシステムの意思決定を説明する研究に焦点を当てている。
我々は、分類に寄与するデータサンプルの各特徴の重要性を可視化する最近のクラス活性化マップ(CAM)を拡張した。
本稿では,複数のサンプルからCAMを集約し,意味的構造化データの分類のグローバルな説明を示す。
このアグリゲーションによって、アナリストは洗練された仮定を作り、さらにドリルダウンの視覚化で分析することができる。
グローバルCAMの視覚的表現は、各特徴が2つの指標を含む正方形のグリフで与える影響を示している。
正方形の色は、この特徴の分類の影響を示している。
充填された正方形の大きさは、単一サンプル間の衝撃の変動性を記述する。
さらなる分析を必要とする興味深い機能には、これらの値の分布を提供する詳細なビューが必要である。
我々は,サンプルをフィルタし,CAMを精製し,関連するサンプルのみを表示するインタラクティブなヒストグラムを提案する。
我々のアプローチでは,分析者が高次元データの重要な特徴を検出し,世界的説明視覚化に基づいてAIモデルに調整を導出することができる。
関連論文リスト
- Self-Supervised Representation Learning with Meta Comprehensive
Regularization [11.387994024747842]
既存の自己管理フレームワークに組み込まれたCompMod with Meta Comprehensive Regularization (MCR)というモジュールを導入する。
提案したモデルを双方向最適化機構により更新し,包括的特徴を捉える。
本稿では,情報理論と因果対実的視点から提案手法の理論的支援を行う。
論文 参考訳(メタデータ) (2024-03-03T15:53:48Z) - Prospector Heads: Generalized Feature Attribution for Large Models &
Data [63.33062996732212]
本稿では,特徴帰属のための説明に基づく手法の,効率的かつ解釈可能な代替手段であるプロスペクタヘッドを紹介する。
入力データにおけるクラス固有のパターンの解釈と発見を、プロファイラヘッドがいかに改善できるかを実証する。
論文 参考訳(メタデータ) (2024-02-18T23:01:28Z) - Unsupervised discovery of Interpretable Visual Concepts [0.0]
モデルの決定を説明する2つの方法を提案し,グローバルな解釈可能性を高める。
咬合・感性分析(因果性を含む)にインスパイアされた1つの方法
別の方法は、クラス認識順序相関 (Class-Aware Order correlation, CAOC) と呼ばれる新しいメトリクスを用いて、最も重要な画像領域を世界規模で評価する。
論文 参考訳(メタデータ) (2023-08-31T07:53:02Z) - A Unified Interactive Model Evaluation for Classification, Object
Detection, and Instance Segmentation in Computer Vision [31.441561710096877]
コンピュータビジョンにおける分類,オブジェクト検出,インスタンスセグメンテーションのための統一モデル評価を支援するために,オープンソースビジュアル分析ツールUni-Evaluatorを開発した。
我々の手法の背景にある重要な考え方は、異なるタスクにおける離散的および連続的な予測を統一された確率分布として定式化することである。
これらの分布に基づいて,1)モデルの性能を概観する行列ベースの可視化,2)モデルの性能が不十分な問題のあるデータサブセットを識別するテーブル視覚化,3)興味のあるサンプルを表示するグリッド視覚化を開発する。
論文 参考訳(メタデータ) (2023-08-09T18:11:28Z) - Rethinking interpretation: Input-agnostic saliency mapping of deep
visual classifiers [28.28834523468462]
Saliencyメソッドは、入力特徴をモデル出力に寄与させることで、ポストホックモデルの解釈を提供する。
入力特異性マッピングは本質的に誤解を招く特徴の帰属に影響を受けやすいことを示す。
本稿では,モデルが持つ高次特徴をその出力に対して計算的に推定する,入力非依存のサリエンシマッピングの新たな視点を紹介する。
論文 参考訳(メタデータ) (2023-03-31T06:58:45Z) - A Unified Understanding of Deep NLP Models for Text Classification [88.35418976241057]
我々は、テキスト分類のためのNLPモデルの統一的な理解を可能にする視覚解析ツールDeepNLPVisを開発した。
主要なアイデアは相互情報に基づく尺度であり、モデルの各レイヤがサンプル内の入力語の情報をどのように保持するかを定量的に説明する。
コーパスレベル、サンプルレベル、単語レベルビジュアライゼーションで構成されるマルチレベルビジュアライゼーションは、全体トレーニングセットから個々のサンプルまでの分析をサポートする。
論文 参考訳(メタデータ) (2022-06-19T08:55:07Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - AcME -- Accelerated Model-agnostic Explanations: Fast Whitening of the
Machine-Learning Black Box [1.7534486934148554]
解釈可能性のアプローチは、ユーザが待つことなく、実行可能な洞察を提供するべきです。
本稿では,グローバルレベルとローカルレベルの両方で特徴的重要性のスコアを迅速に提供する解釈可能性アプローチである,アクセレーションモデル非依存説明(AcME)を提案する。
AcMEは機能ランキングを計算しますが、機能値の変化がモデル予測にどのように影響するかを評価するために、What-if分析ツールも提供しています。
論文 参考訳(メタデータ) (2021-12-23T15:18:13Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z) - Adaptive Object Detection with Dual Multi-Label Prediction [78.69064917947624]
本稿では,適応オブジェクト検出のための新しいエンド・ツー・エンドの非教師付き深部ドメイン適応モデルを提案する。
モデルはマルチラベル予測を利用して、各画像内の対象カテゴリ情報を明らかにする。
本稿では,オブジェクト検出を支援するための予測整合正則化機構を提案する。
論文 参考訳(メタデータ) (2020-03-29T04:23:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。