論文の概要: Going Beyond Saliency Maps: Training Deep Models to Interpret Deep
Models
- arxiv url: http://arxiv.org/abs/2102.08239v1
- Date: Tue, 16 Feb 2021 15:57:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 15:09:42.740964
- Title: Going Beyond Saliency Maps: Training Deep Models to Interpret Deep
Models
- Title(参考訳): 給与マップを超える:深層モデルを訓練して深層モデルを解釈する
- Authors: Zixuan Liu and Ehsan Adeli and Kilian M. Pohl and Qingyu Zhao
- Abstract要約: 解釈性は、複雑な深層学習モデルを用いて脳障害の理解を進める上で重要な要素である。
疾患のパターンを注入または除去するために、与えられたイメージを歪めることができるシミュレーターネットワークを訓練することを提案する。
本研究は,アルツハイマー病とアルコール使用障害の影響を可視化するために,合成データセットと2つのニューロイメージングデータセットで訓練された分類器の解釈に応用する。
- 参考スコア(独自算出の注目度): 16.218680291606628
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interpretability is a critical factor in applying complex deep learning
models to advance the understanding of brain disorders in neuroimaging studies.
To interpret the decision process of a trained classifier, existing techniques
typically rely on saliency maps to quantify the voxel-wise or feature-level
importance for classification through partial derivatives. Despite providing
some level of localization, these maps are not human-understandable from the
neuroscience perspective as they do not inform the specific meaning of the
alteration linked to the brain disorder. Inspired by the image-to-image
translation scheme, we propose to train simulator networks that can warp a
given image to inject or remove patterns of the disease. These networks are
trained such that the classifier produces consistently increased or decreased
prediction logits for the simulated images. Moreover, we propose to couple all
the simulators into a unified model based on conditional convolution. We
applied our approach to interpreting classifiers trained on a synthetic dataset
and two neuroimaging datasets to visualize the effect of the Alzheimer's
disease and alcohol use disorder. Compared to the saliency maps generated by
baseline approaches, our simulations and visualizations based on the Jacobian
determinants of the warping field reveal meaningful and understandable patterns
related to the diseases.
- Abstract(参考訳): 解釈性は、神経画像研究において、複雑な深層学習モデルを適用して脳障害の理解を促進する上で重要な要素である。
訓練された分類器の決定過程を解釈するために、既存の手法は、典型的には、部分微分を通じて分類するボキセルワイズまたは特徴レベルの重要性を定量化するサリエンシーマップに依存している。
ある程度の局所化を提供するが、これらの地図は脳障害に関連する変化の特定の意味を知らせないため、神経科学の観点からは人間に理解できない。
画像から画像への変換方式に触発されて,所定の画像に反動して疾患のパターンを注入または除去できるシミュレータネットワークを訓練する。
これらのネットワークは、分類器がシミュレーション画像の予測ロジットを一貫して増加または減少させるように訓練される。
さらに,全てのシミュレータを条件付き畳み込みに基づく統一モデルに分割することを提案する。
合成データセットと2つの神経画像データセットで訓練された分類器の解釈に本手法を適用し,アルツハイマー病とアルコール使用障害の効果を可視化した。
基準線法で生成したサリエンシマップと比較して, ワープ領域のヤコビ行列式に基づくシミュレーションと可視化により, 疾患に関連する有意義かつ理解可能なパターンが明らかとなった。
関連論文リスト
- Harnessing Intra-group Variations Via a Population-Level Context for Pathology Detection [17.87825422578005]
本研究では,病理診断のための集団レベルのコンテキストの概念を導入し,オートエンコーダの潜在コードにグラフ理論のアプローチを適用した。
PopuSenseは、畳み込みモデルの局所的またはグローバル的文脈が見逃したり、滑らかになったりする生医学データに固有の追加のグループ内変異を捉えようとしている。
論文 参考訳(メタデータ) (2024-03-04T18:44:30Z) - Deep Variational Lesion-Deficit Mapping [0.3914676152740142]
本稿では,病変欠損モデル比較のための包括的枠組みを提案する。
また,本モデルでは,すべてのシミュレーションシナリオにおいて,確立された手法よりもかなり優れていることを示す。
我々の分析は、このアプローチの広く採用されていることを正当化する。
論文 参考訳(メタデータ) (2023-05-27T13:49:35Z) - Brain Cortical Functional Gradients Predict Cortical Folding Patterns
via Attention Mesh Convolution [51.333918985340425]
我々は,脳の皮質ジャイロ-サルカル分割図を予測するための新しいアテンションメッシュ畳み込みモデルを開発した。
実験の結果,我々のモデルによる予測性能は,他の最先端モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-05-21T14:08:53Z) - Feature visualization for convolutional neural network models trained on
neuroimaging data [0.0]
畳み込みニューラルネットワーク(CNN)の機能可視化による最初の結果を示す。
我々は、MRIデータに基づく性分類や人為的病変分類など、さまざまなタスクのためにCNNを訓練した。
得られた画像は、その形状を含む人工的な病変の学習概念を明らかにするが、性分類タスクにおける抽象的な特徴を解釈することは困難である。
論文 参考訳(メタデータ) (2022-03-24T15:24:38Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - CAMERAS: Enhanced Resolution And Sanity preserving Class Activation
Mapping for image saliency [61.40511574314069]
バックプロパゲーション画像のサリエンシは、入力中の個々のピクセルのモデル中心の重要性を推定することにより、モデル予測を説明することを目的としている。
CAMERASは、外部の事前処理を必要とせずに、高忠実度バックプロパゲーション・サリエンシ・マップを計算できる手法である。
論文 参考訳(メタデータ) (2021-06-20T08:20:56Z) - Data-driven generation of plausible tissue geometries for realistic
photoacoustic image synthesis [53.65837038435433]
光音響トモグラフィ(pat)は形態的および機能的組織特性を回復する可能性がある。
我々は,PATデータシミュレーションの新たなアプローチを提案し,これを「シミュレーションの学習」と呼ぶ。
我々は、意味的注釈付き医療画像データに基づいて訓練されたGAN(Generative Adversarial Networks)の概念を活用して、可塑性組織ジオメトリを生成する。
論文 参考訳(メタデータ) (2021-03-29T11:30:18Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z) - Abstracting Deep Neural Networks into Concept Graphs for Concept Level
Interpretability [0.39635467316436124]
我々は,学習した概念のグラフィカルな表現を構築することで,医療領域における画像処理タスクを実行する訓練されたモデルの振る舞いを理解することを試みる。
本稿では,脳腫瘍の分節化と基底画像の分類という2つの生体医学的問題に対する提案手法の適用について述べる。
論文 参考訳(メタデータ) (2020-08-14T16:34:32Z) - Interpretation of Brain Morphology in Association to Alzheimer's Disease
Dementia Classification Using Graph Convolutional Networks on Triangulated
Meshes [6.088308871328403]
本研究では,脳皮質下構造のメッシュ表現を用いたアルツハイマー病認知症(ADD)の分類を支援するメッシュベースの手法を提案する。
我々は、ADD対健全な制御問題に対して96.35%のテスト精度で、他の機械学習手法よりも優れています。
論文 参考訳(メタデータ) (2020-08-14T01:10:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。