論文の概要: Comparing interpretation methods in mental state decoding analyses with
deep learning models
- arxiv url: http://arxiv.org/abs/2205.15581v1
- Date: Tue, 31 May 2022 07:43:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-02 01:00:59.240293
- Title: Comparing interpretation methods in mental state decoding analyses with
deep learning models
- Title(参考訳): 深層学習モデルを用いた精神状態復号解析における解釈法の比較
- Authors: Armin W. Thomas and Christopher R\'e and Russell A. Poldrack
- Abstract要約: 3つのfMRIデータセットで訓練されたDLモデルの精神状態復号化決定のための顕著な解釈法の説明を比較した。
入力の値とモデルの復号決定がいかに敏感に変化するかに着目した解釈手法が,fMRIデータの標準線形モデル解析結果とよく一致した説明を生成することがわかった。
- 参考スコア(独自算出の注目度): 8.00426138461057
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Deep learning (DL) methods find increasing application in mental state
decoding, where researchers seek to understand the mapping between mental
states (such as accepting or rejecting a gamble) and brain activity, by
identifying those brain regions (and networks) whose activity allows to
accurately identify (i.e., decode) these states. Once DL models have been
trained to accurately decode a set of mental states, neuroimaging researchers
often make use of interpretation methods from explainable artificial
intelligence research to understand their learned mappings between mental
states and brain activity. Here, we compare the explanations of prominent
interpretation methods for the mental state decoding decisions of DL models
trained on three functional Magnetic Resonance Imaging (fMRI) datasets. We find
that interpretation methods that capture the model's decision process well, by
producing faithful explanations, generally produce explanations that are less
in line with the results of standard analyses of the fMRI data, when compared
to the explanations of interpretation methods with less explanation
faithfulness. Specifically, we find that interpretation methods that focus on
how sensitively a model's decoding decision changes with the values of the
input produce explanations that better match with the results of a standard
general linear model analysis of the fMRI data, while interpretation methods
that focus on identifying the specific contribution of an input feature's value
to the decoding decision produce overall more faithful explanations that align
less well with the results of standard analyses of the fMRI data.
- Abstract(参考訳): 深層学習(deep learning, dl)の手法は、精神状態(ギャンブルの受容や拒否など)と脳活動のマッピングを理解するために、活動によってこれらの状態を正確に識別(すなわちデコード)できる脳領域(およびネットワーク)を特定することで、精神状態のデコーディングに応用される。
dlモデルが精神状態を正確にデコードするように訓練されると、神経画像研究者は、説明可能な人工知能研究からの解釈手法を使用して、精神状態と脳活動の間の学習されたマッピングを理解する。
本稿では,3つの機能的磁気共鳴イメージング(fmri)データセットで訓練されたdlモデルの精神状態復号決定に対する著名な解釈法の説明を比較する。
モデル決定過程をよく捉えた解釈手法は, 忠実性の低い解釈方法の説明と比較して, 一般的に, fmriデータの標準分析結果と一致しない説明を生成する。
Specifically, we find that interpretation methods that focus on how sensitively a model's decoding decision changes with the values of the input produce explanations that better match with the results of a standard general linear model analysis of the fMRI data, while interpretation methods that focus on identifying the specific contribution of an input feature's value to the decoding decision produce overall more faithful explanations that align less well with the results of standard analyses of the fMRI data.
関連論文リスト
- Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Adversarial Attacks on the Interpretation of Neuron Activation
Maximization [70.5472799454224]
アクティベーション最大化アプローチは、訓練されたディープラーニングモデルの解釈と解析に使用される。
本研究では,解釈を欺くためにモデルを操作する敵の概念を考察する。
論文 参考訳(メタデータ) (2023-06-12T19:54:33Z) - Patched Diffusion Models for Unsupervised Anomaly Detection in Brain MRI [55.78588835407174]
本稿では,正常脳解剖のパッチベース推定法として拡散モデルの生成タスクを再構築する手法を提案する。
腫瘍と多発性硬化症について検討し,既存のベースラインと比較して25.1%の改善がみられた。
論文 参考訳(メタデータ) (2023-03-07T09:40:22Z) - NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants [73.85768093666582]
我々はNeuroExplainerと呼ばれる説明可能な幾何学的深層ネットワークを提案する。
NeuroExplainerは、早産に伴う幼児の皮質発達パターンの解明に使用される。
論文 参考訳(メタデータ) (2023-01-01T12:48:12Z) - Visual Interpretable and Explainable Deep Learning Models for Brain
Tumor MRI and COVID-19 Chest X-ray Images [0.0]
我々は、ディープニューラルネットワークが医療画像をどのように分析するかを照らすための属性手法を評価する。
我々は近年の深層畳み込みニューラルネットワークモデルによる脳腫瘍MRIと新型コロナウイルス胸部X線データセットからの予測を属性とした。
論文 参考訳(メタデータ) (2022-08-01T16:05:14Z) - Transparency of Deep Neural Networks for Medical Image Analysis: A
Review of Interpretability Methods [3.3918638314432936]
ディープニューラルネットワークは、多くのタスクにおいて、臨床医と同じまたはより良いパフォーマンスを示している。
現在のディープ・ニューラル・ソリューションは、意思決定プロセスに関する具体的な知識の欠如からブラックボックスと呼ばれる。
通常の臨床ワークフローに組み込む前に、ディープニューラルネットワークの解釈可能性を保証する必要がある。
論文 参考訳(メタデータ) (2021-11-01T01:42:26Z) - TorchEsegeta: Framework for Interpretability and Explainability of
Image-based Deep Learning Models [0.0]
臨床医はしばしば自動画像処理アプローチ、特にディープラーニングに基づく手法の適用に懐疑的である。
本稿では,アルゴリズムの決定に最も影響を及ぼす解剖学的領域を記述することによって,ディープラーニングアルゴリズムの結果の解釈と説明を支援するアプローチを提案する。
ディープラーニングモデルに様々な解釈可能性および説明可能性技術を適用するための統合フレームワークであるTorchEsegetaを提案する。
論文 参考訳(メタデータ) (2021-10-16T01:00:15Z) - Interpretable Deep Learning: Interpretations, Interpretability,
Trustworthiness, and Beyond [49.93153180169685]
一般に混同される2つの基本的な概念(解釈と解釈可能性)を紹介・明らかにする。
我々は,新しい分類法を提案することにより,異なる視点から,最近のいくつかの解釈アルゴリズムの設計を詳細に述べる。
信頼される」解釈アルゴリズムを用いてモデルの解釈可能性を評価する上での既存の作業をまとめる。
論文 参考訳(メタデータ) (2021-03-19T08:40:30Z) - Going Beyond Saliency Maps: Training Deep Models to Interpret Deep
Models [16.218680291606628]
解釈性は、複雑な深層学習モデルを用いて脳障害の理解を進める上で重要な要素である。
疾患のパターンを注入または除去するために、与えられたイメージを歪めることができるシミュレーターネットワークを訓練することを提案する。
本研究は,アルツハイマー病とアルコール使用障害の影響を可視化するために,合成データセットと2つのニューロイメージングデータセットで訓練された分類器の解釈に応用する。
論文 参考訳(メタデータ) (2021-02-16T15:57:37Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Explaining black-box text classifiers for disease-treatment information
extraction [12.323983512532651]
ポストホックな説明法はブラックボックスAIモデルの振る舞いを近似することができる。
医療概念とセマンティクスを説明プロセスに組み込むことで,インプットとアウトプットのセマンティクスの関係を見出す。
論文 参考訳(メタデータ) (2020-10-21T09:58:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。