論文の概要: Comparing interpretation methods in mental state decoding analyses with
deep learning models
- arxiv url: http://arxiv.org/abs/2205.15581v1
- Date: Tue, 31 May 2022 07:43:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-02 01:00:59.240293
- Title: Comparing interpretation methods in mental state decoding analyses with
deep learning models
- Title(参考訳): 深層学習モデルを用いた精神状態復号解析における解釈法の比較
- Authors: Armin W. Thomas and Christopher R\'e and Russell A. Poldrack
- Abstract要約: 3つのfMRIデータセットで訓練されたDLモデルの精神状態復号化決定のための顕著な解釈法の説明を比較した。
入力の値とモデルの復号決定がいかに敏感に変化するかに着目した解釈手法が,fMRIデータの標準線形モデル解析結果とよく一致した説明を生成することがわかった。
- 参考スコア(独自算出の注目度): 8.00426138461057
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Deep learning (DL) methods find increasing application in mental state
decoding, where researchers seek to understand the mapping between mental
states (such as accepting or rejecting a gamble) and brain activity, by
identifying those brain regions (and networks) whose activity allows to
accurately identify (i.e., decode) these states. Once DL models have been
trained to accurately decode a set of mental states, neuroimaging researchers
often make use of interpretation methods from explainable artificial
intelligence research to understand their learned mappings between mental
states and brain activity. Here, we compare the explanations of prominent
interpretation methods for the mental state decoding decisions of DL models
trained on three functional Magnetic Resonance Imaging (fMRI) datasets. We find
that interpretation methods that capture the model's decision process well, by
producing faithful explanations, generally produce explanations that are less
in line with the results of standard analyses of the fMRI data, when compared
to the explanations of interpretation methods with less explanation
faithfulness. Specifically, we find that interpretation methods that focus on
how sensitively a model's decoding decision changes with the values of the
input produce explanations that better match with the results of a standard
general linear model analysis of the fMRI data, while interpretation methods
that focus on identifying the specific contribution of an input feature's value
to the decoding decision produce overall more faithful explanations that align
less well with the results of standard analyses of the fMRI data.
- Abstract(参考訳): 深層学習(deep learning, dl)の手法は、精神状態(ギャンブルの受容や拒否など)と脳活動のマッピングを理解するために、活動によってこれらの状態を正確に識別(すなわちデコード)できる脳領域(およびネットワーク)を特定することで、精神状態のデコーディングに応用される。
dlモデルが精神状態を正確にデコードするように訓練されると、神経画像研究者は、説明可能な人工知能研究からの解釈手法を使用して、精神状態と脳活動の間の学習されたマッピングを理解する。
本稿では,3つの機能的磁気共鳴イメージング(fmri)データセットで訓練されたdlモデルの精神状態復号決定に対する著名な解釈法の説明を比較する。
モデル決定過程をよく捉えた解釈手法は, 忠実性の低い解釈方法の説明と比較して, 一般的に, fmriデータの標準分析結果と一致しない説明を生成する。
Specifically, we find that interpretation methods that focus on how sensitively a model's decoding decision changes with the values of the input produce explanations that better match with the results of a standard general linear model analysis of the fMRI data, while interpretation methods that focus on identifying the specific contribution of an input feature's value to the decoding decision produce overall more faithful explanations that align less well with the results of standard analyses of the fMRI data.
関連論文リスト
- A generative framework to bridge data-driven models and scientific theories in language neuroscience [84.76462599023802]
脳内の言語選択性の簡潔な説明を生成するためのフレームワークである生成的説明媒介バリデーションを提案する。
本研究では,説明精度が基礎となる統計モデルの予測力と安定性と密接に関連していることを示す。
論文 参考訳(メタデータ) (2024-10-01T15:57:48Z) - MindFormer: Semantic Alignment of Multi-Subject fMRI for Brain Decoding [50.55024115943266]
本稿では,MindFormer を用いたマルチオブジェクト fMRI 信号のセマンティックアライメント手法を提案する。
このモデルは、fMRIから画像生成のための安定拡散モデルや、fMRIからテキスト生成のための大規模言語モデル(LLM)の条件付けに使用できるfMRI条件付き特徴ベクトルを生成するように設計されている。
実験の結果,MindFormerは意味的に一貫した画像とテキストを異なる主題にわたって生成することがわかった。
論文 参考訳(メタデータ) (2024-05-28T00:36:25Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - Enhancing Deep Learning Model Explainability in Brain Tumor Datasets using Post-Heuristic Approaches [1.325953054381901]
本研究では,意思決定過程における説明可能性の欠如について考察する。
主な焦点は、LIMEライブラリとLIMEイメージ説明器によって生成された説明を精査することである。
提案したポストヒューリスティックなアプローチは,より堅牢で具体的な結果をもたらす,顕著な進歩を示す。
論文 参考訳(メタデータ) (2024-04-30T13:59:13Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants [73.85768093666582]
我々はNeuroExplainerと呼ばれる説明可能な幾何学的深層ネットワークを提案する。
NeuroExplainerは、早産に伴う幼児の皮質発達パターンの解明に使用される。
論文 参考訳(メタデータ) (2023-01-01T12:48:12Z) - Visual Interpretable and Explainable Deep Learning Models for Brain
Tumor MRI and COVID-19 Chest X-ray Images [0.0]
我々は、ディープニューラルネットワークが医療画像をどのように分析するかを照らすための属性手法を評価する。
我々は近年の深層畳み込みニューラルネットワークモデルによる脳腫瘍MRIと新型コロナウイルス胸部X線データセットからの予測を属性とした。
論文 参考訳(メタデータ) (2022-08-01T16:05:14Z) - TorchEsegeta: Framework for Interpretability and Explainability of
Image-based Deep Learning Models [0.0]
臨床医はしばしば自動画像処理アプローチ、特にディープラーニングに基づく手法の適用に懐疑的である。
本稿では,アルゴリズムの決定に最も影響を及ぼす解剖学的領域を記述することによって,ディープラーニングアルゴリズムの結果の解釈と説明を支援するアプローチを提案する。
ディープラーニングモデルに様々な解釈可能性および説明可能性技術を適用するための統合フレームワークであるTorchEsegetaを提案する。
論文 参考訳(メタデータ) (2021-10-16T01:00:15Z) - Going Beyond Saliency Maps: Training Deep Models to Interpret Deep
Models [16.218680291606628]
解釈性は、複雑な深層学習モデルを用いて脳障害の理解を進める上で重要な要素である。
疾患のパターンを注入または除去するために、与えられたイメージを歪めることができるシミュレーターネットワークを訓練することを提案する。
本研究は,アルツハイマー病とアルコール使用障害の影響を可視化するために,合成データセットと2つのニューロイメージングデータセットで訓練された分類器の解釈に応用する。
論文 参考訳(メタデータ) (2021-02-16T15:57:37Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Explaining black-box text classifiers for disease-treatment information
extraction [12.323983512532651]
ポストホックな説明法はブラックボックスAIモデルの振る舞いを近似することができる。
医療概念とセマンティクスを説明プロセスに組み込むことで,インプットとアウトプットのセマンティクスの関係を見出す。
論文 参考訳(メタデータ) (2020-10-21T09:58:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。