論文の概要: Improving the Interpretability of fMRI Decoding using Deep Neural
Networks and Adversarial Robustness
- arxiv url: http://arxiv.org/abs/2004.11114v3
- Date: Thu, 17 Dec 2020 16:01:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 08:54:21.137574
- Title: Improving the Interpretability of fMRI Decoding using Deep Neural
Networks and Adversarial Robustness
- Title(参考訳): ディープニューラルネットワークと対向ロバストネスを用いたfMRIデコーディングの解釈可能性の向上
- Authors: Patrick McClure, Dustin Moraczewski, Ka Chun Lam, Adam Thomas,
Francisco Pereira
- Abstract要約: サリエンシマップは、入力特徴の相対的重要性の解釈可能な可視化を作成するための一般的なアプローチである。
そこで本稿では,DNNを入力雑音に頑健にするために開発した,勾配型サリエンシマップの多種多様な手法について検討する。
- 参考スコア(独自算出の注目度): 1.254120224317171
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) are being increasingly used to make predictions
from functional magnetic resonance imaging (fMRI) data. However, they are
widely seen as uninterpretable "black boxes", as it can be difficult to
discover what input information is used by the DNN in the process, something
important in both cognitive neuroscience and clinical applications. A saliency
map is a common approach for producing interpretable visualizations of the
relative importance of input features for a prediction. However, methods for
creating maps often fail due to DNNs being sensitive to input noise, or by
focusing too much on the input and too little on the model. It is also
challenging to evaluate how well saliency maps correspond to the truly relevant
input information, as ground truth is not always available. In this paper, we
review a variety of methods for producing gradient-based saliency maps, and
present a new adversarial training method we developed to make DNNs robust to
input noise, with the goal of improving interpretability. We introduce two
quantitative evaluation procedures for saliency map methods in fMRI, applicable
whenever a DNN or linear model is being trained to decode some information from
imaging data. We evaluate the procedures using a synthetic dataset where the
complex activation structure is known, and on saliency maps produced for DNN
and linear models for task decoding in the Human Connectome Project (HCP)
dataset. Our key finding is that saliency maps produced with different methods
vary widely in interpretability, in both in synthetic and HCP fMRI data.
Strikingly, even when DNN and linear models decode at comparable levels of
performance, DNN saliency maps score higher on interpretability than linear
model saliency maps (derived via weights or gradient). Finally, saliency maps
produced with our adversarial training method outperform those from other
methods.
- Abstract(参考訳): 機能的磁気共鳴画像(fMRI)データから予測するために、ディープニューラルネットワーク(DNN)がますます使われている。
しかし、それらは広く解釈不能な「ブラックボックス」と見なされており、その過程でdnnがどの入力情報が使われているかを知ることは困難であり、認知神経科学と臨床応用の両方において重要なものである。
サリエンシマップは、入力特徴の相対的重要性の解釈可能な可視化を作成するための一般的なアプローチである。
しかし、DNNが入力ノイズに敏感であることや、入力に過度に集中し、モデルに過少なため、マップを作成する方法は失敗することが多い。
また,正当性マップが真に関連した入力情報にどの程度対応しているかを評価することも困難である。
本稿では,勾配に基づく塩分濃度分布図を作成するための様々な手法を概説し,DNNを入力雑音に頑健にするために開発した新しい逆方向学習法について述べる。
本稿では,DNNや線形モデルを用いて画像データから情報を復号化するための訓練を行う場合,fMRIにおける2つの定量評価手法を提案する。
我々は,複雑なアクティベーション構造が知られている合成データセットと,DNNで生成されるサリエンシマップとHuman Connectome Project(HCP)データセットにおけるタスクデコーディングのための線形モデルを用いて,その手順を評価する。
我々の重要な発見は、合成fMRIデータとHCP fMRIデータの両方において、異なる方法で生成されるサリエンシマップが、解釈可能性において大きく異なることである。
驚くべきことに、dnnと線形モデルが同等のパフォーマンスレベルでデコードする場合であっても、dnn saliency mapは(重みや勾配から派生した)線形モデルsaliency mapsよりも解釈可能性が高い。
最後に,我々の対人訓練法で作成したサリエンシマップは,他の方法よりも優れていた。
関連論文リスト
- SCAAT: Improving Neural Network Interpretability via Saliency
Constrained Adaptive Adversarial Training [10.716021768803433]
サリエンシマップは、特徴属性のヒートマップを示す一般的な説明形式である。
本研究では,DNNの解釈能力を向上させるために,Saliency Constrained Adversarial Training (SCAAT) と呼ばれるモデルに依存しない学習手法を提案する。
論文 参考訳(メタデータ) (2023-11-09T04:48:38Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - DynDepNet: Learning Time-Varying Dependency Structures from fMRI Data
via Dynamic Graph Structure Learning [58.94034282469377]
下流予測タスクによって誘導されるfMRIデータの最適時間変化依存性構造を学習する新しい手法であるDynDepNetを提案する。
実世界のfMRIデータセットの実験は、性別分類のタスクにおいて、DynDepNetが最先端の結果を達成することを実証している。
論文 参考訳(メタデータ) (2022-09-27T16:32:11Z) - Generalizing Neural Networks by Reflecting Deviating Data in Production [15.498447555957773]
本稿では,DNNに対する予期せぬ実行時入力によるDNNの誤予測を緩和する実行時アプローチを提案する。
我々は,シームズネットワークが学習した距離測定値に基づく分布解析器を用いて,意味的に保存されていない入力を識別する。
我々のアプローチは、これらの予期せぬ入力を、類似のセマンティクスを持つと認識されるトレーニングセットから入力に変換する。
論文 参考訳(メタデータ) (2021-10-06T13:05:45Z) - Topological Measurement of Deep Neural Networks Using Persistent
Homology [0.7919213739992464]
ディープニューラルネットワーク(DNN)の内部表現は解読不能である。
持続的ホモロジー(PH)は、訓練されたDNNの複雑さを調べるために用いられた。
論文 参考訳(メタデータ) (2021-06-06T03:06:15Z) - AxonNet: A self-supervised Deep Neural Network for Intravoxel Structure
Estimation from DW-MRI [0.12183405753834559]
ニューラルネットワーク(DNN)が拡散強調信号から情報を抽出し,脳幹を再構築する可能性を示唆する。
2つのDNNモデルを提示する:1つはボキセルの形で軸索構造を推定し、もう1つは中央ボキセルの構造を計算する。
論文 参考訳(メタデータ) (2021-03-19T20:11:03Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - MFPP: Morphological Fragmental Perturbation Pyramid for Black-Box Model
Explanations [7.051974163915314]
説明可能なAI問題を解決するために,形態的フラクタル摂動ピラミッド(P)法を提案する。
DNNP法では,入力画像をマルチスケールのフラグメントに分割し,フラグメントを摂動としてランダムにマスクし,サリエンシマップを生成する。
既存の入力サンプリング摂動法と比較して,ピラミッド構造の破片の方が有効であることが判明した。
論文 参考訳(メタデータ) (2020-06-04T06:13:40Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z) - Architecture Disentanglement for Deep Neural Networks [174.16176919145377]
ディープニューラルネットワーク(DNN)の内部動作を説明するために,ニューラルアーキテクチャ・ディコンタングルメント(NAD)を導入する。
NADは、訓練済みのDNNを独立したタスクに従ってサブアーキテクチャに切り離すことを学び、推論プロセスを記述する情報フローを形成する。
その結果、誤分類された画像は、タスクサブアーキテクチャーに正しいサブアーキテクチャーに割り当てられる確率が高いことが示された。
論文 参考訳(メタデータ) (2020-03-30T08:34:33Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。