論文の概要: Counterfactual Explanation of Brain Activity Classifiers using
Image-to-Image Transfer by Generative Adversarial Network
- arxiv url: http://arxiv.org/abs/2110.14927v1
- Date: Thu, 28 Oct 2021 07:21:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 14:44:17.367524
- Title: Counterfactual Explanation of Brain Activity Classifiers using
Image-to-Image Transfer by Generative Adversarial Network
- Title(参考訳): 生成逆ネットワークによる画像間移動を用いた脳活動分類器の非現実的説明
- Authors: Teppei Matsui, Masato Taki, Trung Quang Pham, Junichi Chikazoe, Koji
Jimura
- Abstract要約: ディープニューラルネットワーク(DNN)は、タスク関連の情報を脳の活性化から正確に復号することができる。
このようなブラックボックスシステムを説明するための有望なアプローチの1つは、事実的説明である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep neural networks (DNNs) can accurately decode task-related information
from brain activations. However, because of the nonlinearity of the DNN, the
decisions made by DNNs are hardly interpretable. One of the promising
approaches for explaining such a black-box system is counterfactual
explanation. In this framework, the behavior of a black-box system is explained
by comparing real data and realistic synthetic data that are specifically
generated such that the black-box system outputs an unreal outcome. Here we
introduce a novel generative DNN (counterfactual activation generator, CAG)
that can provide counterfactual explanations for DNN-based classifiers of brain
activations. Importantly, CAG can simultaneously handle image transformation
among multiple classes associated with different behavioral tasks. Using CAG,
we demonstrated counterfactual explanation of DNN-based classifiers that
learned to discriminate brain activations of seven behavioral tasks.
Furthermore, by iterative applications of CAG, we were able to enhance and
extract subtle spatial brain activity patterns that affected the classifier's
decisions. Together, these results demonstrate that the counterfactual
explanation based on image-to-image transformation would be a promising
approach to understand and extend the current application of DNNs in fMRI
analyses.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、タスク関連の情報を脳の活性化から正確に復号することができる。
しかし、DNNの非線形性のため、DNNによる決定はほとんど解釈できない。
このようなブラックボックスシステムを説明する有望なアプローチの1つは、反事実的説明である。
本枠組みでは,ブラックボックスシステムの動作を,ブラックボックスシステムが非現実的な結果を出力するように特別に生成する実データとリアルな合成データとを比較して説明する。
そこで本研究では,脳活性化のDNNに基づく分類器に対実的説明を提供する新しい生成的DNN(counterfactual activation generator, CAG)を提案する。
重要なことに、CAGは異なる行動タスクに関連する複数のクラス間の画像変換を同時に処理できる。
CAGを用いて,7つの行動課題の脳活動の識別を学習したDNNに基づく分類器を実証した。
さらに,CAGの反復的適用により,分類者の判断に影響を及ぼす微妙な空間的脳活動パターンを抽出することができた。
これらの結果から,イメージ・ツー・イメージ変換に基づく反実的説明は,fMRI解析におけるDNNの現在の応用を理解する上で有望なアプローチであることが示された。
関連論文リスト
- Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Transferability of coVariance Neural Networks and Application to
Interpretable Brain Age Prediction using Anatomical Features [119.45320143101381]
グラフ畳み込みネットワーク(GCN)は、トポロジー駆動のグラフ畳み込み演算を利用して、推論タスクのためにグラフをまたいだ情報を結合する。
我々は、共分散行列をグラフとして、共分散ニューラルネットワーク(VNN)の形でGCNを研究した。
VNNは、GCNからスケールフリーなデータ処理アーキテクチャを継承し、ここでは、共分散行列が極限オブジェクトに収束するデータセットに対して、VNNが性能の転送可能性を示すことを示す。
論文 参考訳(メタデータ) (2023-05-02T22:15:54Z) - CI-GNN: A Granger Causality-Inspired Graph Neural Network for
Interpretable Brain Network-Based Psychiatric Diagnosis [40.26902764049346]
本稿では,脳ネットワークに基づく精神医学的診断を説明するためのグラフニューラルネットワーク(CI-GNN)を提案する。
CI-GNNは、それぞれ元のグラフの因果的側面と非因果的側面を符号化する、アンタングル化サブグラフレベル表現のアルファとベータを学習する。
3つのベースラインGNNと4つの最先端GNNの合成データと3つの大規模脳疾患データセットに対するCI-GNNの性能を実証的に評価した。
論文 参考訳(メタデータ) (2023-01-04T14:36:44Z) - SimpleMind adds thinking to deep neural networks [3.888848425698769]
ディープニューラルネットワーク(DNN)はデータのパターンを検出し、多くのコンピュータビジョンアプリケーションで汎用性と強力なパフォーマンスを示している。
DNNだけでは、単純で常識的な概念に反する明らかな誤りに陥り、明確な知識を使って探索と意思決定を導く能力に制限がある。
本稿では,医療画像理解に焦点を当てたCognitive AIのためのオープンソースソフトウェアフレームワークであるSimpleMindを紹介する。
論文 参考訳(メタデータ) (2022-12-02T03:38:20Z) - Visualizing Deep Neural Networks with Topographic Activation Maps [1.1470070927586014]
我々は,ディープニューラルネットワーク層におけるニューロンの地形的レイアウトを求める手法を紹介し,比較する。
本研究では,地形のアクティベーションマップを用いて誤りの特定やバイアスのエンコードを行い,トレーニングプロセスの可視化を行う。
論文 参考訳(メタデータ) (2022-04-07T15:56:44Z) - Explainability Tools Enabling Deep Learning in Future In-Situ Real-Time
Planetary Explorations [58.720142291102135]
ディープラーニング(DL)は、効果的な機械学習とコンピュータビジョン技術であることが証明されている。
ディープニューラルネットワーク(DNN)アーキテクチャのほとんどは複雑すぎて'ブラックボックス'と見なされている。
本稿では,各ニューロンの出力クラスへの属性を記述するために,積分勾配を用いた。
DNNのブラックボックスを開くための説明可能性ツールセット(ET)を提供するので、分類へのニューロンの個々の貢献をランク付けし視覚化することができる。
論文 参考訳(メタデータ) (2022-01-15T07:10:00Z) - Concept Embeddings for Fuzzy Logic Verification of Deep Neural Networks
in Perception Tasks [1.2246649738388387]
我々は、訓練された畳み込みニューラルネットワーク(CNN)が特定の記号的背景知識を尊重するかどうかを検証するための、単純で効果的なアプローチを提案する。
知識はファジィ述語論理則から成り立つ。
このアプローチはファジィ性と概念出力の校正の恩恵を受けていることを示す。
論文 参考訳(メタデータ) (2022-01-03T10:35:47Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z) - Architecture Disentanglement for Deep Neural Networks [174.16176919145377]
ディープニューラルネットワーク(DNN)の内部動作を説明するために,ニューラルアーキテクチャ・ディコンタングルメント(NAD)を導入する。
NADは、訓練済みのDNNを独立したタスクに従ってサブアーキテクチャに切り離すことを学び、推論プロセスを記述する情報フローを形成する。
その結果、誤分類された画像は、タスクサブアーキテクチャーに正しいサブアーキテクチャーに割り当てられる確率が高いことが示された。
論文 参考訳(メタデータ) (2020-03-30T08:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。