論文の概要: Feature visualization for convolutional neural network models trained on
neuroimaging data
- arxiv url: http://arxiv.org/abs/2203.13120v1
- Date: Thu, 24 Mar 2022 15:24:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-25 14:57:29.709430
- Title: Feature visualization for convolutional neural network models trained on
neuroimaging data
- Title(参考訳): 神経画像データに基づく畳み込みニューラルネットワークモデルの特徴可視化
- Authors: Fabian Eitel, Anna Melkonyan, Kerstin Ritter
- Abstract要約: 畳み込みニューラルネットワーク(CNN)の機能可視化による最初の結果を示す。
我々は、MRIデータに基づく性分類や人為的病変分類など、さまざまなタスクのためにCNNを訓練した。
得られた画像は、その形状を含む人工的な病変の学習概念を明らかにするが、性分類タスクにおける抽象的な特徴を解釈することは困難である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A major prerequisite for the application of machine learning models in
clinical decision making is trust and interpretability. Current explainability
studies in the neuroimaging community have mostly focused on explaining
individual decisions of trained models, e.g. obtained by a convolutional neural
network (CNN). Using attribution methods such as layer-wise relevance
propagation or SHAP heatmaps can be created that highlight which regions of an
input are more relevant for the decision than others. While this allows the
detection of potential data set biases and can be used as a guide for a human
expert, it does not allow an understanding of the underlying principles the
model has learned. In this study, we instead show, to the best of our
knowledge, for the first time results using feature visualization of
neuroimaging CNNs. Particularly, we have trained CNNs for different tasks
including sex classification and artificial lesion classification based on
structural magnetic resonance imaging (MRI) data. We have then iteratively
generated images that maximally activate specific neurons, in order to
visualize the patterns they respond to. To improve the visualizations we
compared several regularization strategies. The resulting images reveal the
learned concepts of the artificial lesions, including their shapes, but remain
hard to interpret for abstract features in the sex classification task.
- Abstract(参考訳): 臨床的意思決定における機械学習モデルの適用の主要な前提条件は、信頼と解釈性である。
現在の神経画像コミュニティにおける説明可能性の研究は、主に訓練されたモデルの個々の決定、例えば畳み込みニューラルネットワーク(cnn)によって得られた決定を説明することに焦点を当てている。
階層的関連性伝播やSHAPヒートマップなどの帰属法を用いて、入力のどの領域が他の領域よりも決定に関連があるかを強調することができる。
これにより、潜在的なデータセットのバイアスの検出が可能になり、人間の専門家のガイドとして使用できるが、モデルが学んだ基本的な原則を理解することはできない。
そこで本研究では,神経画像CNNの特徴可視化を用いて,私たちの知る限り,初めて得られた知見を提示する。
特に, 組織磁気共鳴画像(MRI)データに基づいて, 性別分類, 人為的病変分類など, さまざまなタスクでCNNを訓練した。
次に、反応するパターンを視覚化するために、特定のニューロンを最大に活性化する反復的な画像を生成する。
可視化を改善するために、いくつかの正規化戦略を比較した。
得られた画像は、その形状を含む人工的な病変の学習概念を明らかにするが、性分類タスクにおける抽象的な特徴を解釈することは困難である。
関連論文リスト
- Neural Dynamics Model of Visual Decision-Making: Learning from Human Experts [28.340344705437758]
視覚入力から行動出力まで,包括的な視覚的意思決定モデルを実装した。
我々のモデルは人間の行動と密接に一致し、霊長類の神経活動を反映する。
ニューロイメージング・インフォームド・ファインチューニング手法を導入し、モデルに適用し、性能改善を実現した。
論文 参考訳(メタデータ) (2024-09-04T02:38:52Z) - Unsupervised representation learning with Hebbian synaptic and structural plasticity in brain-like feedforward neural networks [0.0]
教師なし表現学習が可能な脳様ニューラルネットワークモデルを導入,評価する。
このモデルは、一般的な機械学習ベンチマークのさまざまなセットでテストされた。
論文 参考訳(メタデータ) (2024-06-07T08:32:30Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Causality-Driven One-Shot Learning for Prostate Cancer Grading from MRI [1.049712834719005]
本稿では,画像中の弱い因果信号を学習し,活用する医用画像の自動分類手法を提案する。
我々のフレームワークは畳み込みニューラルネットワークのバックボーンと因果抽出モジュールで構成されている。
本研究は,特徴間の因果関係が,関連情報を識別するモデルの能力を高める上で重要な役割を担っていることを示す。
論文 参考訳(メタデータ) (2023-09-19T16:08:33Z) - Contrastive Brain Network Learning via Hierarchical Signed Graph Pooling
Model [64.29487107585665]
脳機能ネットワーク上のグラフ表現学習技術は、臨床表現型および神経変性疾患のための新しいバイオマーカーの発見を容易にする。
本稿では,脳機能ネットワークからグラフレベル表現を抽出する階層型グラフ表現学習モデルを提案する。
また、モデルの性能をさらに向上させるために、機能的脳ネットワークデータをコントラスト学習のために拡張する新たな戦略を提案する。
論文 参考訳(メタデータ) (2022-07-14T20:03:52Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Learning Personal Representations from fMRIby Predicting Neurofeedback
Performance [52.77024349608834]
機能的MRI(fMRI)によって導かれる自己神経変調タスクを行う個人のための個人表現を学習するためのディープニューラルネットワーク手法を提案する。
この表現は、直近のfMRIフレームが与えられた次のfMRIフレームにおける扁桃体活動を予測する自己教師型リカレントニューラルネットワークによって学習され、学習された個々の表現に条件付けされる。
論文 参考訳(メタデータ) (2021-12-06T10:16:54Z) - Neuronal Learning Analysis using Cycle-Consistent Adversarial Networks [4.874780144224057]
我々は、-CycleGANと呼ばれる深層生成モデルを用いて、前学習と後学習の神経活動の間の未知のマッピングを学習する。
我々は,カルシウム蛍光信号を前処理し,訓練し,評価するためのエンドツーエンドパイプラインを開発し,その結果の深層学習モデルを解釈する手法を開発した。
論文 参考訳(メタデータ) (2021-11-25T13:24:19Z) - Going Beyond Saliency Maps: Training Deep Models to Interpret Deep
Models [16.218680291606628]
解釈性は、複雑な深層学習モデルを用いて脳障害の理解を進める上で重要な要素である。
疾患のパターンを注入または除去するために、与えられたイメージを歪めることができるシミュレーターネットワークを訓練することを提案する。
本研究は,アルツハイマー病とアルコール使用障害の影響を可視化するために,合成データセットと2つのニューロイメージングデータセットで訓練された分類器の解釈に応用する。
論文 参考訳(メタデータ) (2021-02-16T15:57:37Z) - Retinopathy of Prematurity Stage Diagnosis Using Object Segmentation and
Convolutional Neural Networks [68.96150598294072]
未熟児網膜症(英: Retinopathy of Prematurity、ROP)は、主に体重の低い未熟児に影響を及ぼす眼疾患である。
網膜の血管の増殖を招き、視力喪失を招き、最終的には網膜剥離を招き、失明を引き起こす。
近年,ディープラーニングを用いて診断を自動化する試みが盛んに行われている。
本稿では,従来のモデルの成功を基盤として,オブジェクトセグメンテーションと畳み込みニューラルネットワーク(CNN)を組み合わせた新しいアーキテクチャを開発する。
提案システムでは,まず対象分割モデルを訓練し,画素レベルでの区切り線を識別し,その結果のマスクを追加の"カラー"チャネルとして付加する。
論文 参考訳(メタデータ) (2020-04-03T14:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。