論文の概要: Applications of interpretable deep learning in neuroimaging: a comprehensive review
- arxiv url: http://arxiv.org/abs/2406.17792v1
- Date: Thu, 30 May 2024 20:52:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-01 06:21:45.755816
- Title: Applications of interpretable deep learning in neuroimaging: a comprehensive review
- Title(参考訳): ニューロイメージングにおける解釈可能な深層学習の応用--包括的考察
- Authors: Lindsay Munroe, Mariana da Silva, Faezeh Heidari, Irina Grigorescu, Simon Dahan, Emma C. Robinson, Maria Deprez, Po-Wah So,
- Abstract要約: 本研究は,解釈可能な深層学習法(iDL)の神経画像応用に関する文献を体系的にレビューした。
文献で最もよく使われているiDLアプローチは、神経画像データに最適である可能性がある。
- 参考スコア(独自算出の注目度): 2.1129232596214105
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Clinical adoption of deep learning models has been hindered, in part, because the black-box nature of neural networks leads to concerns regarding their trustworthiness and reliability. These concerns are particularly relevant in the field of neuroimaging due to the complex brain phenotypes and inter-subject heterogeneity often encountered. The challenge can be addressed by interpretable deep learning (iDL) methods that enable the visualisation and interpretation of the inner workings of deep learning models. This study systematically reviewed the literature on neuroimaging applications of iDL methods and critically analysed how iDL explanation properties were evaluated. Seventy-five studies were included, and ten categories of iDL methods were identified. We also reviewed five properties of iDL explanations that were analysed in the included studies: biological validity, robustness, continuity, selectivity, and downstream task performance. We found that the most popular iDL approaches used in the literature may be sub-optimal for neuroimaging data, and we discussed possible future directions for the field.
- Abstract(参考訳): 深層学習モデルの臨床的採用は、ニューラルネットワークのブラックボックスの性質が、信頼性と信頼性に関する懸念を招いているため、部分的には妨げられている。
これらの懸念は、複雑な脳の表現型と、しばしば遭遇する物体間不均一性により、神経イメージングの分野に特に関係している。
この課題は、深層学習モデルの内部動作の可視化と解釈を可能にする解釈可能な深層学習(iDL)手法によって解決することができる。
本研究は、iDL法の神経イメージング応用に関する文献を体系的にレビューし、iDL説明特性がどのように評価されたかを批判的に分析した。
対象は75例,iDL法は10例であった。
また, 生物学的妥当性, 頑健性, 連続性, 選択性, 下流タスクパフォーマンスの5つの特徴について検討した。
文献で最もよく使われているiDLアプローチは、神経画像データに最適である可能性があり、この分野の今後の方向性について議論した。
関連論文リスト
- Diagnostic Reasoning in Natural Language: Computational Model and Application [68.47402386668846]
言語基底タスク(NL-DAR)の文脈における診断誘導推論(DAR)について検討する。
パール構造因果モデルに基づくNL-DARの新しいモデリングフレームワークを提案する。
得られたデータセットを用いて,NL-DARにおける人間の意思決定過程を解析する。
論文 参考訳(メタデータ) (2024-09-09T06:55:37Z) - Deep Latent Variable Modeling of Physiological Signals [0.8702432681310401]
潜時変動モデルを用いた生理モニタリングに関する高次元問題について検討する。
まず、光学的に得られた信号を入力として、心の電気波形を生成するための新しい状態空間モデルを提案する。
次に,確率的グラフィカルモデルの強みと深い敵対学習を組み合わせた脳信号モデリング手法を提案する。
第3に,生理的尺度と行動の合同モデリングのための枠組みを提案する。
論文 参考訳(メタデータ) (2024-05-29T17:07:33Z) - Exploring the Cognitive Knowledge Structure of Large Language Models: An
Educational Diagnostic Assessment Approach [50.125704610228254]
大規模言語モデル(LLM)は、様々なタスクにまたがる例外的なパフォーマンスを示すだけでなく、知性の火花も示している。
近年の研究では、人間の試験における能力の評価に焦点が当てられ、異なる領域における彼らの印象的な能力を明らかにしている。
ブルーム分類に基づく人体検査データセットであるMoocRadarを用いて評価を行った。
論文 参考訳(メタデータ) (2023-10-12T09:55:45Z) - A Knowledge-Driven Cross-view Contrastive Learning for EEG
Representation [48.85731427874065]
本稿では,限られたラベルを持つ脳波から効果的な表現を抽出する知識駆動型クロスビューコントラスト学習フレームワーク(KDC2)を提案する。
KDC2法は脳波信号の頭皮と神経のビューを生成し、脳活動の内部および外部の表現をシミュレートする。
ニューラル情報整合性理論に基づく事前のニューラル知識をモデル化することにより、提案手法は不変かつ相補的なニューラル知識を抽出し、複合表現を生成する。
論文 参考訳(メタデータ) (2023-09-21T08:53:51Z) - Looking deeper into interpretable deep learning in neuroimaging: a
comprehensive survey [20.373311465258393]
本稿では、ニューロイメージング領域における解釈可能なディープラーニングモデルについて包括的にレビューする。
近年の神経画像研究は、モデル解釈可能性を利用して、モデル予測に最も関係のある解剖学的および機能的脳変化を捉える方法について論じている。
論文 参考訳(メタデータ) (2023-07-14T04:50:04Z) - NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants [73.85768093666582]
我々はNeuroExplainerと呼ばれる説明可能な幾何学的深層ネットワークを提案する。
NeuroExplainerは、早産に伴う幼児の皮質発達パターンの解明に使用される。
論文 参考訳(メタデータ) (2023-01-01T12:48:12Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - Applications of Generative Adversarial Networks in Neuroimaging and
Clinical Neuroscience [4.394368629380544]
GAN(Generative Adversarial Network)は,多くの分野において有効なディープラーニングモデルである。
GANは、空間的に複雑で非線形で、潜在的に微妙な病気効果を捉える能力を増強している。
本総説では, 各種神経疾患のイメージング研究におけるGANの応用について, 既存の文献を概説する。
論文 参考訳(メタデータ) (2022-06-14T18:10:00Z) - Evaluation of Interpretability for Deep Learning algorithms in EEG
Emotion Recognition: A case study in Autism [4.752074022068791]
説明可能な人工知能(XAI)に関する現在のモデルでは、特徴関連性を測定するための信頼性の欠如が明らかで定量化されている。
この研究は、脳波に基づく顔の感情認識を成功させるために、より透明な特徴関連計算を統合する最初のものである。
論文 参考訳(メタデータ) (2021-11-25T18:28:29Z) - ACRE: Abstract Causal REasoning Beyond Covariation [90.99059920286484]
因果誘導における現在の視覚システムの系統的評価のための抽象因果分析データセットについて紹介する。
Blicket実験における因果発見の研究の流れに触発され、独立シナリオと介入シナリオのいずれにおいても、以下の4種類の質問で視覚的推論システムに問い合わせる。
純粋なニューラルモデルは確率レベルのパフォーマンスの下で連想戦略に向かう傾向があるのに対し、ニューロシンボリックな組み合わせは後方ブロッキングの推論に苦しむ。
論文 参考訳(メタデータ) (2021-03-26T02:42:38Z) - An Active Learning Method for Diabetic Retinopathy Classification with
Uncertainty Quantification [3.7220380160016626]
不確実性定量のためのハイブリッドモデルと、不一致データを注釈付けするためのアクティブラーニングアプローチを提案する。
糖尿病網膜症分類の枠組みについて検討し,様々な指標で最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2020-12-24T16:59:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。