論文の概要: NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants
- arxiv url: http://arxiv.org/abs/2301.00815v1
- Date: Sun, 1 Jan 2023 12:48:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 15:24:03.146019
- Title: NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants
- Title(参考訳): NeuroExplainer: 幼児の皮質発達パターンを明らかにするための微粒な注意デコーディング
- Authors: Chenyu Xue and Fan Wang and Yuanzhuo Zhu and Hui Li and Deyu Meng and
Dinggang Shen and Chunfeng Lian
- Abstract要約: 我々はNeuroExplainerと呼ばれる説明可能な幾何学的深層ネットワークを提案する。
NeuroExplainerは、早産に伴う幼児の皮質発達パターンの解明に使用される。
- 参考スコア(独自算出の注目度): 77.56132757244211
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deploying reliable deep learning techniques in interdisciplinary applications
needs learned models to output accurate and ({even more importantly})
explainable predictions. Existing approaches typically explicate network
outputs in a post-hoc fashion, under an implicit assumption that faithful
explanations come from accurate predictions/classifications. We have an
opposite claim that explanations boost (or even determine) classification. That
is, end-to-end learning of explanation factors to augment discriminative
representation extraction could be a more intuitive strategy to inversely
assure fine-grained explainability, e.g., in those neuroimaging and
neuroscience studies with high-dimensional data containing noisy, redundant,
and task-irrelevant information. In this paper, we propose such an explainable
geometric deep network dubbed as NeuroExplainer, with applications to uncover
altered infant cortical development patterns associated with preterm birth.
Given fundamental cortical attributes as network input, our NeuroExplainer
adopts a hierarchical attention-decoding framework to learn fine-grained
attentions and respective discriminative representations to accurately
recognize preterm infants from term-born infants at term-equivalent age.
NeuroExplainer learns the hierarchical attention-decoding modules under
subject-level weak supervision coupled with targeted regularizers deduced from
domain knowledge regarding brain development. These prior-guided constraints
implicitly maximizes the explainability metrics (i.e., fidelity, sparsity, and
stability) in network training, driving the learned network to output detailed
explanations and accurate classifications. Experimental results on the public
dHCP benchmark suggest that NeuroExplainer led to quantitatively reliable
explanation results that are qualitatively consistent with representative
neuroimaging studies.
- Abstract(参考訳): 学際的なアプリケーションに信頼できるディープラーニング技術を展開するには、正確な(さらに重要な)説明可能な予測を出力する学習モデルが必要です。
既存のアプローチは通常、忠実な説明は正確な予測/分類に由来するという暗黙の仮定の下で、ポストホックな方法でネットワーク出力を明示する。
説明が分類を促進する(あるいは決定する)という反対の主張がある。
すなわち、識別的表現抽出を促進する説明因子のエンドツーエンド学習は、例えば、ノイズ、冗長、タスク非関連情報を含む高次元データを用いた神経画像および神経科学研究において、より直感的な方法である。
本稿では,ニューロエクスプランジャー(neuroexplainer)と呼ばれる,説明可能な幾何学的深層ネットワークを提案する。
ネットワーク入力としての基本的な皮質特性を考慮に入れると、神経外者では、細かな注意と各識別表現を学習するための階層的注意分離フレームワークを採用し、終末期乳児の終末期の年齢を正確に認識する。
neuroexplainerは、脳の発達に関するドメイン知識から導かれるターゲットの正規化と、主題レベルの弱い監督の下で階層的な注意喚起モジュールを学習する。
これらの事前誘導制約は、ネットワークトレーニングにおける説明可能性指標(すなわち、忠実度、疎度、安定性)を暗黙的に最大化し、学習したネットワークに詳細な説明と正確な分類を出力させる。
公開dHCPベンチマークの実験結果から、NeuroExplainerは、代表的な神経画像研究と定性的に一致した定量的に信頼性の高い説明結果をもたらすことが示唆された。
関連論文リスト
- On the Value of Labeled Data and Symbolic Methods for Hidden Neuron Activation Analysis [1.55858752644861]
最先端技術は、隠されたノードのアクティベーションが、場合によっては人間にとって意味のある方法で解釈可能であることを示している。
本稿では,本手法が意味のある解釈を提供することを示す,新しいモデル非依存のポストホック説明可能なAI手法を提案する。
論文 参考訳(メタデータ) (2024-04-21T07:57:45Z) - Towards Generating Informative Textual Description for Neurons in
Language Models [6.884227665279812]
本稿では,ニューロンにテキスト記述を結び付けるフレームワークを提案する。
特に,提案手法が75%精度@2,50%リコール@2を実現していることを示す。
論文 参考訳(メタデータ) (2024-01-30T04:06:25Z) - Explainable Brain Age Prediction using coVariance Neural Networks [94.81523881951397]
大脳皮質の厚み特徴を用いた脳年齢予測のための説明駆動・解剖学的解釈可能なフレームワークを提案する。
具体的には、私たちの脳年齢予測フレームワークは、アルツハイマー病(AD)の脳年齢ギャップの粗い指標を超えて拡張されます。
我々は2つの重要な観察を行う: VNNは、貢献する脳の領域を同定することによって、ADの脳年齢差を高めるために解剖学的解釈性を割り当てることができる。
論文 参考訳(メタデータ) (2023-05-27T22:28:25Z) - Autism spectrum disorder classification based on interpersonal neural
synchrony: Can classification be improved by dyadic neural biomarkers using
unsupervised graph representation learning? [0.0]
ASDの中核的な側面の神経機構を明示的にマッピングする教師なしグラフ表現を導入する。
機能近赤外分光データによる最初の結果は、タスクに依存しない、解釈可能なグラフ表現の潜在的な予測能力を示している。
論文 参考訳(メタデータ) (2022-08-17T07:10:57Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - Object-based attention for spatio-temporal reasoning: Outperforming
neuro-symbolic models with flexible distributed architectures [15.946511512356878]
適切な帰納的バイアスを持つ完全学習型ニューラルネットワークは,従来のニューラルシンボリックモデルよりもかなり優れた性能を示す。
我々のモデルは、自己意識と学習された「ソフト」オブジェクト中心表現の両方を批判的に利用します。
論文 参考訳(メタデータ) (2020-12-15T18:57:40Z) - Gradient Starvation: A Learning Proclivity in Neural Networks [97.02382916372594]
グラディエント・スターベーションは、タスクに関連する機能のサブセットのみをキャプチャすることで、クロスエントロピー損失を最小化するときに発生する。
この研究は、ニューラルネットワークにおけるそのような特徴不均衡の出現に関する理論的説明を提供する。
論文 参考訳(メタデータ) (2020-11-18T18:52:08Z) - Visual Explanation for Identification of the Brain Bases for Dyslexia on
fMRI Data [13.701992590330395]
ネットワーク可視化技術を用いて、高レベルの特徴を学習するために必要な畳み込みニューラルネットワーク層において、分類された条件に対する専門家が支援する洞察に意味のあるイメージを提供することができることを示す。
以上の結果から,脳画像のみによる発達障害の正確な分類だけでなく,同時代の神経科学的知識と一致する特徴の自動可視化も可能となった。
論文 参考訳(メタデータ) (2020-07-17T22:11:30Z) - Towards a Neural Model for Serial Order in Frontal Cortex: a Brain
Theory from Memory Development to Higher-Level Cognition [53.816853325427424]
そこで本研究では,未熟な前頭前野 (PFC) が側頭葉信号の階層的パターンを検出する主要な機能を利用していることを提案する。
我々の仮説では、PFCは順序パターンの形で時間的配列の階層構造を検出し、それらを脳の異なる部分で階層的に情報をインデックスするために利用する。
これにより、抽象的な知識を操作し、時間的に順序付けられた情報を計画するための言語対応の脳にツールを提供する。
論文 参考訳(メタデータ) (2020-05-22T14:29:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。