論文の概要: Reconstructing high-order sequence features of dynamic functional
connectivity networks based on diversified covert attention patterns for
Alzheimer's disease classification
- arxiv url: http://arxiv.org/abs/2211.11750v2
- Date: Mon, 4 Sep 2023 12:05:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 07:14:11.560355
- Title: Reconstructing high-order sequence features of dynamic functional
connectivity networks based on diversified covert attention patterns for
Alzheimer's disease classification
- Title(参考訳): アルツハイマー病分類のための多角的隠れ注意パターンに基づく動的機能接続ネットワークの高次配列特徴の再構成
- Authors: Zhixiang Zhang, Biao Jie, Zhengdong Wang, Jie Zhou, Yang Yang
- Abstract要約: 我々はトランスフォーマーのコアモジュールである自己注意機構を導入し、多彩な注意パターンをモデル化し、これらのパターンを適用してdFCNの高次シーケンス特性を再構築する。
本研究では,局所的時間的特徴とシーケンス変化パターンをキャプチャするCRNの利点と,大域的および高次的相関特徴の学習におけるトランスフォーマーを組み合わせた,多角化注意パターンに基づくCRN手法DCA-CRNを提案する。
- 参考スコア(独自算出の注目度): 22.57052592437276
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent studies have applied deep learning methods such as convolutional
recurrent neural networks (CRNs) and Transformers to brain disease
classification based on dynamic functional connectivity networks (dFCNs), such
as Alzheimer's disease (AD), achieving better performance than traditional
machine learning methods. However, in CRNs, the continuous convolution
operations used to obtain high-order aggregation features may overlook the
non-linear correlation between different brain regions due to the essence of
convolution being the linear weighted sum of local elements. Inspired by modern
neuroscience on the research of covert attention in the nervous system, we
introduce the self-attention mechanism, a core module of Transformers, to model
diversified covert attention patterns and apply these patterns to reconstruct
high-order sequence features of dFCNs in order to learn complex dynamic changes
in brain information flow. Therefore, we propose a novel CRN method based on
diversified covert attention patterns, DCA-CRN, which combines the advantages
of CRNs in capturing local spatio-temporal features and sequence change
patterns, as well as Transformers in learning global and high-order correlation
features. Experimental results on the ADNI and ADHD-200 datasets demonstrate
the prediction performance and generalization ability of our proposed method.
- Abstract(参考訳): 近年の研究では、畳み込みリカレントニューラルネットワーク(CRN)やトランスフォーマーなどのディープラーニング手法を、アルツハイマー病(AD)のような動的機能接続ネットワーク(dFCN)に基づく脳疾患分類に適用し、従来の機械学習手法よりも優れたパフォーマンスを実現している。
しかし、crnでは、高次集計特徴を得るために使用される連続畳み込み操作は、畳み込みの本質が局所要素の線形重み付け和であるため、異なる脳領域間の非線形相関を見逃す可能性がある。
神経系における隠蔽注意の研究について、現代の神経科学に触発されて、トランスフォーマーのコアモジュールである自己注意機構を導入し、多彩な隠蔽注意パターンをモデル化し、これらのパターンを適用して、dFCNの高次配列の特徴を再構築し、脳情報の流れの複雑な動的変化を学習する。
そこで本研究では,局所時空間特徴とシーケンス変化パターンを抽出するCRNの利点と,グローバルおよび高次相関特徴を学習するトランスフォーマーを組み合わせた,多彩な隠蔽注意パターンに基づく新しいCRN手法DCA-CRNを提案する。
ADNIとADHD-200データセットの実験結果は,提案手法の予測性能と一般化能力を示す。
関連論文リスト
- Generative forecasting of brain activity enhances Alzheimer's classification and interpretation [16.09844316281377]
静止状態機能型磁気共鳴イメージング(rs-fMRI)は、神経活動を監視する非侵襲的な方法を提供する。
深層学習はこれらの表現を捉えることを約束している。
本研究では,データ拡張の一形態として,rs-fMRIから派生した独立成分ネットワークの時系列予測に着目した。
論文 参考訳(メタデータ) (2024-10-30T23:51:31Z) - TAVRNN: Temporal Attention-enhanced Variational Graph RNN Captures Neural Dynamics and Behavior [2.5282283486446757]
時間注意強調変動グラフリカレントニューラルネットワーク(TAVRNN)について紹介する。
TAVRNNは、神経活動のシーケンシャルスナップショットをモデル化することにより、ネットワーク構造の時間的変化をキャプチャする。
TAVRNNは,分類,クラスタリング,計算効率において,従来のベースラインモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-10-01T13:19:51Z) - Neural Dynamics Model of Visual Decision-Making: Learning from Human Experts [28.340344705437758]
視覚入力から行動出力まで,包括的な視覚的意思決定モデルを実装した。
我々のモデルは人間の行動と密接に一致し、霊長類の神経活動を反映する。
ニューロイメージング・インフォームド・ファインチューニング手法を導入し、モデルに適用し、性能改善を実現した。
論文 参考訳(メタデータ) (2024-09-04T02:38:52Z) - Exploring neural oscillations during speech perception via surrogate gradient spiking neural networks [59.38765771221084]
本稿では、ディープラーニングフレームワークと互換性があり、スケーラブルな、生理学的にインスパイアされた音声認識アーキテクチャを提案する。
本研究では, 終末から終末までの勾配降下訓練が, 中枢スパイク神経ネットワークにおける神経振動の出現に繋がることを示す。
本研究は, スパイク周波数適応やリカレント接続などのフィードバック機構が, 認識性能を向上させるために, 神経活動の調節と同期に重要な役割を担っていることを明らかにする。
論文 参考訳(メタデータ) (2024-04-22T09:40:07Z) - An Association Test Based on Kernel-Based Neural Networks for Complex
Genetic Association Analysis [0.8221435109014762]
従来のニューラルネットワークと線形混合モデルの強度を相乗化するカーネルベースニューラルネットワークモデル(KNN)を開発した。
MINQUEに基づく遺伝子変異と表現型との結合性を評価する試験。
線形および非線形/非付加的遺伝子効果の評価と解釈のための2つの追加試験。
論文 参考訳(メタデータ) (2023-12-06T05:02:28Z) - Neural oscillators for magnetic hysteresis modeling [0.7444373636055321]
ヒステリシスは科学と工学においてユビキタスな現象である。
この現象をモデル化し定量化するために, 常微分方程式に基づくリカレントニューラルネットワーク (RNN) 手法を開発した。
論文 参考訳(メタデータ) (2023-08-23T08:41:24Z) - Cross-Frequency Coupling Increases Memory Capacity in Oscillatory Neural
Networks [69.42260428921436]
クロス周波数カップリング(CFC)は、ニューロンの集団間での情報統合と関連している。
我々は,海馬および大脳皮質における観測された$theta - gamma$振動回路の計算的役割を予測するCFCのモデルを構築した。
CFCの存在は, 可塑性シナプスによって結合された神経細胞のメモリ容量を増加させることを示す。
論文 参考訳(メタデータ) (2022-04-05T17:13:36Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。