論文の概要: Reconstructing high-order sequence features of dynamic functional
connectivity networks based on diversified covert attention patterns for
Alzheimer's disease classification
- arxiv url: http://arxiv.org/abs/2211.11750v2
- Date: Mon, 4 Sep 2023 12:05:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 07:14:11.560355
- Title: Reconstructing high-order sequence features of dynamic functional
connectivity networks based on diversified covert attention patterns for
Alzheimer's disease classification
- Title(参考訳): アルツハイマー病分類のための多角的隠れ注意パターンに基づく動的機能接続ネットワークの高次配列特徴の再構成
- Authors: Zhixiang Zhang, Biao Jie, Zhengdong Wang, Jie Zhou, Yang Yang
- Abstract要約: 我々はトランスフォーマーのコアモジュールである自己注意機構を導入し、多彩な注意パターンをモデル化し、これらのパターンを適用してdFCNの高次シーケンス特性を再構築する。
本研究では,局所的時間的特徴とシーケンス変化パターンをキャプチャするCRNの利点と,大域的および高次的相関特徴の学習におけるトランスフォーマーを組み合わせた,多角化注意パターンに基づくCRN手法DCA-CRNを提案する。
- 参考スコア(独自算出の注目度): 22.57052592437276
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent studies have applied deep learning methods such as convolutional
recurrent neural networks (CRNs) and Transformers to brain disease
classification based on dynamic functional connectivity networks (dFCNs), such
as Alzheimer's disease (AD), achieving better performance than traditional
machine learning methods. However, in CRNs, the continuous convolution
operations used to obtain high-order aggregation features may overlook the
non-linear correlation between different brain regions due to the essence of
convolution being the linear weighted sum of local elements. Inspired by modern
neuroscience on the research of covert attention in the nervous system, we
introduce the self-attention mechanism, a core module of Transformers, to model
diversified covert attention patterns and apply these patterns to reconstruct
high-order sequence features of dFCNs in order to learn complex dynamic changes
in brain information flow. Therefore, we propose a novel CRN method based on
diversified covert attention patterns, DCA-CRN, which combines the advantages
of CRNs in capturing local spatio-temporal features and sequence change
patterns, as well as Transformers in learning global and high-order correlation
features. Experimental results on the ADNI and ADHD-200 datasets demonstrate
the prediction performance and generalization ability of our proposed method.
- Abstract(参考訳): 近年の研究では、畳み込みリカレントニューラルネットワーク(CRN)やトランスフォーマーなどのディープラーニング手法を、アルツハイマー病(AD)のような動的機能接続ネットワーク(dFCN)に基づく脳疾患分類に適用し、従来の機械学習手法よりも優れたパフォーマンスを実現している。
しかし、crnでは、高次集計特徴を得るために使用される連続畳み込み操作は、畳み込みの本質が局所要素の線形重み付け和であるため、異なる脳領域間の非線形相関を見逃す可能性がある。
神経系における隠蔽注意の研究について、現代の神経科学に触発されて、トランスフォーマーのコアモジュールである自己注意機構を導入し、多彩な隠蔽注意パターンをモデル化し、これらのパターンを適用して、dFCNの高次配列の特徴を再構築し、脳情報の流れの複雑な動的変化を学習する。
そこで本研究では,局所時空間特徴とシーケンス変化パターンを抽出するCRNの利点と,グローバルおよび高次相関特徴を学習するトランスフォーマーを組み合わせた,多彩な隠蔽注意パターンに基づく新しいCRN手法DCA-CRNを提案する。
ADNIとADHD-200データセットの実験結果は,提案手法の予測性能と一般化能力を示す。
関連論文リスト
- Exploring neural oscillations during speech perception via surrogate gradient spiking neural networks [59.38765771221084]
本稿では、ディープラーニングフレームワークと互換性があり、スケーラブルな、生理学的にインスパイアされた音声認識アーキテクチャを提案する。
本研究では, 終末から終末までの勾配降下訓練が, 中枢スパイク神経ネットワークにおける神経振動の出現に繋がることを示す。
本研究は, スパイク周波数適応やリカレント接続などのフィードバック機構が, 認識性能を向上させるために, 神経活動の調節と同期に重要な役割を担っていることを明らかにする。
論文 参考訳(メタデータ) (2024-04-22T09:40:07Z) - An Association Test Based on Kernel-Based Neural Networks for Complex
Genetic Association Analysis [0.8221435109014762]
従来のニューラルネットワークと線形混合モデルの強度を相乗化するカーネルベースニューラルネットワークモデル(KNN)を開発した。
MINQUEに基づく遺伝子変異と表現型との結合性を評価する試験。
線形および非線形/非付加的遺伝子効果の評価と解釈のための2つの追加試験。
論文 参考訳(メタデータ) (2023-12-06T05:02:28Z) - Neural oscillators for magnetic hysteresis modeling [0.7444373636055321]
ヒステリシスは科学と工学においてユビキタスな現象である。
この現象をモデル化し定量化するために, 常微分方程式に基づくリカレントニューラルネットワーク (RNN) 手法を開発した。
論文 参考訳(メタデータ) (2023-08-23T08:41:24Z) - Contrastive-Signal-Dependent Plasticity: Forward-Forward Learning of
Spiking Neural Systems [73.18020682258606]
我々は、ニューロンの個々の層が並列に機能する、スパイキングニューロンユニットからなる神経模倣アーキテクチャを開発する。
コントラスト信号依存塑性(CSDP)と呼ばれるイベントベース前方学習の一般化を提案する。
いくつかのパターンデータセットに対する実験結果から,CSDPプロセスは分類と再構成の両方が可能な動的再帰スパイクネットワークのトレーニングに有効であることが示された。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - A Deep Probabilistic Spatiotemporal Framework for Dynamic Graph
Representation Learning with Application to Brain Disorder Identification [6.701251840474303]
自閉症スペクトラム障害(ASD)識別のための動的脳内FCネットワークのトポロジカル構造を学習するための深い確率的枠組みが提案されている。
提案するフレームワークは,動的FCネットワークをまたいだリッチテンポラルパターンを捕捉する空間認識型リカレントニューラルネットワークと,学習したパターンを対象レベルの分類に活用する完全適合型ニューラルネットワークを備えている。
静止状態機能型磁気共鳴画像データセットの評価により,ASDの同定において,我々のフレームワークは最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-14T18:42:17Z) - Cross-Frequency Coupling Increases Memory Capacity in Oscillatory Neural
Networks [69.42260428921436]
クロス周波数カップリング(CFC)は、ニューロンの集団間での情報統合と関連している。
我々は,海馬および大脳皮質における観測された$theta - gamma$振動回路の計算的役割を予測するCFCのモデルを構築した。
CFCの存在は, 可塑性シナプスによって結合された神経細胞のメモリ容量を増加させることを示す。
論文 参考訳(メタデータ) (2022-04-05T17:13:36Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Spiking Neural Networks -- Part II: Detecting Spatio-Temporal Patterns [38.518936229794214]
スパイキングニューラルネットワーク(SNN)は、符号化された時間信号で情報を検出するユニークな能力を持つ。
SNNをリカレントニューラルネットワーク(RNN)とみなす支配的アプローチのためのモデルとトレーニングアルゴリズムについてレビューする。
スパイキングニューロンの確率モデルに頼り、勾配推定による局所学習規則の導出を可能にする別のアプローチについて述べる。
論文 参考訳(メタデータ) (2020-10-27T11:47:42Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。