論文の概要: Reconstructing high-order sequence features of dynamic functional
connectivity networks based on diversified covert attention patterns for
Alzheimer's disease classification
- arxiv url: http://arxiv.org/abs/2211.11750v2
- Date: Mon, 4 Sep 2023 12:05:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 07:14:11.560355
- Title: Reconstructing high-order sequence features of dynamic functional
connectivity networks based on diversified covert attention patterns for
Alzheimer's disease classification
- Title(参考訳): アルツハイマー病分類のための多角的隠れ注意パターンに基づく動的機能接続ネットワークの高次配列特徴の再構成
- Authors: Zhixiang Zhang, Biao Jie, Zhengdong Wang, Jie Zhou, Yang Yang
- Abstract要約: 我々はトランスフォーマーのコアモジュールである自己注意機構を導入し、多彩な注意パターンをモデル化し、これらのパターンを適用してdFCNの高次シーケンス特性を再構築する。
本研究では,局所的時間的特徴とシーケンス変化パターンをキャプチャするCRNの利点と,大域的および高次的相関特徴の学習におけるトランスフォーマーを組み合わせた,多角化注意パターンに基づくCRN手法DCA-CRNを提案する。
- 参考スコア(独自算出の注目度): 22.57052592437276
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent studies have applied deep learning methods such as convolutional
recurrent neural networks (CRNs) and Transformers to brain disease
classification based on dynamic functional connectivity networks (dFCNs), such
as Alzheimer's disease (AD), achieving better performance than traditional
machine learning methods. However, in CRNs, the continuous convolution
operations used to obtain high-order aggregation features may overlook the
non-linear correlation between different brain regions due to the essence of
convolution being the linear weighted sum of local elements. Inspired by modern
neuroscience on the research of covert attention in the nervous system, we
introduce the self-attention mechanism, a core module of Transformers, to model
diversified covert attention patterns and apply these patterns to reconstruct
high-order sequence features of dFCNs in order to learn complex dynamic changes
in brain information flow. Therefore, we propose a novel CRN method based on
diversified covert attention patterns, DCA-CRN, which combines the advantages
of CRNs in capturing local spatio-temporal features and sequence change
patterns, as well as Transformers in learning global and high-order correlation
features. Experimental results on the ADNI and ADHD-200 datasets demonstrate
the prediction performance and generalization ability of our proposed method.
- Abstract(参考訳): 近年の研究では、畳み込みリカレントニューラルネットワーク(CRN)やトランスフォーマーなどのディープラーニング手法を、アルツハイマー病(AD)のような動的機能接続ネットワーク(dFCN)に基づく脳疾患分類に適用し、従来の機械学習手法よりも優れたパフォーマンスを実現している。
しかし、crnでは、高次集計特徴を得るために使用される連続畳み込み操作は、畳み込みの本質が局所要素の線形重み付け和であるため、異なる脳領域間の非線形相関を見逃す可能性がある。
神経系における隠蔽注意の研究について、現代の神経科学に触発されて、トランスフォーマーのコアモジュールである自己注意機構を導入し、多彩な隠蔽注意パターンをモデル化し、これらのパターンを適用して、dFCNの高次配列の特徴を再構築し、脳情報の流れの複雑な動的変化を学習する。
そこで本研究では,局所時空間特徴とシーケンス変化パターンを抽出するCRNの利点と,グローバルおよび高次相関特徴を学習するトランスフォーマーを組み合わせた,多彩な隠蔽注意パターンに基づく新しいCRN手法DCA-CRNを提案する。
ADNIとADHD-200データセットの実験結果は,提案手法の予測性能と一般化能力を示す。
関連論文リスト
- Classification of Mild Cognitive Impairment Based on Dynamic Functional Connectivity Using Spatio-Temporal Transformer [30.044545011553172]
本稿では,dFC内における空間情報と時間情報の両方の埋め込みを共同で学習する新しい枠組みを提案する。
アルツハイマー病神経画像イニシアチブ(ADNI)から570回のスキャンを行った345名の被験者を対象に,提案手法の優位性を実証した。
論文 参考訳(メタデータ) (2025-01-27T18:20:33Z) - Trainable Adaptive Activation Function Structure (TAAFS) Enhances Neural Network Force Field Performance with Only Dozens of Additional Parameters [0.0]
TAAFS(Treatable Adaptive Function Activation Structure)
非線形なアクティベーションのための数学的定式化を選択する方法を提案する。
本研究では、TAAFSを様々なニューラルネットワークモデルに統合し、精度の向上を観察する。
論文 参考訳(メタデータ) (2024-12-19T09:06:39Z) - Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - Generative forecasting of brain activity enhances Alzheimer's classification and interpretation [16.09844316281377]
静止状態機能型磁気共鳴イメージング(rs-fMRI)は、神経活動を監視する非侵襲的な方法を提供する。
深層学習はこれらの表現を捉えることを約束している。
本研究では,データ拡張の一形態として,rs-fMRIから派生した独立成分ネットワークの時系列予測に着目した。
論文 参考訳(メタデータ) (2024-10-30T23:51:31Z) - TAVRNN: Temporal Attention-enhanced Variational Graph RNN Captures Neural Dynamics and Behavior [2.5282283486446757]
時間注意強調変動グラフリカレントニューラルネットワーク(TAVRNN)について紹介する。
TAVRNNは、神経活動のシーケンシャルスナップショットをモデル化することにより、ネットワーク構造の時間的変化をキャプチャする。
TAVRNNは,分類,クラスタリング,計算効率において,従来のベースラインモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-10-01T13:19:51Z) - Exploring neural oscillations during speech perception via surrogate gradient spiking neural networks [59.38765771221084]
本稿では、ディープラーニングフレームワークと互換性があり、スケーラブルな、生理学的にインスパイアされた音声認識アーキテクチャを提案する。
本研究では, 終末から終末までの勾配降下訓練が, 中枢スパイク神経ネットワークにおける神経振動の出現に繋がることを示す。
本研究は, スパイク周波数適応やリカレント接続などのフィードバック機構が, 認識性能を向上させるために, 神経活動の調節と同期に重要な役割を担っていることを明らかにする。
論文 参考訳(メタデータ) (2024-04-22T09:40:07Z) - Neural oscillators for magnetic hysteresis modeling [0.7444373636055321]
ヒステリシスは科学と工学においてユビキタスな現象である。
この現象をモデル化し定量化するために, 常微分方程式に基づくリカレントニューラルネットワーク (RNN) 手法を開発した。
論文 参考訳(メタデータ) (2023-08-23T08:41:24Z) - Cross-Frequency Coupling Increases Memory Capacity in Oscillatory Neural
Networks [69.42260428921436]
クロス周波数カップリング(CFC)は、ニューロンの集団間での情報統合と関連している。
我々は,海馬および大脳皮質における観測された$theta - gamma$振動回路の計算的役割を予測するCFCのモデルを構築した。
CFCの存在は, 可塑性シナプスによって結合された神経細胞のメモリ容量を増加させることを示す。
論文 参考訳(メタデータ) (2022-04-05T17:13:36Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。