論文の概要: Discovering Dynamic Functional Brain Networks via Spatial and
Channel-wise Attention
- arxiv url: http://arxiv.org/abs/2205.09576v1
- Date: Thu, 19 May 2022 14:15:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-20 22:40:23.312546
- Title: Discovering Dynamic Functional Brain Networks via Spatial and
Channel-wise Attention
- Title(参考訳): 空間的・チャネル的注意による動的機能脳ネットワークの発見
- Authors: Yiheng Liu, Enjie Ge, Mengshen He, Zhengliang Liu, Shijie Zhao, Xintao
Hu, Dajiang Zhu, Tianming Liu, Bao Ge
- Abstract要約: 本研究では,機能的脳ネットワーク(FBN)を動的に発見するための新しい空間的・チャネル的注意自動符号化器(SCAAE)を提案する。
提案手法は,各fMRI時間ステップにおけるFBNの動的変化を,スライディングウィンドウを使わずに効果的に回復できることを示す。
- 参考スコア(独自算出の注目度): 5.52990656631654
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Using deep learning models to recognize functional brain networks (FBNs) in
functional magnetic resonance imaging (fMRI) has been attracting increasing
interest recently. However, most existing work focuses on detecting static FBNs
from entire fMRI signals, such as correlation-based functional connectivity.
Sliding-window is a widely used strategy to capture the dynamics of FBNs, but
it is still limited in representing intrinsic functional interactive dynamics
at each time step. And the number of FBNs usually need to be set manually. More
over, due to the complexity of dynamic interactions in brain, traditional
linear and shallow models are insufficient in identifying complex and spatially
overlapped FBNs across each time step. In this paper, we propose a novel
Spatial and Channel-wise Attention Autoencoder (SCAAE) for discovering FBNs
dynamically. The core idea of SCAAE is to apply attention mechanism to FBNs
construction. Specifically, we designed two attention modules: 1) spatial-wise
attention (SA) module to discover FBNs in the spatial domain and 2) a
channel-wise attention (CA) module to weigh the channels for selecting the FBNs
automatically. We evaluated our approach on ADHD200 dataset and our results
indicate that the proposed SCAAE method can effectively recover the dynamic
changes of the FBNs at each fMRI time step, without using sliding windows. More
importantly, our proposed hybrid attention modules (SA and CA) do not enforce
assumptions of linearity and independence as previous methods, and thus provide
a novel approach to better understanding dynamic functional brain networks.
- Abstract(参考訳): 機能的脳ネットワーク(fbns)を機能的磁気共鳴イメージング(fmri)で認識するディープラーニングモデルの利用が近年注目を集めている。
しかし、既存の研究のほとんどは、相関に基づく機能接続など、fMRI信号全体から静的FBNを検出することに重点を置いている。
スライディング・ウィンドウはFBNのダイナミクスを捉えるために広く使われている戦略であるが、各ステップで固有の機能的インタラクティブなダイナミクスを表現することにはまだ限界がある。
また、FBNの数は手動で設定する必要がある。
さらに、脳における動的相互作用の複雑さのため、従来の線形モデルや浅いモデルは、時間ステップごとに複雑で空間的に重なり合うfbnを識別するのに不十分である。
本稿では,FBNを動的に発見するための空間的・チャネル的アテンションオートエンコーダ(SCAAE)を提案する。
SCAAEの中核となる考え方は、FBNの構築に注意機構を適用することである。
具体的には2つの注意モジュールを設計しました
1)空間的注意(SA)モジュールによる空間領域におけるFBNの発見
2)FBNを自動選択するためのチャンネルを重み付けするチャネルワイドアテンション(CA)モジュール。
我々はADHD200データセットに対するアプローチを評価し,提案手法はスライドウィンドウを用いることなく,各fMRI時間ステップにおけるFBNの動的変化を効果的に回復できることを示す。
さらに,我々の提案するハイブリッドアテンションモジュール (SA, CA) は,線形性や独立性の仮定を従来の手法として強制せず,機能的脳ネットワークをよりよく理解するための新しいアプローチを提供する。
関連論文リスト
- MCDGLN: Masked Connection-based Dynamic Graph Learning Network for Autism Spectrum Disorder [22.868178383662823]
我々はMasked Connection-based Dynamic Graph Learning Network (MCDGLN)を紹介する。
提案手法はまず,スライディング時間窓を用いてBOLD信号を分割し,脳のダイナミックな特徴を捉える。
タスク固有のマスクを用いて静的機能接続を洗練し、ノイズを低減し、無関係リンクを切断する。
論文 参考訳(メタデータ) (2024-09-10T02:21:29Z) - BrainMAE: A Region-aware Self-supervised Learning Framework for Brain Signals [11.030708270737964]
本稿では,fMRI時系列データから直接表現を学習するBrain Masked Auto-Encoder(BrainMAE)を提案する。
BrainMAEは、4つの異なる下流タスクにおいて、確立されたベースラインメソッドをかなりのマージンで一貫して上回っている。
論文 参考訳(メタデータ) (2024-06-24T19:16:24Z) - Fully Spiking Actor Network with Intra-layer Connections for
Reinforcement Learning [51.386945803485084]
エージェントが制御する多次元決定論的ポリシーを学習する必要があるタスクに焦点をあてる。
既存のスパイクベースのRL法は、SNNの出力として発火率を取り、完全に接続された層を通して連続的なアクション空間(つまり決定論的なポリシー)を表すように変換する。
浮動小数点行列操作を伴わない完全にスパイクするアクターネットワークを開発するため,昆虫に見られる非スパイク介在ニューロンからインスピレーションを得た。
論文 参考訳(メタデータ) (2024-01-09T07:31:34Z) - Sparse Modular Activation for Efficient Sequence Modeling [94.11125833685583]
線形状態空間モデルと自己アテンション機構を組み合わせた最近のモデルでは、様々なシーケンスモデリングタスクにおいて顕著な結果が示されている。
現在のアプローチでは、アテンションモジュールを静的かつ均一に入力シーケンスのすべての要素に適用し、最適以下の品質効率のトレードオフをもたらす。
SMA(Sparse Modular Activation)は,ニューラルネットワークが配列要素のサブモジュールを異なる方法でスパースに活性化する機構である。
論文 参考訳(メタデータ) (2023-06-19T23:10:02Z) - Spatial-Temporal Convolutional Attention for Mapping Functional Brain
Networks [4.366088315820477]
本研究では,スライディングウインドウを用いて動的脳ネットワーク(FBN)を発見するための新しい空間時間畳み込み注意(STCA)モデルを提案する。
結果は、STCAが人間の脳をよりよく理解するための新しいアプローチを提供するダイナミックな方法でFBNを発見するのに使用できることを示唆している。
論文 参考訳(メタデータ) (2022-11-04T08:36:09Z) - A Generic Shared Attention Mechanism for Various Backbone Neural Networks [53.36677373145012]
自己注意モジュール(SAM)は、異なる層にまたがる強い相関した注意マップを生成する。
Dense-and-Implicit Attention (DIA)はSAMをレイヤ間で共有し、長期間のメモリモジュールを使用する。
我々のシンプルで効果的なDIAは、様々なネットワークバックボーンを一貫して拡張できます。
論文 参考訳(メタデータ) (2022-10-27T13:24:08Z) - Learning Comprehensive Motion Representation for Action Recognition [124.65403098534266]
2d cnnベースのメソッドは効率的であるが、各フレームに同じ2d畳み込みカーネルを適用することで冗長な機能が得られる。
最近の試みは、フレーム間接続を確立しながら、時間的受容野や高いレイテンシに苦しめながら、動き情報をキャプチャしようとするものである。
チャネルワイズゲートベクトルを用いた動的情報に関連するチャネルを適応的に強調するCME(Channel-wise Motion Enhancement)モジュールを提案する。
また,近接する特徴写像の点対点類似性に応じて,重要な目標を持つ領域に焦点をあてる空間的運動強調(SME)モジュールを提案する。
論文 参考訳(メタデータ) (2021-03-23T03:06:26Z) - A journey in ESN and LSTM visualisations on a language task [77.34726150561087]
我々は,CSL(Cross-Situationnal Learning)タスクでESNとLSTMを訓練した。
その結果, 性能比較, 内部力学解析, 潜伏空間の可視化の3種類が得られた。
論文 参考訳(メタデータ) (2020-12-03T08:32:01Z) - Efficient Attention Network: Accelerate Attention by Searching Where to
Plug [11.616720452770322]
本稿では,既存のアテンションモジュールの効率を改善するために,EAN(Efficient Attention Network)というフレームワークを提案する。
EANでは、共有メカニズムを活用して、バックボーン内のアテンションモジュールを共有し、強化学習を通じて共有アテンションモジュールを接続する場所を探索する。
広く使われているベンチマークと一般的な注意ネットワークの実験は、EANの有効性を示している。
論文 参考訳(メタデータ) (2020-11-28T03:31:08Z) - Theory of gating in recurrent neural networks [5.672132510411465]
リカレントニューラルネットワーク(Recurrent Neural Network, RNN)は、機械学習(ML)や神経科学で広く使われている強力な動的モデルである。
ここでは、ゲーティングが集合力学の2つの健全な特徴を柔軟に制御できることを示す。
ゲート制御の時間スケールは、ネットワークがフレキシブルインテグレータとして機能する、新しい、極端に安定な状態につながる。
論文 参考訳(メタデータ) (2020-07-29T13:20:58Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。