論文の概要: Learning low-dimensional dynamics from whole-brain data improves task
capture
- arxiv url: http://arxiv.org/abs/2305.14369v1
- Date: Thu, 18 May 2023 18:43:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-28 04:51:36.172471
- Title: Learning low-dimensional dynamics from whole-brain data improves task
capture
- Title(参考訳): 全体脳データからの低次元ダイナミクス学習によるタスクキャプチャの改善
- Authors: Eloy Geenjaar, Donghyun Kim, Riyasat Ohib, Marlena Duda, Amrit
Kashyap, Sergey Plis, Vince Calhoun
- Abstract要約: 逐次変分オートエンコーダ(SVAE)を用いたニューラルダイナミクスの低次元近似学習手法を提案する。
本手法は,従来の手法よりも精度の高い認知過程を予測できるスムーズなダイナミクスを見出す。
我々は、モータ、ワーキングメモリ、リレーショナル処理タスクを含む様々なタスクfMRIデータセットに対するアプローチを評価した。
- 参考スコア(独自算出の注目度): 2.82277518679026
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The neural dynamics underlying brain activity are critical to understanding
cognitive processes and mental disorders. However, current voxel-based
whole-brain dimensionality reduction techniques fall short of capturing these
dynamics, producing latent timeseries that inadequately relate to behavioral
tasks. To address this issue, we introduce a novel approach to learning
low-dimensional approximations of neural dynamics by using a sequential
variational autoencoder (SVAE) that represents the latent dynamical system via
a neural ordinary differential equation (NODE). Importantly, our method finds
smooth dynamics that can predict cognitive processes with accuracy higher than
classical methods. Our method also shows improved spatial localization to
task-relevant brain regions and identifies well-known structures such as the
motor homunculus from fMRI motor task recordings. We also find that non-linear
projections to the latent space enhance performance for specific tasks,
offering a promising direction for future research. We evaluate our approach on
various task-fMRI datasets, including motor, working memory, and relational
processing tasks, and demonstrate that it outperforms widely used
dimensionality reduction techniques in how well the latent timeseries relates
to behavioral sub-tasks, such as left-hand or right-hand tapping. Additionally,
we replace the NODE with a recurrent neural network (RNN) and compare the two
approaches to understand the importance of explicitly learning a dynamical
system. Lastly, we analyze the robustness of the learned dynamical systems
themselves and find that their fixed points are robust across seeds,
highlighting our method's potential for the analysis of cognitive processes as
dynamical systems.
- Abstract(参考訳): 脳活動の基盤となる神経動力学は、認知過程や精神障害を理解する上で重要である。
しかし、現在のvoxelベースの全脳次元減少技術は、これらのダイナミクスを捉えるのに足りず、動作タスクに不適切な潜在時系列を生成する。
この問題に対処するために,ニューラル常微分方程式(NODE)を介して潜在力学系を表す逐次変分オートエンコーダ(SVAE)を用いて,ニューラルダイナミクスの低次元近似を学習する新しい手法を提案する。
さらに,従来の手法よりも精度の高い認知過程を予測できるスムースなダイナミクスを見出した。
また, 課題関連脳領域への空間的局在の改善や, fmri 運動課題記録から運動ホマルスなどの既知の構造を同定する。
また、潜在空間への非線形投影は特定のタスクのパフォーマンスを高め、将来の研究に有望な方向を提供する。
我々は,運動,作業記憶,リレーショナル処理タスクなど,さまざまなタスクfMRIデータセットに対するアプローチを評価するとともに,左手や右手のタッピングなどの動作サブタスクの関連性について,広く使われている次元削減技術より優れていることを示す。
さらに、NODEをリカレントニューラルネットワーク(RNN)に置き換え、動的システムを明示的に学習することの重要性を理解するための2つのアプローチを比較する。
最後に, 学習した力学系自体のロバスト性を分析し, その不動点が種子全体にわたって頑健であることを見出し, 認知過程を力学系として解析する手法の可能性を強調した。
関連論文リスト
- Deep Learning-based Analysis of Basins of Attraction [49.812879456944984]
本研究は,様々な力学系における盆地の複雑さと予測不可能性を特徴づけることの課題に対処する。
主な焦点は、この分野における畳み込みニューラルネットワーク(CNN)の効率性を示すことである。
論文 参考訳(メタデータ) (2023-09-27T15:41:12Z) - Contrastive-Signal-Dependent Plasticity: Forward-Forward Learning of
Spiking Neural Systems [73.18020682258606]
我々は、ニューロンの個々の層が並列に機能する、スパイキングニューロンユニットからなる神経模倣アーキテクチャを開発する。
コントラスト信号依存塑性(CSDP)と呼ばれるイベントベース前方学習の一般化を提案する。
いくつかのパターンデータセットに対する実験結果から,CSDPプロセスは分類と再構成の両方が可能な動的再帰スパイクネットワークのトレーニングに有効であることが示された。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Expressive architectures enhance interpretability of dynamics-based
neural population models [2.294014185517203]
シミュレーションされたニューラルネットワークから潜在カオスを引き付ける際のシーケンシャルオートエンコーダ(SAE)の性能を評価する。
広帯域再帰型ニューラルネットワーク(RNN)を用いたSAEでは,真の潜在状態次元での正確な発射速度を推定できないことがわかった。
論文 参考訳(メタデータ) (2022-12-07T16:44:26Z) - STNDT: Modeling Neural Population Activity with a Spatiotemporal
Transformer [19.329190789275565]
我々は、個々のニューロンの応答を明示的にモデル化するNDTベースのアーキテクチャであるSpatioTemporal Neural Data Transformer (STNDT)を紹介する。
本モデルは,4つのニューラルデータセット間での神経活動の推定において,アンサンブルレベルでの最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2022-06-09T18:54:23Z) - Decomposed Linear Dynamical Systems (dLDS) for learning the latent
components of neural dynamics [6.829711787905569]
本稿では,時系列データの非定常および非線形の複雑なダイナミクスを表現した新しい分解力学系モデルを提案する。
我々のモデルは辞書学習によって訓練され、最近の結果を利用してスパースベクトルを時間とともに追跡する。
連続時間と離散時間の両方の指導例において、我々のモデルは元のシステムによく近似できることを示した。
論文 参考訳(メタデータ) (2022-06-07T02:25:38Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - Neuronal Learning Analysis using Cycle-Consistent Adversarial Networks [4.874780144224057]
我々は、-CycleGANと呼ばれる深層生成モデルを用いて、前学習と後学習の神経活動の間の未知のマッピングを学習する。
我々は,カルシウム蛍光信号を前処理し,訓練し,評価するためのエンドツーエンドパイプラインを開発し,その結果の深層学習モデルを解釈する手法を開発した。
論文 参考訳(メタデータ) (2021-11-25T13:24:19Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - LQResNet: A Deep Neural Network Architecture for Learning Dynamic
Processes [9.36739413306697]
データ駆動型アプローチ、すなわちオペレータ推論フレームワークは、動的プロセスをモデル化する。
演算子推論と特定のディープニューラルネットワークアプローチを組み合わせることで、システムの未知の非線形ダイナミクスを推定することを提案する。
論文 参考訳(メタデータ) (2021-03-03T08:19:43Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。