論文の概要: Decomposed Linear Dynamical Systems (dLDS) for learning the latent
components of neural dynamics
- arxiv url: http://arxiv.org/abs/2206.02972v2
- Date: Fri, 16 Jun 2023 20:20:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 06:07:35.127510
- Title: Decomposed Linear Dynamical Systems (dLDS) for learning the latent
components of neural dynamics
- Title(参考訳): ニューラルネットワークの潜伏成分を学習するための分解線形力学系(dLDS)
- Authors: Noga Mudrik, Yenho Chen, Eva Yezerets, Christopher J. Rozell, and Adam
S. Charles
- Abstract要約: 本稿では,時系列データの非定常および非線形の複雑なダイナミクスを表現した新しい分解力学系モデルを提案する。
我々のモデルは辞書学習によって訓練され、最近の結果を利用してスパースベクトルを時間とともに追跡する。
連続時間と離散時間の両方の指導例において、我々のモデルは元のシステムによく近似できることを示した。
- 参考スコア(独自算出の注目度): 6.829711787905569
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning interpretable representations of neural dynamics at a population
level is a crucial first step to understanding how observed neural activity
relates to perception and behavior. Models of neural dynamics often focus on
either low-dimensional projections of neural activity, or on learning dynamical
systems that explicitly relate to the neural state over time. We discuss how
these two approaches are interrelated by considering dynamical systems as
representative of flows on a low-dimensional manifold. Building on this
concept, we propose a new decomposed dynamical system model that represents
complex non-stationary and nonlinear dynamics of time series data as a sparse
combination of simpler, more interpretable components. Our model is trained
through a dictionary learning procedure, where we leverage recent results in
tracking sparse vectors over time. The decomposed nature of the dynamics is
more expressive than previous switched approaches for a given number of
parameters and enables modeling of overlapping and non-stationary dynamics. In
both continuous-time and discrete-time instructional examples we demonstrate
that our model can well approximate the original system, learn efficient
representations, and capture smooth transitions between dynamical modes,
focusing on intuitive low-dimensional non-stationary linear and nonlinear
systems. Furthermore, we highlight our model's ability to efficiently capture
and demix population dynamics generated from multiple independent subnetworks,
a task that is computationally impractical for switched models. Finally, we
apply our model to neural "full brain" recordings of C. elegans data,
illustrating a diversity of dynamics that is obscured when classified into
discrete states.
- Abstract(参考訳): 集団レベルでの神経力学の解釈可能な表現を学習することは、観察された神経活動が知覚と行動にどのように関係するかを理解するための重要な第一歩である。
ニューラルダイナミクスのモデルでは、神経活動の低次元の投影や、時間とともに神経の状態に明示的に関係する力学系の学習にしばしば焦点が当てられる。
低次元多様体上の流れの表現として力学系を考えることにより、これらの2つのアプローチがどのように相互関係を持つかについて議論する。
この概念に基づいて,時系列データの複雑な非定常および非線形ダイナミクスを,より単純で解釈可能なコンポーネントの疎結合として表現する,新しい分解力学系モデルを提案する。
我々のモデルは辞書学習によって訓練され、最近の結果を利用してスパースベクトルを時間とともに追跡する。
動力学の分解的な性質は、与えられた数個のパラメータに対する以前のスイッチングアプローチよりも表現力が高く、オーバーラップと非定常ダイナミクスのモデリングを可能にする。
連続時間と離散時間の両方の指導例において、本モデルが元の系をよく近似し、効率的な表現を学習し、より直感的な低次元の非定常線形および非線形系に焦点を当てた動的モード間の滑らかな遷移をキャプチャできることを実証する。
さらに,複数の独立したサブネットワークから生成される個体群動態を効率よく捕捉・解凍する,モデルの性能を強調した。
最後に, c. elegans データの神経的"フルブレイン"記録にモデルを適用し, 離散的状態に分類すると不明瞭なダイナミクスの多様性を示す。
関連論文リスト
- Equivariant Graph Neural Operator for Modeling 3D Dynamics [153.9455825436751]
Equivariant Graph Neural Operator (EGNO) は,次のステップの予測に代えて,ダイナミックスを直接トラジェクトリとしてモデル化する,斬新で原理的な手法である。
EGNOは3次元力学の時間的進化を明示的に学習し、時間とともに関数として力学を定式化し、それを近似するためにニューラル演算子を学習する。
粒子シミュレーション、人間のモーションキャプチャー、分子動力学を含む複数の領域における総合的な実験は、既存の手法と比較して、EGNOの極めて優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-19T21:50:32Z) - Semi-Supervised Learning of Dynamical Systems with Neural Ordinary
Differential Equations: A Teacher-Student Model Approach [10.20098335268973]
TS-NODEは、NODEで動的システムのモデリングを行うための、最初の半教師付きアプローチである。
複数の動的システムモデリングタスクにおいて,ベースラインのNeural ODEモデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-10-19T19:17:12Z) - Contrastive-Signal-Dependent Plasticity: Forward-Forward Learning of
Spiking Neural Systems [73.18020682258606]
我々は、ニューロンの個々の層が並列に機能する、スパイキングニューロンユニットからなる神経模倣アーキテクチャを開発する。
コントラスト信号依存塑性(CSDP)と呼ばれるイベントベース前方学習の一般化を提案する。
いくつかのパターンデータセットに対する実験結果から,CSDPプロセスは分類と再構成の両方が可能な動的再帰スパイクネットワークのトレーニングに有効であることが示された。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - Learning Fine Scale Dynamics from Coarse Observations via Inner
Recurrence [0.0]
最近の研究は、ディープニューラルネットワーク(DNN)による未知のシステムの進化に関するデータ駆動学習に焦点を当てている。
本稿では,このような粗い観測データから微細な力学を学習するための計算手法を提案する。
論文 参考訳(メタデータ) (2022-06-03T20:28:52Z) - Physics guided neural networks for modelling of non-linear dynamics [0.0]
この研究は、ディープニューラルネットワークの中間層に部分的に既知の情報を注入することで、モデルの精度を向上し、モデルの不確実性を低減し、トレーニング中に収束性を向上させることを実証する。
これらの物理誘導ニューラルネットワークの価値は、非線形系理論においてよく知られた5つの方程式で表される様々な非線形力学系の力学を学習することによって証明されている。
論文 参考訳(メタデータ) (2022-05-13T19:06:36Z) - Learning Individual Interactions from Population Dynamics with
Discrete-Event Simulation Model [6.914113067391971]
複雑なシステム力学の離散時間シミュレーション表現を学習する可能性について検討する。
この結果から,本アルゴリズムは,意味のあるイベントを持つ複数のフィールドにおいて,複雑なネットワークダイナミクスをデータ効率よくキャプチャできることがわかった。
論文 参考訳(メタデータ) (2022-05-04T21:33:56Z) - Capturing Actionable Dynamics with Structured Latent Ordinary
Differential Equations [68.62843292346813]
本稿では,その潜在表現内でのシステム入力の変動をキャプチャする構造付き潜在ODEモデルを提案する。
静的変数仕様に基づいて,本モデルではシステムへの入力毎の変動要因を学習し,潜在空間におけるシステム入力の影響を分離する。
論文 参考訳(メタデータ) (2022-02-25T20:00:56Z) - Learning Continuous System Dynamics from Irregularly-Sampled Partial
Observations [33.63818978256567]
グラフ構造を持つ多エージェント動的システムをモデル化するための潜在常微分方程式生成モデルLG-ODEを提案する。
高次元軌跡の埋め込みと連続潜伏系力学を同時に学習することができる。
我々のモデルは、教師なしの方法で初期状態を推論できるグラフニューラルネットワークによってパラメータ化された新しいエンコーダを採用している。
論文 参考訳(メタデータ) (2020-11-08T01:02:22Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z) - Learning Stable Deep Dynamics Models [91.90131512825504]
状態空間全体にわたって安定することが保証される力学系を学習するためのアプローチを提案する。
このような学習システムは、単純な力学系をモデル化することができ、複雑な力学を学習するために追加の深層生成モデルと組み合わせることができることを示す。
論文 参考訳(メタデータ) (2020-01-17T00:04:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。