論文の概要: Decomposed Linear Dynamical Systems (dLDS) for learning the latent
components of neural dynamics
- arxiv url: http://arxiv.org/abs/2206.02972v1
- Date: Tue, 7 Jun 2022 02:25:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-08 14:23:25.867477
- Title: Decomposed Linear Dynamical Systems (dLDS) for learning the latent
components of neural dynamics
- Title(参考訳): ニューラルネットワークの潜伏成分を学習するための分解線形力学系(dLDS)
- Authors: Noga Mudrik, Yenho Chen, Eva Yezerets, Christopher J. Rozell, and Adam
S. Charles
- Abstract要約: 神経力学のモデルは、しばしば、低次元の神経活動の投射、または時間とともに神経状態に明示的に関係する力学系を学ぶことに焦点を当てる。
本稿では,より単純で解釈しやすいコンポーネントのスパース結合として,時系列データの非定常および非線形の複雑なダイナミクスを表現した新しい分解力学系モデルを提案する。
低次元線形および非線形誘引器を用いて, 分解された力学系モデルが非線形力学をうまく近似できることを示す。
- 参考スコア(独自算出の注目度): 6.829711787905569
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning interpretable representations of neural dynamics at a population
level is a crucial first step to understanding how neural activity relates to
perception and behavior. Models of neural dynamics often focus on either
low-dimensional projections of neural activity, or on learning dynamical
systems that explicitly relate to the neural state over time. We discuss how
these two approaches are interrelated by considering dynamical systems as
representative of flows on a low-dimensional manifold. Building on this
concept, we propose a new decomposed dynamical system model that represents
complex non-stationary and nonlinear dynamics of time-series data as a sparse
combination of simpler, more interpretable components. The decomposed nature of
the dynamics generalizes over previous switched approaches and enables modeling
of overlapping and non-stationary drifts in the dynamics. We further present a
dictionary learning-driven approach to model fitting, where we leverage recent
results in tracking sparse vectors over time. We demonstrate that our model can
learn efficient representations and smooth transitions between dynamical modes
in both continuous-time and discrete-time examples. We show results on
low-dimensional linear and nonlinear attractors to demonstrate that our
decomposed dynamical systems model can well approximate nonlinear dynamics.
Additionally, we apply our model to C. elegans data, illustrating a diversity
of dynamics that is obscured when classified into discrete states.
- Abstract(参考訳): 集団レベルでの神経動力学の解釈可能な表現を学ぶことは、神経活動が知覚と行動にどのように関連しているかを理解するための重要な第一歩である。
ニューラルダイナミクスのモデルでは、神経活動の低次元の投影や、時間とともに神経の状態に明示的に関係する力学系の学習にしばしば焦点が当てられる。
低次元多様体上の流れの表現として力学系を考えることにより、これらの2つのアプローチがどのように相互関係を持つかについて議論する。
この概念に基づいて,時系列データの複雑な非定常および非線形ダイナミクスを,より単純で解釈可能なコンポーネントの疎結合として表現する,新しい分解力学系モデルを提案する。
ダイナミクスの分解的な性質は、以前のスイッチングアプローチを一般化し、ダイナミクスにおける重複と非定常ドリフトのモデリングを可能にする。
さらに,モデルフィッティングに対する辞書学習駆動型アプローチを提案し,近年の結果を利用してスパースベクトルの時間的追跡を行う。
本モデルでは,連続時間と離散時間の両方において,動的モード間の効率的な表現と滑らかな遷移を学習できることを実証する。
低次元線形および非線形誘引器を用いて, 分解された力学系モデルが非線形力学をうまく近似できることを示す。
さらに,このモデルをc. elegansデータに適用し,離散状態に分類した場合のダイナミクスの多様性を明らかにした。
関連論文リスト
- Equivariant Graph Neural Operator for Modeling 3D Dynamics [153.9455825436751]
Equivariant Graph Neural Operator (EGNO) は,次のステップの予測に代えて,ダイナミックスを直接トラジェクトリとしてモデル化する,斬新で原理的な手法である。
EGNOは3次元力学の時間的進化を明示的に学習し、時間とともに関数として力学を定式化し、それを近似するためにニューラル演算子を学習する。
粒子シミュレーション、人間のモーションキャプチャー、分子動力学を含む複数の領域における総合的な実験は、既存の手法と比較して、EGNOの極めて優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-19T21:50:32Z) - Semi-Supervised Learning of Dynamical Systems with Neural Ordinary
Differential Equations: A Teacher-Student Model Approach [10.20098335268973]
TS-NODEは、NODEで動的システムのモデリングを行うための、最初の半教師付きアプローチである。
複数の動的システムモデリングタスクにおいて,ベースラインのNeural ODEモデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-10-19T19:17:12Z) - Contrastive-Signal-Dependent Plasticity: Forward-Forward Learning of
Spiking Neural Systems [73.18020682258606]
我々は、ニューロンの個々の層が並列に機能する、スパイキングニューロンユニットからなる神経模倣アーキテクチャを開発する。
コントラスト信号依存塑性(CSDP)と呼ばれるイベントベース前方学習の一般化を提案する。
いくつかのパターンデータセットに対する実験結果から,CSDPプロセスは分類と再構成の両方が可能な動的再帰スパイクネットワークのトレーニングに有効であることが示された。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - Learning Fine Scale Dynamics from Coarse Observations via Inner
Recurrence [0.0]
最近の研究は、ディープニューラルネットワーク(DNN)による未知のシステムの進化に関するデータ駆動学習に焦点を当てている。
本稿では,このような粗い観測データから微細な力学を学習するための計算手法を提案する。
論文 参考訳(メタデータ) (2022-06-03T20:28:52Z) - Physics guided neural networks for modelling of non-linear dynamics [0.0]
この研究は、ディープニューラルネットワークの中間層に部分的に既知の情報を注入することで、モデルの精度を向上し、モデルの不確実性を低減し、トレーニング中に収束性を向上させることを実証する。
これらの物理誘導ニューラルネットワークの価値は、非線形系理論においてよく知られた5つの方程式で表される様々な非線形力学系の力学を学習することによって証明されている。
論文 参考訳(メタデータ) (2022-05-13T19:06:36Z) - Learning Individual Interactions from Population Dynamics with
Discrete-Event Simulation Model [6.914113067391971]
複雑なシステム力学の離散時間シミュレーション表現を学習する可能性について検討する。
この結果から,本アルゴリズムは,意味のあるイベントを持つ複数のフィールドにおいて,複雑なネットワークダイナミクスをデータ効率よくキャプチャできることがわかった。
論文 参考訳(メタデータ) (2022-05-04T21:33:56Z) - Capturing Actionable Dynamics with Structured Latent Ordinary
Differential Equations [68.62843292346813]
本稿では,その潜在表現内でのシステム入力の変動をキャプチャする構造付き潜在ODEモデルを提案する。
静的変数仕様に基づいて,本モデルではシステムへの入力毎の変動要因を学習し,潜在空間におけるシステム入力の影響を分離する。
論文 参考訳(メタデータ) (2022-02-25T20:00:56Z) - Learning Continuous System Dynamics from Irregularly-Sampled Partial
Observations [33.63818978256567]
グラフ構造を持つ多エージェント動的システムをモデル化するための潜在常微分方程式生成モデルLG-ODEを提案する。
高次元軌跡の埋め込みと連続潜伏系力学を同時に学習することができる。
我々のモデルは、教師なしの方法で初期状態を推論できるグラフニューラルネットワークによってパラメータ化された新しいエンコーダを採用している。
論文 参考訳(メタデータ) (2020-11-08T01:02:22Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z) - Learning Stable Deep Dynamics Models [91.90131512825504]
状態空間全体にわたって安定することが保証される力学系を学習するためのアプローチを提案する。
このような学習システムは、単純な力学系をモデル化することができ、複雑な力学を学習するために追加の深層生成モデルと組み合わせることができることを示す。
論文 参考訳(メタデータ) (2020-01-17T00:04:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。