論文の概要: Finding separatrices of dynamical flows with Deep Koopman Eigenfunctions
- arxiv url: http://arxiv.org/abs/2505.15231v1
- Date: Wed, 21 May 2025 08:04:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:59.212861
- Title: Finding separatrices of dynamical flows with Deep Koopman Eigenfunctions
- Title(参考訳): ディープ・クープマン固有関数による動的流れの分離
- Authors: Kabir V. Dabholkar, Omri Barak,
- Abstract要約: 本稿では,Deep Neural Networksと組み合わせたクープマン理論を応用し,セパラトリクスを効果的に特徴付ける数値的枠組みを提案する。
具体的には、実正の固有値に付随するクープマン固有関数(KEF)を近似し、セパラトリクスで正確に消滅する。
ニューロサイエンスにインスパイアされたタスクでトレーニングされた、合成ベンチマーク、生態ネットワークモデル、およびリカレントニューラルネットワークについて、我々のアプローチを実証する。
- 参考スコア(独自算出の注目度): 4.849550522970842
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many natural systems, including neural circuits involved in decision making, can be modeled as high-dimensional dynamical systems with multiple stable states. While existing analytical tools primarily describe behavior near stable equilibria, characterizing separatrices -- the manifolds that delineate boundaries between different basins of attraction -- remains challenging, particularly in high-dimensional settings. Here, we introduce a numerical framework leveraging Koopman Theory combined with Deep Neural Networks to effectively characterize separatrices. Specifically, we approximate Koopman Eigenfunctions (KEFs) associated with real positive eigenvalues, which vanish precisely at the separatrices. Utilizing these scalar KEFs, optimization methods efficiently locate separatrices even in complex systems. We demonstrate our approach on synthetic benchmarks, ecological network models, and recurrent neural networks trained on neuroscience-inspired tasks. Moreover, we illustrate the practical utility of our method by designing optimal perturbations that can shift systems across separatrices, enabling predictions relevant to optogenetic stimulation experiments in neuroscience.
- Abstract(参考訳): 意思決定に関わる神経回路を含む多くの自然系は、複数の安定状態を持つ高次元力学系としてモデル化することができる。
既存の分析ツールは、主に安定平衡付近の挙動を記述しているが、特に高次元の設定において、異なるアトラクションの流域の境界線を規定するセパラトリクスの特徴付けは困難である。
本稿では,Deep Neural Networksと組み合わせたクープマン理論を応用し,セパラトリクスを効果的に特徴付ける数値的枠組みを提案する。
具体的には、実正の固有値に付随するクープマン固有関数(KEF)を近似し、セパラトリクスで正確に消滅する。
これらのスカラーKEFを用いることで、複雑なシステムであっても、最適化手法は分離領域を効率的に見つけることができる。
ニューロサイエンスにインスパイアされたタスクでトレーニングされた、合成ベンチマーク、生態ネットワークモデル、およびリカレントニューラルネットワークについて、我々のアプローチを実証する。
さらに, 神経科学におけるオプトジェネティクス刺激実験に関連する予測を可能にするため, 腹腔内を移動可能な最適な摂動を設計し, 本手法の実用性について述べる。
関連論文リスト
- Fractional Spike Differential Equations Neural Network with Efficient Adjoint Parameters Training [63.3991315762955]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューロンからインスピレーションを得て、脳に似た計算の現実的なモデルを作成する。
既存のほとんどのSNNは、マルコフ特性を持つ一階常微分方程式(ODE)によってモデル化された、神経細胞膜電圧ダイナミクスの単一時間定数を仮定している。
本研究では, 膜電圧およびスパイク列車の長期依存性を分数次力学により捉えるフラクタルSPIKE微分方程式ニューラルネットワーク (fspikeDE) を提案する。
論文 参考訳(メタデータ) (2025-07-22T18:20:56Z) - Langevin Flows for Modeling Neural Latent Dynamics [81.81271685018284]
逐次変分自動エンコーダであるLangevinFlowを導入し、潜伏変数の時間的進化をアンダーダム化したLangevin方程式で制御する。
われわれのアプローチは、慣性、減衰、学習されたポテンシャル関数、力などの物理的事前を組み込んで、ニューラルネットワークにおける自律的および非自律的プロセスの両方を表現する。
本手法は,ロレンツ誘引器によって生成される合成神経集団に対する最先端のベースラインより優れる。
論文 参考訳(メタデータ) (2025-07-15T17:57:48Z) - Certified Neural Approximations of Nonlinear Dynamics [52.79163248326912]
安全クリティカルな文脈では、神経近似の使用は、基礎となるシステムとの密接性に公式な境界を必要とする。
本稿では,認証された一階述語モデルに基づく新しい,適応的で並列化可能な検証手法を提案する。
論文 参考訳(メタデータ) (2025-05-21T13:22:20Z) - High-order expansion of Neural Ordinary Differential Equations flows [4.4569182855550755]
イベントグラデーション上のニューラルODEダイナミクスの厳密な数学的記述を提供する高階微分に基づくフレームワークであるイベントトランジションを紹介する。
本研究は,イベントトリガー型ニューラルディファレンス方程式のより深い理論的基礎と,複雑なシステム力学を説明する数学的構造に寄与する。
論文 参考訳(メタデータ) (2025-04-02T08:57:34Z) - Neural Manifolds and Cognitive Consistency: A New Approach to Memory Consolidation in Artificial Systems [0.0]
本稿では, ニューラル人口動態, 海馬鋭波リップル(SpWR)生成, ハイダー理論に触発された認知的一貫性の制約を統一する新しい数学的枠組みを提案する。
我々のモデルは低次元多様体表現を利用して構造化された神経ドリフトを捕捉し、コヒーレントシナプス相互作用を強制するためにバランスエネルギー関数を組み込む。
この研究は、神経科学と人工知能を橋渡しするスケーラブルなニューロモルフィックアーキテクチャの道を開くもので、将来のインテリジェントシステムに対してより堅牢で適応的な学習メカニズムを提供する。
論文 参考訳(メタデータ) (2025-02-25T18:28:25Z) - Efficiency of Dynamical Decoupling for (Almost) Any Spin-Boson Model [44.99833362998488]
構造ボソニック環境と結合した2レベル系の動的疎結合を解析的に検討した。
このようなシステムに対して動的疎結合が機能する十分な条件を見つける。
私たちの境界は、様々な関連するシステムパラメータで正しいスケーリングを再現します。
論文 参考訳(メタデータ) (2024-09-24T04:58:28Z) - Hallmarks of Optimization Trajectories in Neural Networks: Directional Exploration and Redundancy [75.15685966213832]
最適化トラジェクトリのリッチな方向構造をポイントワイズパラメータで解析する。
トレーニング中のスカラーバッチノルムパラメータは,ネットワーク全体のトレーニング性能と一致していることを示す。
論文 参考訳(メタデータ) (2024-03-12T07:32:47Z) - Deep Learning-based Analysis of Basins of Attraction [49.812879456944984]
本研究は,様々な力学系における盆地の複雑さと予測不可能性を特徴づけることの課題に対処する。
主な焦点は、この分野における畳み込みニューラルネットワーク(CNN)の効率性を示すことである。
論文 参考訳(メタデータ) (2023-09-27T15:41:12Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - Tractable Dendritic RNNs for Reconstructing Nonlinear Dynamical Systems [7.045072177165241]
線形スプラインベース展開により、片方向線形リカレントニューラルネットワーク(RNN)を増強する。
このアプローチは単純な PLRNN の理論的に魅力的な性質を全て保持するが、相対的に低次元の任意の非線形力学系を近似する能力は向上する。
論文 参考訳(メタデータ) (2022-07-06T09:43:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。