論文の概要: LINOCS: Lookahead Inference of Networked Operators for Continuous Stability
- arxiv url: http://arxiv.org/abs/2404.18267v1
- Date: Sun, 28 Apr 2024 18:16:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-30 15:25:56.883384
- Title: LINOCS: Lookahead Inference of Networked Operators for Continuous Stability
- Title(参考訳): LINOCS: 継続的安定性のためのネットワーク演算子のルックアヘッド推論
- Authors: Noga Mudrik, Eva Yezerets, Yenho Chen, Christopher Rozell, Adam Charles,
- Abstract要約: 連続安定のためのネットワーク演算子のルックアヘッド駆動推論(LINOCS)を導入する。
LINOCSはノイズの多い時系列データに隠れた動的相互作用を識別するための頑健な学習手法である。
我々は、LINOCSの合成時系列データに基づく基底真理力学演算子を復元する能力を実証する。
- 参考スコア(独自算出の注目度): 4.508868068781057
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Identifying latent interactions within complex systems is key to unlocking deeper insights into their operational dynamics, including how their elements affect each other and contribute to the overall system behavior. For instance, in neuroscience, discovering neuron-to-neuron interactions is essential for understanding brain function; in ecology, recognizing the interactions among populations is key for understanding complex ecosystems. Such systems, often modeled as dynamical systems, typically exhibit noisy high-dimensional and non-stationary temporal behavior that renders their identification challenging. Existing dynamical system identification methods often yield operators that accurately capture short-term behavior but fail to predict long-term trends, suggesting an incomplete capture of the underlying process. Methods that consider extended forecasts (e.g., recurrent neural networks) lack explicit representations of element-wise interactions and require substantial training data, thereby failing to capture interpretable network operators. Here we introduce Lookahead-driven Inference of Networked Operators for Continuous Stability (LINOCS), a robust learning procedure for identifying hidden dynamical interactions in noisy time-series data. LINOCS integrates several multi-step predictions with adaptive weights during training to recover dynamical operators that can yield accurate long-term predictions. We demonstrate LINOCS' ability to recover the ground truth dynamical operators underlying synthetic time-series data for multiple dynamical systems models (including linear, piece-wise linear, time-changing linear systems' decomposition, and regularized linear time-varying systems) as well as its capability to produce meaningful operators with robust reconstructions through various real-world examples.
- Abstract(参考訳): 複雑なシステム内の潜伏する相互作用を識別することは、それら要素が相互にどのように影響し、システム全体の振る舞いに寄与するかなど、運用のダイナミクスに関する深い洞察を解き放つ鍵となります。
例えば神経科学では、ニューロンとニューロンの相互作用を発見することは脳機能を理解するのに不可欠であり、生態学では、集団間の相互作用を認識することが複雑な生態系を理解するのに重要である。
このようなシステムは、しばしば力学系としてモデル化され、通常、ノイズの多い高次元および非定常的な時間的挙動を示し、その識別を困難にしている。
既存の力学系同定法では、短時間の挙動を正確に捉える演算子が得られるが、長期的な傾向を予測できず、基礎となるプロセスが不完全であることを示唆する。
拡張予測(例えば、リカレントニューラルネットワーク)を考える手法は、要素の相互作用の明示的な表現を欠き、かなりのトレーニングデータを必要とするため、解釈可能なネットワーク演算子を捕捉できない。
本稿では,Lookahead-driven Inference of Networked Operators for Continuous Stability (LINOCS)を紹介した。
LINOCSは、トレーニング中に複数の多段階予測と適応重みを統合して、正確な長期予測を得られる動的演算子を復元する。
我々は,LINOCSが複数の力学系モデル(線形,片方向線形,時間変化線形系分解,正規化線形時間変化系を含む)の合成時系列データに基づく基底的真理動的演算子を復元する能力と,実世界の様々な例を通して頑健な再構成を持つ有意義な演算子を生成できることを実証する。
関連論文リスト
- Inferring the time-varying coupling of dynamical systems with temporal convolutional autoencoders [0.0]
因果推論のためのテンポラルオートエンコーダ(TACI)を紹介する。
TACIは、2つの頭を持つ新しい機械学習アーキテクチャと因果関係を評価するために、新しい代理データメトリクスを組み合わせる。
TACIが様々なシステム間で動的因果相互作用を正確に定量化できることを実証する。
論文 参考訳(メタデータ) (2024-06-05T12:51:20Z) - Learning Locally Interacting Discrete Dynamical Systems: Towards Data-Efficient and Scalable Prediction [16.972017028598597]
局所力学系は局所的、比較的単純で、しばしば動的要素間の相互作用から複雑な大域的ダイナミクスを示す。
本稿では,Attentive Recurrent Cellular Automata(AR-NCA)を提案する。
AR-NCAは様々なシステム構成において優れた一般化性を示す。
論文 参考訳(メタデータ) (2024-04-09T17:00:43Z) - TimeGraphs: Graph-based Temporal Reasoning [64.18083371645956]
TimeGraphsは階層的時間グラフとして動的相互作用を特徴付ける新しいアプローチである。
提案手法は,コンパクトなグラフベース表現を用いて相互作用をモデル化し,多種多様な時間スケールでの適応推論を可能にする。
我々は,サッカーシミュレータ,抵抗ゲーム,MOMA人間活動データセットなど,複雑でダイナミックなエージェントインタラクションを持つ複数のデータセット上でTimeGraphsを評価する。
論文 参考訳(メタデータ) (2024-01-06T06:26:49Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Leveraging Neural Koopman Operators to Learn Continuous Representations
of Dynamical Systems from Scarce Data [0.0]
我々は、本質的に連続的な方法でダイナミクスを表現する新しいディープ・クープマン・フレームワークを提案する。
このフレームワークは、限られたトレーニングデータのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2023-03-13T10:16:19Z) - Critical Learning Periods for Multisensory Integration in Deep Networks [112.40005682521638]
ニューラルネットワークが様々な情報源からの情報を統合する能力は、トレーニングの初期段階において、適切な相関した信号に晒されることに批判的になることを示す。
臨界周期は、訓練されたシステムとその学習された表現の最終性能を決定づける、複雑で不安定な初期過渡的ダイナミクスから生じることを示す。
論文 参考訳(メタデータ) (2022-10-06T23:50:38Z) - Decomposed Linear Dynamical Systems (dLDS) for learning the latent
components of neural dynamics [6.829711787905569]
本稿では,時系列データの非定常および非線形の複雑なダイナミクスを表現した新しい分解力学系モデルを提案する。
我々のモデルは辞書学習によって訓練され、最近の結果を利用してスパースベクトルを時間とともに追跡する。
連続時間と離散時間の両方の指導例において、我々のモデルは元のシステムによく近似できることを示した。
論文 参考訳(メタデータ) (2022-06-07T02:25:38Z) - Capturing Actionable Dynamics with Structured Latent Ordinary
Differential Equations [68.62843292346813]
本稿では,その潜在表現内でのシステム入力の変動をキャプチャする構造付き潜在ODEモデルを提案する。
静的変数仕様に基づいて,本モデルではシステムへの入力毎の変動要因を学習し,潜在空間におけるシステム入力の影響を分離する。
論文 参考訳(メタデータ) (2022-02-25T20:00:56Z) - Leveraging the structure of dynamical systems for data-driven modeling [111.45324708884813]
トレーニングセットとその構造が長期予測の品質に与える影響を考察する。
トレーニングセットのインフォームドデザインは,システムの不変性と基盤となるアトラクションの構造に基づいて,結果のモデルを大幅に改善することを示す。
論文 参考訳(メタデータ) (2021-12-15T20:09:20Z) - Divide and Rule: Recurrent Partitioned Network for Dynamic Processes [25.855428321990328]
多くの動的なプロセスは、物理的システムから社会学的分析まで、相互作用する変数に関与している。
我々のゴールは、部分全体階層を持つシステムを表現し、システム内変数間の暗黙の依存関係を発見することである。
提案アーキテクチャは, (i) 複数のレベルにおける観測の階層的かつ時間的に一貫した表現を抽出する知覚モジュール, (ii) 各レベルにおけるニューロン間の関係性を決定する導出モジュール, (iii)時間分布推定を条件に未来を予測する統計的モジュールからなる。
論文 参考訳(メタデータ) (2021-06-01T06:45:56Z) - Continuous-in-Depth Neural Networks [107.47887213490134]
まず最初に、このリッチな意味では、ResNetsは意味のある動的でないことを示します。
次に、ニューラルネットワークモデルが連続力学系を表現することを実証する。
ResNetアーキテクチャの詳細な一般化としてContinuousNetを紹介します。
論文 参考訳(メタデータ) (2020-08-05T22:54:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。