論文の概要: Koopman Operator Learning: Sharp Spectral Rates and Spurious Eigenvalues
- arxiv url: http://arxiv.org/abs/2302.02004v1
- Date: Fri, 3 Feb 2023 21:19:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 20:51:42.047714
- Title: Koopman Operator Learning: Sharp Spectral Rates and Spurious Eigenvalues
- Title(参考訳): クープマン演算子学習:シャープスペクトル速度と純粋固有値
- Authors: Vladimir Kostic, Karim Lounici, Pietro Novelli, Massimiliano Pontil
- Abstract要約: 2つのアルゴリズムにより推定されるクープマン固有値と固有関数に対する漸近学習境界を示す。
時間反転不変なマルコフ連鎖に注目し、クープマン作用素が自己共役であることを示唆する。
- 参考スコア(独自算出の注目度): 26.851436041478866
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Non-linear dynamical systems can be handily described by the associated
Koopman operator, whose action evolves every observable of the system forward
in time. Learning the Koopman operator from data is enabled by a number of
algorithms. In this work we present nonasymptotic learning bounds for the
Koopman eigenvalues and eigenfunctions estimated by two popular algorithms:
Extended Dynamic Mode Decomposition (EDMD) and Reduced Rank Regression (RRR).
We focus on time-reversal-invariant Markov chains, implying that the Koopman
operator is self-adjoint. This includes important examples of stochastic
dynamical systems, notably Langevin dynamics. Our spectral learning bounds are
driven by the simultaneous control of the operator norm risk of the estimators
and a metric distortion associated to the corresponding eigenfunctions. Our
analysis indicates that both algorithms have similar variance, but EDMD suffers
from a larger bias which might be detrimental to its learning rate. We further
argue that a large metric distortion may lead to spurious eigenvalues, a
phenomenon which has been empirically observed, and note that metric distortion
can be estimated from data. Numerical experiments complement the theoretical
findings.
- Abstract(参考訳): 非線形力学系は、関連するクープマン作用素(英語版)(koopman operator)によって手軽に記述され、その作用はシステムの全ての可観測性が経時的に進化する。
データからKoopman演算子を学ぶことは、多くのアルゴリズムによって実現されている。
本研究では,拡張動的モード分解 (edmd) と還元ランク回帰 (rrr) の2つのアルゴリズムにより推定されるkoopman固有値と固有関数の非漸近的学習境界を提案する。
我々は時間反転不変マルコフ連鎖に焦点を当て、クープマン作用素が自己共役であることを示唆する。
これには確率力学系の重要な例、特にランゲヴィン力学が含まれる。
我々のスペクトル学習境界は、推定器のオペレータノルムリスクと対応する固有関数に関連する計量歪みの同時制御によって駆動される。
分析の結果,両アルゴリズムの差は似ているが,EDMDは学習速度に有害な大きなバイアスに悩まされている。
さらに、大きな計量歪みは、経験的に観測された現象である突発的な固有値をもたらす可能性があり、計量歪みはデータから推定できることに留意する。
数値実験は理論的な結果を補完する。
関連論文リスト
- Beyond expectations: Residual Dynamic Mode Decomposition and Variance
for Stochastic Dynamical Systems [8.259767785187805]
ダイナミックモード分解(Dynamic Mode Decomposition, DMD)は、プロジェクションベースの手法のポスターチャイルドである。
統計的コヒーレンシーを測るための分散擬似スペクトルの概念を導入する。
本研究は、シミュレーションデータと実験データの両方を用いた実用的応用を結論付けている。
論文 参考訳(メタデータ) (2023-08-21T13:05:12Z) - Understanding Augmentation-based Self-Supervised Representation Learning
via RKHS Approximation and Regression [53.15502562048627]
最近の研究は、自己教師付き学習とグラフラプラシアン作用素のトップ固有空間の近似との関係を構築している。
この研究は、増強に基づく事前訓練の統計的分析に発展する。
論文 参考訳(メタデータ) (2023-06-01T15:18:55Z) - Koopman Kernel Regression [6.116741319526748]
クープマン作用素理論は線形時間不変(LTI)ODEによる予測のキャラクタリゼーションに有効なパラダイムであることを示す。
我々は、LTI力学系への変換のみにまたがる、普遍的なクープマン不変核再生ヒルベルト空間(RKHS)を導出する。
実験では、Koopman演算子やシーケンシャルデータ予測器と比較して予測性能が優れていることを示した。
論文 参考訳(メタデータ) (2023-05-25T16:22:22Z) - Temporal Difference Learning with Compressed Updates: Error-Feedback meets Reinforcement Learning [47.904127007515925]
本稿では,従来の時間差学習アルゴリズムの変種について検討する。
我々は、圧縮されたTDアルゴリズムと、最適化に広く用いられているエラーフィードバック機構が組み合わさって、漸近的でない近似を保証することを証明した。
特に、これらは一般圧縮演算子と線形関数近似とマルコフサンプリングを併用したタンデムの誤差フィードバックを考慮に入れたRLにおける最初の有限時間結果である。
論文 参考訳(メタデータ) (2023-01-03T04:09:38Z) - Learning Dynamical Systems via Koopman Operator Regression in
Reproducing Kernel Hilbert Spaces [52.35063796758121]
動的システムの有限データ軌跡からクープマン作用素を学ぶためのフレームワークを定式化する。
リスクとクープマン作用素のスペクトル分解の推定を関連付ける。
以上の結果から,RRRは他の広く用いられている推定値よりも有益である可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-27T14:57:48Z) - Error-in-variables modelling for operator learning [0.35880734696551125]
ノイズの多い独立変数を考慮できないと、偏りのあるパラメータ推定に繋がる。
本研究では,独立変数と依存変数の両方において白色雑音を伴う線形作用素回帰に対する減衰バイアスの類似式を導出する。
本稿では,MOR-Physics と DeepONet の2つの演算子回帰法に対する誤差不変変数(EiV)モデルを提案する。
論文 参考訳(メタデータ) (2022-04-22T19:54:34Z) - Incorporating NODE with Pre-trained Neural Differential Operator for
Learning Dynamics [73.77459272878025]
ニューラル微分演算子(NDO)の事前学習による動的学習における教師付き信号の強化を提案する。
NDOは記号関数のクラスで事前訓練され、これらの関数の軌跡サンプルとそれらの導関数とのマッピングを学習する。
我々は,NDOの出力が,ライブラリの複雑さを適切に調整することで,基礎となる真理微分を適切に近似できることを理論的に保証する。
論文 参考訳(メタデータ) (2021-06-08T08:04:47Z) - On the Generalization of Stochastic Gradient Descent with Momentum [58.900860437254885]
まず,アルゴリズムの安定性が一般化保証の確立に失敗する凸損失関数が存在することを示す。
滑らかなリプシッツ損失関数に対して、修正モーメントに基づく更新規則を解析し、一般化誤差の上界を認めることを示す。
強凸損失関数の特別な場合において、標準 SGDM の複数のエポックが SGDEM の特別な形式として一般化されるような運動量の範囲を見出す。
論文 参考訳(メタデータ) (2021-02-26T18:58:29Z) - On Learning Rates and Schr\"odinger Operators [105.32118775014015]
本稿では,学習率の影響に関する一般的な理論的分析を行う。
学習速度は、幅広い非ニューラルクラス関数に対してゼロとなる傾向にある。
論文 参考訳(メタデータ) (2020-04-15T09:52:37Z) - Sparsity-promoting algorithms for the discovery of informative Koopman
invariant subspaces [0.0]
本稿では,マルチタスク特徴学習に基づくフレームワークを提案し,部分空間における最も情報に富むクープマンを抽出する。
提案手法は, 提案アルゴリズム, 疎度MDD, およびKDMDを促進する経験的基準との関係を示す。
論文 参考訳(メタデータ) (2020-02-25T03:02:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。