論文の概要: Sharp Spectral Rates for Koopman Operator Learning
- arxiv url: http://arxiv.org/abs/2302.02004v4
- Date: Wed, 8 Nov 2023 10:04:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-09 20:30:06.614397
- Title: Sharp Spectral Rates for Koopman Operator Learning
- Title(参考訳): クープマン演算子学習のためのシャープスペクトル速度
- Authors: Vladimir Kostic, Karim Lounici, Pietro Novelli, Massimiliano Pontil
- Abstract要約: クープマン固有値と固有関数に対する非漸近学習境界を初めて提示する。
我々の結果は、突発的固有値の出現に新たな光を当てた。
- 参考スコア(独自算出の注目度): 27.820383937933034
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nonlinear dynamical systems can be handily described by the associated
Koopman operator, whose action evolves every observable of the system forward
in time. Learning the Koopman operator and its spectral decomposition from data
is enabled by a number of algorithms. In this work we present for the first
time non-asymptotic learning bounds for the Koopman eigenvalues and
eigenfunctions. We focus on time-reversal-invariant stochastic dynamical
systems, including the important example of Langevin dynamics. We analyze two
popular estimators: Extended Dynamic Mode Decomposition (EDMD) and Reduced Rank
Regression (RRR). Our results critically hinge on novel {minimax} estimation
bounds for the operator norm error, that may be of independent interest. Our
spectral learning bounds are driven by the simultaneous control of the operator
norm error and a novel metric distortion functional of the estimated
eigenfunctions. The bounds indicates that both EDMD and RRR have similar
variance, but EDMD suffers from a larger bias which might be detrimental to its
learning rate. Our results shed new light on the emergence of spurious
eigenvalues, an issue which is well known empirically. Numerical experiments
illustrate the implications of the bounds in practice.
- Abstract(参考訳): 非線形力学系は、関連するクープマン作用素(英語版)(koopman operator)によって手軽に記述され、その作用は系の全ての可観測性が経時的に進化する。
クープマン作用素の学習とデータからのスペクトル分解は多くのアルゴリズムによって実現されている。
本研究では、クープマン固有値と固有関数に対する非漸近学習境界を初めて提示する。
我々は、ランゲヴィン力学の重要な例を含む時間反転不変確率力学系に焦点をあてる。
本研究では,拡張動的モード分解(EDMD)とReduceed Rank Regression(RRR)の2つの人気推定器を解析した。
我々の結果は、作用素ノルム誤差に対する新しい {minimax} 推定境界について批判的にヒンジし、これは独立な関心を持つかもしれない。
我々のスペクトル学習境界は、演算子ノルム誤差の同時制御と推定固有関数の新たな計量歪み関数によって駆動される。
この境界は、EDMDとRRRの両方に類似したばらつきがあることを示しているが、EDMDは学習速度に有害な大きなバイアスに悩まされている。
その結果,経験的によく知られた固有値の散発的出現に新たな光を当てた。
数値実験は、実際的な境界の意味を例証する。
関連論文リスト
- Beyond expectations: Residual Dynamic Mode Decomposition and Variance
for Stochastic Dynamical Systems [8.259767785187805]
ダイナミックモード分解(Dynamic Mode Decomposition, DMD)は、プロジェクションベースの手法のポスターチャイルドである。
統計的コヒーレンシーを測るための分散擬似スペクトルの概念を導入する。
本研究は、シミュレーションデータと実験データの両方を用いた実用的応用を結論付けている。
論文 参考訳(メタデータ) (2023-08-21T13:05:12Z) - Understanding Augmentation-based Self-Supervised Representation Learning
via RKHS Approximation and Regression [53.15502562048627]
最近の研究は、自己教師付き学習とグラフラプラシアン作用素のトップ固有空間の近似との関係を構築している。
この研究は、増強に基づく事前訓練の統計的分析に発展する。
論文 参考訳(メタデータ) (2023-06-01T15:18:55Z) - Koopman Kernel Regression [6.116741319526748]
クープマン作用素理論は線形時間不変(LTI)ODEによる予測のキャラクタリゼーションに有効なパラダイムであることを示す。
我々は、LTI力学系への変換のみにまたがる、普遍的なクープマン不変核再生ヒルベルト空間(RKHS)を導出する。
実験では、Koopman演算子やシーケンシャルデータ予測器と比較して予測性能が優れていることを示した。
論文 参考訳(メタデータ) (2023-05-25T16:22:22Z) - Temporal Difference Learning with Compressed Updates: Error-Feedback meets Reinforcement Learning [47.904127007515925]
本稿では,従来の時間差学習アルゴリズムの変種について検討する。
我々は、圧縮されたTDアルゴリズムと、最適化に広く用いられているエラーフィードバック機構が組み合わさって、漸近的でない近似を保証することを証明した。
特に、これらは一般圧縮演算子と線形関数近似とマルコフサンプリングを併用したタンデムの誤差フィードバックを考慮に入れたRLにおける最初の有限時間結果である。
論文 参考訳(メタデータ) (2023-01-03T04:09:38Z) - Learning Dynamical Systems via Koopman Operator Regression in
Reproducing Kernel Hilbert Spaces [52.35063796758121]
動的システムの有限データ軌跡からクープマン作用素を学ぶためのフレームワークを定式化する。
リスクとクープマン作用素のスペクトル分解の推定を関連付ける。
以上の結果から,RRRは他の広く用いられている推定値よりも有益である可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-27T14:57:48Z) - Error-in-variables modelling for operator learning [0.35880734696551125]
ノイズの多い独立変数を考慮できないと、偏りのあるパラメータ推定に繋がる。
本研究では,独立変数と依存変数の両方において白色雑音を伴う線形作用素回帰に対する減衰バイアスの類似式を導出する。
本稿では,MOR-Physics と DeepONet の2つの演算子回帰法に対する誤差不変変数(EiV)モデルを提案する。
論文 参考訳(メタデータ) (2022-04-22T19:54:34Z) - Incorporating NODE with Pre-trained Neural Differential Operator for
Learning Dynamics [73.77459272878025]
ニューラル微分演算子(NDO)の事前学習による動的学習における教師付き信号の強化を提案する。
NDOは記号関数のクラスで事前訓練され、これらの関数の軌跡サンプルとそれらの導関数とのマッピングを学習する。
我々は,NDOの出力が,ライブラリの複雑さを適切に調整することで,基礎となる真理微分を適切に近似できることを理論的に保証する。
論文 参考訳(メタデータ) (2021-06-08T08:04:47Z) - On the Generalization of Stochastic Gradient Descent with Momentum [58.900860437254885]
まず,アルゴリズムの安定性が一般化保証の確立に失敗する凸損失関数が存在することを示す。
滑らかなリプシッツ損失関数に対して、修正モーメントに基づく更新規則を解析し、一般化誤差の上界を認めることを示す。
強凸損失関数の特別な場合において、標準 SGDM の複数のエポックが SGDEM の特別な形式として一般化されるような運動量の範囲を見出す。
論文 参考訳(メタデータ) (2021-02-26T18:58:29Z) - On Learning Rates and Schr\"odinger Operators [105.32118775014015]
本稿では,学習率の影響に関する一般的な理論的分析を行う。
学習速度は、幅広い非ニューラルクラス関数に対してゼロとなる傾向にある。
論文 参考訳(メタデータ) (2020-04-15T09:52:37Z) - Sparsity-promoting algorithms for the discovery of informative Koopman
invariant subspaces [0.0]
本稿では,マルチタスク特徴学習に基づくフレームワークを提案し,部分空間における最も情報に富むクープマンを抽出する。
提案手法は, 提案アルゴリズム, 疎度MDD, およびKDMDを促進する経験的基準との関係を示す。
論文 参考訳(メタデータ) (2020-02-25T03:02:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。