論文の概要: Markov Neural Operators for Learning Chaotic Systems
- arxiv url: http://arxiv.org/abs/2106.06898v1
- Date: Sun, 13 Jun 2021 02:24:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 15:37:21.643430
- Title: Markov Neural Operators for Learning Chaotic Systems
- Title(参考訳): カオスシステム学習のためのマルコフニューラル演算子
- Authors: Zongyi Li, Nikola Kovachki, Kamyar Azizzadenesheli, Burigede Liu,
Kaushik Bhattacharya, Andrew Stuart, Anima Anandkumar
- Abstract要約: カオスシステムは不安定性のために予測が難しいことで知られている。
局所的なワンステップ進化情報しか持たないマルコフニューラル演算子を訓練する。
次に、学習作用素を構成して、大域的アトラクタおよび不変測度を得る。
- 参考スコア(独自算出の注目度): 40.256994804214315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Chaotic systems are notoriously challenging to predict because of their
instability. Small errors accumulate in the simulation of each time step,
resulting in completely different trajectories. However, the trajectories of
many prominent chaotic systems live in a low-dimensional subspace (attractor).
If the system is Markovian, the attractor is uniquely determined by the Markov
operator that maps the evolution of infinitesimal time steps. This makes it
possible to predict the behavior of the chaotic system by learning the Markov
operator even if we cannot predict the exact trajectory. Recently, a new
framework for learning resolution-invariant solution operators for PDEs was
proposed, known as neural operators. In this work, we train a Markov neural
operator (MNO) with only the local one-step evolution information. We then
compose the learned operator to obtain the global attractor and invariant
measure. Such a Markov neural operator forms a discrete semigroup and we
empirically observe that does not collapse or blow up. Experiments show neural
operators are more accurate and stable compared to previous methods on chaotic
systems such as the Kuramoto-Sivashinsky and Navier-Stokes equations.
- Abstract(参考訳): カオスシステムは不安定であるため予測が難しいことで悪名高い。
小さな誤差は各時間ステップのシミュレーションに蓄積され、結果として全く異なる軌道となる。
しかし、多くの著名なカオス系の軌道は、低次元部分空間 (attractor) に存在する。
システムがマルコフ系であれば、引き付け子は無限小時間ステップの進化を写像するマルコフ作用素によって一意に決定される。
これにより、正確な軌道を予測できない場合でもマルコフ作用素を学習することでカオスシステムの挙動を予測することができる。
近年,PDEの分解能不変解演算子を学習するための新しいフレームワークが提案されている。
本研究では,局所的なワンステップ進化情報のみを用いてマルコフ神経演算子(MNO)を訓練する。
次に、学習した演算子を合成し、グローバルアトラクタおよび不変測度を得る。
そのようなマルコフ神経作用素は離散半群を形成し、崩壊も爆発もしない経験的に観察する。
実験により、ニューラル作用素は、倉本-シヴァシンスキー方程式やナビエ-ストークス方程式のようなカオス系の従来の手法よりも正確で安定であることが示された。
関連論文リスト
- Neural Operators for Predictor Feedback Control of Nonlinear Delay Systems [3.0248879829045388]
本稿では,予測器の定式化を演算子学習問題として再キャストすることで,予測器設計の新しい視点を導入する。
我々は、予測演算子の任意の精度のニューラル演算子近似の存在を証明した。
近似予測器の下では閉ループ非線形系の半言語的実用安定性を実現する。
論文 参考訳(メタデータ) (2024-11-28T07:30:26Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - Learning-based Design of Luenberger Observers for Autonomous Nonlinear
Systems [5.953597709282766]
非線形系に対するルエンベルガー観測者は、状態が代替座標系に変換される。
本稿では,物理インフォームドニューラルネットワークを用いて変換と逆変換の両方を近似する新しい手法を提案する。
提案手法は,現代の手法に優れたロバスト性を示し,ニューラルネットワークの近似誤差とシステム不確実性の両方を実証する。
論文 参考訳(メタデータ) (2022-10-04T09:03:43Z) - Approximate Bayesian Neural Operators: Uncertainty Quantification for
Parametric PDEs [34.179984253109346]
ニューラル作用素の'hallow'(線形)バージョンを数学的に詳細に定式化する。
次に、ベイズ深層学習の近似手法を用いて、この解析処理を一般のディープニューラル演算子に拡張する。
その結果, ニューラル演算子の予測に失敗するケースを同定し, 構造的不確実性推定を行うことができた。
論文 参考訳(メタデータ) (2022-08-02T16:10:27Z) - Physics-Informed Neural Operators [3.9181541460605116]
ニューラルネットワークは一般非線形作用素を近似することができ、例えば、対流拡散反応偏微分方程式における数学的作用素の組合せによって明示的に表される。
最初の神経オペレータは、厳密な近似理論に基づいて2019年に提案されたDeepオペレータネットワーク(DeepONet)である。
ブラックボックスシステムでは、ニューラル演算子のトレーニングはデータ駆動であるが、支配方程式が分かっていれば、物理インフォームド・ニューラル演算子を開発するトレーニング中に損失関数に組み込むことができる。
論文 参考訳(メタデータ) (2022-07-08T12:29:09Z) - Learning Dynamical Systems via Koopman Operator Regression in
Reproducing Kernel Hilbert Spaces [52.35063796758121]
動的システムの有限データ軌跡からクープマン作用素を学ぶためのフレームワークを定式化する。
リスクとクープマン作用素のスペクトル分解の推定を関連付ける。
以上の結果から,RRRは他の広く用いられている推定値よりも有益である可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-27T14:57:48Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。