論文の概要: Discovery of Dynamics Using Linear Multistep Methods
- arxiv url: http://arxiv.org/abs/1912.12728v3
- Date: Sun, 16 Aug 2020 19:41:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-17 08:21:48.874206
- Title: Discovery of Dynamics Using Linear Multistep Methods
- Title(参考訳): リニアマルチステップ法によるダイナミクスの発見
- Authors: Rachael Keller and Qiang Du
- Abstract要約: 線形多段階法(LMM)は微分方程式の数値解の時間差分法として一般的な手法である。
状態が与えられた力学(逆問題)の学習への応用について検討する。
コンバージェンスを得るための一貫性と安定性の洗練された概念に基づく厳密な枠組みを初めて確立する。
- 参考スコア(独自算出の注目度): 1.2183405753834557
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Linear multistep methods (LMMs) are popular time discretization techniques
for the numerical solution of differential equations. Traditionally they are
applied to solve for the state given the dynamics (the forward problem), but
here we consider their application for learning the dynamics given the state
(the inverse problem). This repurposing of LMMs is largely motivated by growing
interest in data-driven modeling of dynamics, but the behavior and analysis of
LMMs for discovery turn out to be significantly different from the well-known,
existing theory for the forward problem. Assuming a highly idealized setting of
being given the exact state with a zero residual of the discrete dynamics, we
establish for the first time a rigorous framework based on refined notions of
consistency and stability to yield convergence using LMMs for discovery. When
applying these concepts to three popular $M-$step LMMs, the Adams-Bashforth,
Adams-Moulton, and Backwards Differentiation Formula schemes, the new theory
suggests that Adams-Bashforth for $M$ ranging from $1$ and $6$, Adams-Moulton
for $M=0$ and $M=1$, and Backwards Differentiation Formula for all positive $M$
are convergent, and, otherwise, the methods are not convergent in general. In
addition, we provide numerical experiments to both motivate and substantiate
our theoretical analysis.
- Abstract(参考訳): 線形多段階法(LMM)は微分方程式の数値解の時間差分法として一般的な手法である。
従来はダイナミクス(前方問題)が与えられた状態の解法として用いられてきたが、ここでは状態(逆問題)が与えられた状態のダイナミクスを学ぶための応用を考える。
このLMMの再調達は、データ駆動型動的モデリングへの関心の高まりによって大きく動機づけられるが、発見のためのLMMの挙動と分析は、前向き問題に対するよく知られた既存の理論とは大きく異なることが判明した。
離散力学のゼロ残差の正確な状態を与えるという高度に理想化された設定を仮定すると、我々は発見のためにLMMを用いて収束を得るための一貫性と安定性の洗練された概念に基づく厳密な枠組みを初めて確立する。
これらの概念を3つの一般的な$M-$step LMM、Adams-Bashforth、Adams-Moulton、Backwards Differentiation Formulas に適用する場合、新しい理論は、Adams-Bashforth for $M$は$$$から$$$まで、Adams-Moulton for $M=0$と$M=1$は$ Adams-Moulton for $M=0$と$M=1$、Backwards Differentiation Formula for all positive $M$は収束しない。
さらに,理論解析の動機付けと実証のための数値実験を行った。
関連論文リスト
- A deep implicit-explicit minimizing movement method for option pricing
in jump-diffusion models [0.0]
我々は、ジャンプ拡散力学に従う資産に書かれた欧州のバスケットオプションの価格設定のための新しいディープラーニングアプローチを開発する。
オプション価格問題は部分積分微分方程式として定式化され、これは新しい暗黙的な最小化運動タイムステッピング手法によって近似される。
論文 参考訳(メタデータ) (2024-01-12T18:21:01Z) - Towards Faster Non-Asymptotic Convergence for Diffusion-Based Generative
Models [49.81937966106691]
我々は拡散モデルのデータ生成過程を理解するための非漸近理論のスイートを開発する。
従来の研究とは対照的に,本理論は基本的だが多目的な非漸近的アプローチに基づいて開発されている。
論文 参考訳(メタデータ) (2023-06-15T16:30:08Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - KL-Entropy-Regularized RL with a Generative Model is Minimax Optimal [70.15267479220691]
モデル強化学習のサンプル複雑性を,生成的分散自由モデルを用いて検討・解析する。
我々の分析は、$varepsilon$が十分小さい場合、$varepsilon$-optimal Policyを見つけるのが、ほぼ最小の最適化であることを示している。
論文 参考訳(メタデータ) (2022-05-27T19:39:24Z) - Calibration of Derivative Pricing Models: a Multi-Agent Reinforcement
Learning Perspective [3.626013617212667]
量的金融における最も基本的な問題の1つは、与えられたオプションセットの市場価格に適合する連続時間拡散モデルの存在である。
我々の貢献は、この問題の適切なゲーム理論定式化が、現代の深層多エージェント強化学習における既存の発展を活用することで、この問題をいかに解決できるかを示すことである。
論文 参考訳(メタデータ) (2022-03-14T05:34:00Z) - Single Trajectory Nonparametric Learning of Nonlinear Dynamics [8.438421942654292]
力学系の1つの軌道が与えられた場合、非パラメトリック最小二乗推定器(LSE)の性能を解析する。
我々は最近開発された情報理論手法を活用し、非仮説クラスに対するLSEの最適性を確立する。
我々は、リプシッツ力学、一般化線形モデル、再生ケルネルヒルベルト空間(RKHS)のある種のクラスで記述される関数によって記述される力学など、実用上の関心のあるいくつかのシナリオを専門とする。
論文 参考訳(メタデータ) (2022-02-16T19:38:54Z) - Tensor Moments of Gaussian Mixture Models: Theory and Applications [1.6114012813668934]
我々はGMMのモーメントテンソルを用いた暗黙計算の理論と数値計算法を開発した。
未知の手段が対称テンソル分解に還元される場合、データ観測の偏りを抑えることが可能であることを示す。
論文 参考訳(メタデータ) (2022-02-14T18:42:11Z) - Inverting brain grey matter models with likelihood-free inference: a
tool for trustable cytoarchitecture measurements [62.997667081978825]
脳の灰白質細胞構造の特徴は、体密度と体積に定量的に敏感であり、dMRIでは未解決の課題である。
我々は新しいフォワードモデル、特に新しい方程式系を提案し、比較的スパースなb殻を必要とする。
次に,提案手法を逆転させるため,確率自由推論 (LFI) として知られるベイズ解析から最新のツールを適用した。
論文 参考訳(メタデータ) (2021-11-15T09:08:27Z) - Mean-Square Analysis with An Application to Optimal Dimension Dependence
of Langevin Monte Carlo [60.785586069299356]
この研究は、2-ワッサーシュタイン距離におけるサンプリング誤差の非同相解析のための一般的な枠組みを提供する。
我々の理論解析は数値実験によってさらに検証される。
論文 参考訳(メタデータ) (2021-09-08T18:00:05Z) - Stochastic Modified Equations for Continuous Limit of Stochastic ADMM [13.694172299830315]
我々は、ADMMの異なる変種を統一形式にし、リラクゼーションを伴う標準、線形化、勾配ベースADMMを含み、連続時間モデルアプローチを用いてそれらの力学を研究する。
我々は,ADMMの力学を,弱い近似の意味で小さな雑音パラメータを持つ微分方程式のクラスで近似することを示した。
論文 参考訳(メタデータ) (2020-03-07T08:01:50Z) - Theoretical Convergence of Multi-Step Model-Agnostic Meta-Learning [63.64636047748605]
一般的なマルチステップMAMLアルゴリズムに対して収束保証を提供するための新しい理論フレームワークを開発する。
特に,本研究の結果は,収束を保証するためには,内部段階のステップを逆比例して$N$の内段ステップを選択する必要があることを示唆している。
論文 参考訳(メタデータ) (2020-02-18T19:17:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。