論文の概要: The Discovery of Dynamics via Linear Multistep Methods and Deep
Learning: Error Estimation
- arxiv url: http://arxiv.org/abs/2103.11488v1
- Date: Sun, 21 Mar 2021 21:06:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-23 14:08:59.686383
- Title: The Discovery of Dynamics via Linear Multistep Methods and Deep
Learning: Error Estimation
- Title(参考訳): 線形多段階法によるダイナミクスの発見と深層学習:誤差推定
- Authors: Qiang Du and Yiqi Gu and Haizhao Yang and Chao Zhou
- Abstract要約: ダイナミックス発見のための深層ネットワークベースLMMについて検討する。
LMMの特定のファミリーの場合、$ell2$グリッドエラーは$O(hp)$の合計とネットワーク近似エラーによってバインドされます。
- 参考スコア(独自算出の注目度): 7.164566499665409
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Identifying hidden dynamics from observed data is a significant and
challenging task in a wide range of applications. Recently, the combination of
linear multistep methods (LMMs) and deep learning has been successfully
employed to discover dynamics, whereas a complete convergence analysis of this
approach is still under development. In this work, we consider the deep
network-based LMMs for the discovery of dynamics. We put forward error
estimates for these methods using the approximation property of deep networks.
It indicates, for certain families of LMMs, that the $\ell^2$ grid error is
bounded by the sum of $O(h^p)$ and the network approximation error, where $h$
is the time step size and $p$ is the local truncation error order. Numerical
results of several physically relevant examples are provided to demonstrate our
theory.
- Abstract(参考訳): 観測データから隠れたダイナミクスを識別することは、幅広いアプリケーションにおいて重要かつ困難な課題である。
近年,線形多段法(lmms)と深層学習(deep learning)の組み合わせが力学の発見に成功している一方,この手法の完全収束解析はまだ開発途上である。
本研究では,ダイナミックス発見のための深層ネットワーク型LMMについて考察する。
深層ネットワークの近似特性を用いて,これらの手法の誤差推定を行った。
これは、ある lmm の族に対して、$\ell^2$ のグリッドエラーは $o(h^p)$ の合計とネットワーク近似誤差で区切られており、ここで $h$ は時間ステップサイズ、$p$ は局所トランザクションエラー順序であることを示している。
我々の理論を実証するために、いくつかの物理的に関係のある例の数値的な結果を提供する。
関連論文リスト
- Imitation Learning in Discounted Linear MDPs without exploration assumptions [58.81226849657474]
ILARLと呼ばれる無限水平線形MDPにおける模倣学習のための新しいアルゴリズムを提案する。
所望の精度$epsilon$から$mathcalO(epsilon-5)$から$mathcalO(epsilon-4)$への依存を改善する。
線形関数近似による数値実験により、ILARLは他のよく使われるアルゴリズムよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-05-03T15:28:44Z) - Sample Complexity of Neural Policy Mirror Descent for Policy
Optimization on Low-Dimensional Manifolds [75.51968172401394]
深部畳み込みニューラルネットワーク(CNN)を用いたNPMDアルゴリズムのサンプル複雑性について検討した。
NPMDの各イテレーションでは、値関数とポリシーの両方をCNNによってうまく近似することができる。
NPMDは状態空間の低次元構造を利用して次元の呪いから逃れることができることを示す。
論文 参考訳(メタデータ) (2023-09-25T07:31:22Z) - Optimization Guarantees of Unfolded ISTA and ADMM Networks With Smooth
Soft-Thresholding [57.71603937699949]
我々は,学習エポックの数の増加とともに,ほぼゼロに近いトレーニング損失を達成するための最適化保証について検討した。
トレーニングサンプル数に対する閾値は,ネットワーク幅の増加とともに増加することを示す。
論文 参考訳(メタデータ) (2023-09-12T13:03:47Z) - Hidden Progress in Deep Learning: SGD Learns Parities Near the
Computational Limit [36.17720004582283]
この研究は、$k$sparseパリティを$n$bitsで学習するレンズを通してそのような探索を行う。
データセットのサイズと実行時間をスケールアップする際、ニューラルネットワークは驚くほどの位相遷移を示す。
論文 参考訳(メタデータ) (2022-07-18T17:55:05Z) - FiLM-Ensemble: Probabilistic Deep Learning via Feature-wise Linear
Modulation [69.34011200590817]
本稿では,特徴量線形変調の概念に基づく暗黙のアンサンブル手法であるFiLM-Ensembleを紹介する。
単一ディープネットワークのネットワークアクティベーションをFiLMで変調することにより、高多様性のモデルアンサンブルを得る。
我々は、FiLM-Ensembleが他の暗黙のアンサンブル法よりも優れており、ネットワークの明示的なアンサンブルの上限に非常に近いことを示す。
論文 参考訳(メタデータ) (2022-05-31T18:33:15Z) - Multivariate Anomaly Detection based on Prediction Intervals Constructed
using Deep Learning [0.0]
提案手法は,よく確立された統計モデルに対するものである。
我々は3つのディープラーニングアーキテクチャ、すなわちカスケードニューラルネットワーク、貯水池コンピューティング、長期記憶のリカレントニューラルネットワークに焦点を当てている。
論文 参考訳(メタデータ) (2021-10-07T12:34:31Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Solving Sparse Linear Inverse Problems in Communication Systems: A Deep
Learning Approach With Adaptive Depth [51.40441097625201]
疎信号回復問題に対するエンドツーエンドの訓練可能なディープラーニングアーキテクチャを提案する。
提案手法は,出力するレイヤ数を学習し,各タスクのネットワーク深さを推論フェーズで動的に調整する。
論文 参考訳(メタデータ) (2020-10-29T06:32:53Z) - The Impact of the Mini-batch Size on the Variance of Gradients in
Stochastic Gradient Descent [28.148743710421932]
ミニバッチ勾配勾配(SGD)アルゴリズムは機械学習モデルのトレーニングに広く用いられている。
線形回帰および2層線形ネットワーク下でのSGDダイナミクスについて検討し,より深い線形ネットワークへの拡張を容易にする。
論文 参考訳(メタデータ) (2020-04-27T20:06:11Z) - Inference in Multi-Layer Networks with Matrix-Valued Unknowns [32.635971570510755]
出力の観測から多層ニューラルネットワークの入力変数と隠れ変数を推定する問題を考察する。
MAPおよびMMSE推論のための統一近似アルゴリズムを提案する。
提案したMulti-Layer Matrix VAMP (ML-Mat-VAMP) アルゴリズムの性能は, あるランダムな大システム制限下で正確に予測できることが示されている。
論文 参考訳(メタデータ) (2020-01-26T04:00:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。