論文の概要: Hierarchical Deep Learning of Multiscale Differential Equation
Time-Steppers
- arxiv url: http://arxiv.org/abs/2008.09768v1
- Date: Sat, 22 Aug 2020 07:16:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 08:20:17.959921
- Title: Hierarchical Deep Learning of Multiscale Differential Equation
Time-Steppers
- Title(参考訳): マルチスケール微分方程式時間ステップの階層的深層学習
- Authors: Yuying Liu, J. Nathan Kutz, Steven L. Brunton
- Abstract要約: 本研究では,時間スケールの異なる範囲にわたる動的システムのフローマップを近似するために,ディープニューラルネットワークの時間ステップ階層を構築した。
結果のモデルは純粋にデータ駆動であり、マルチスケールのダイナミックスの特徴を活用する。
我々は,LSTM,貯水池計算,クロックワークRNNなどの最先端手法に対して,我々のアルゴリズムをベンチマークする。
- 参考スコア(独自算出の注目度): 5.6385744392820465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nonlinear differential equations rarely admit closed-form solutions, thus
requiring numerical time-stepping algorithms to approximate solutions. Further,
many systems characterized by multiscale physics exhibit dynamics over a vast
range of timescales, making numerical integration computationally expensive due
to numerical stiffness. In this work, we develop a hierarchy of deep neural
network time-steppers to approximate the flow map of the dynamical system over
a disparate range of time-scales. The resulting model is purely data-driven and
leverages features of the multiscale dynamics, enabling numerical integration
and forecasting that is both accurate and highly efficient. Moreover, similar
ideas can be used to couple neural network-based models with classical
numerical time-steppers. Our multiscale hierarchical time-stepping scheme
provides important advantages over current time-stepping algorithms, including
(i) circumventing numerical stiffness due to disparate time-scales, (ii)
improved accuracy in comparison with leading neural-network architectures,
(iii) efficiency in long-time simulation/forecasting due to explicit training
of slow time-scale dynamics, and (iv) a flexible framework that is
parallelizable and may be integrated with standard numerical time-stepping
algorithms. The method is demonstrated on a wide range of nonlinear dynamical
systems, including the Van der Pol oscillator, the Lorenz system, the
Kuramoto-Sivashinsky equation, and fluid flow pass a cylinder; audio and video
signals are also explored. On the sequence generation examples, we benchmark
our algorithm against state-of-the-art methods, such as LSTM, reservoir
computing, and clockwork RNN. Despite the structural simplicity of our method,
it outperforms competing methods on numerical integration.
- Abstract(参考訳): 非線形微分方程式は閉形式解をほとんど認めないため、近似解に数値時間ステップアルゴリズムを必要とする。
さらに、多スケール物理学を特徴とする多くのシステムは、幅広い時間スケールのダイナミクスを示し、数値積分は数値剛性のために計算コストがかかる。
本研究では,異なる時間スケール範囲の動的システムのフローマップを近似するために,ディープニューラルネットワークの時間ステップの階層構造を開発する。
結果のモデルは純粋にデータ駆動であり、マルチスケールのダイナミックスの特徴を活用し、数値的な積分と予測を可能にします。
さらに、ニューラルネットワークベースのモデルと古典的な数値時間ステップを結合するためにも同様のアイデアが利用できる。
我々のマルチスケール階層型タイムステッピング方式は、現在のタイムステッピングアルゴリズムよりも重要な利点を提供する。
(i)異種時間尺度による数値剛性回避
(ii)主要なニューラルネットワークアーキテクチャと比較して精度が向上した。
(iii)スロータイムスケールダイナミクスの明示的なトレーニングによる長時間シミュレーション/フォアキャスティングの効率性
(iv)並列化可能なフレキシブルなフレームワークで、標準的な数値タイムステッピングアルゴリズムと統合することができる。
本手法は,van der pol 発振器,lorenz 系,kuramoto-sivashinsky 方程式,流体流がシリンダを通過する幅広い非線形力学系で実証され,音響信号や映像信号も検討されている。
シーケンス生成の例では、LSTM、貯水池計算、クロックワークRNNなどの最先端手法に対してアルゴリズムをベンチマークする。
本手法は構造的単純さにもかかわらず,数値積分において競合する手法よりも優れる。
関連論文リスト
- Enhancing Computational Efficiency in Multiscale Systems Using Deep Learning of Coordinates and Flow Maps [0.0]
本稿では,マルチスケールシステムにおいて,ディープラーニング技術を用いて正確なタイムステッピング手法を構築する方法について述べる。
結果として得られるフレームワークは、より少ない計算コストで最先端の予測精度を達成する。
論文 参考訳(メタデータ) (2024-04-28T14:05:13Z) - Neural Dynamical Operator: Continuous Spatial-Temporal Model with Gradient-Based and Derivative-Free Optimization Methods [0.0]
本稿では、空間と時間の両方で連続的なニューラルダイナミクス演算子と呼ばれるデータ駆動モデリングフレームワークを提案する。
神経力学演算子の鍵となる特徴は、空間的および時間的離散化の両方に関して分解能不変性である。
提案手法は,ハイブリッド最適化方式により,より長期統計量の予測が可能であることを示す。
論文 参考訳(メタデータ) (2023-11-20T14:31:18Z) - Hierarchical deep learning-based adaptive time-stepping scheme for
multiscale simulations [0.0]
本研究では,ディープニューラルネットワークを用いたマルチスケール問題のシミュレーション手法を提案する。
ニューラルネットワークのタイムステッパーの階層的学習を活用することで、タイムスケールにわたる動的システムフローマップの近似に時間ステップを適用する。
このアプローチは、固定ステップニューラルネットワークソルバと比較して計算時間が少なくて最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-11-10T09:47:58Z) - On Fast Simulation of Dynamical System with Neural Vector Enhanced
Numerical Solver [59.13397937903832]
ニューラルベクトル(NeurVec)と呼ばれる深層学習に基づく補正手法を提案する。
NeurVecは、統合エラーを補償し、シミュレーションでより大きなタイムステップサイズを可能にする。
様々な複雑な力学系ベンチマークの実験により、NeurVecは顕著な一般化能力を示すことが示された。
論文 参考訳(メタデータ) (2022-08-07T09:02:18Z) - Semi-supervised Learning of Partial Differential Operators and Dynamical
Flows [68.77595310155365]
本稿では,超ネットワーク解法とフーリエニューラル演算子アーキテクチャを組み合わせた新しい手法を提案する。
本手法は, 1次元, 2次元, 3次元の非線形流体を含む様々な時間発展PDEを用いて実験を行った。
その結果、新しい手法は、監督点の時点における学習精度を向上し、任意の中間時間にその解を補間できることを示した。
論文 参考訳(メタデータ) (2022-07-28T19:59:14Z) - Learning effective dynamics from data-driven stochastic systems [2.4578723416255754]
この研究は、低速力学系に対する効果的な力学の研究に費やされている。
遅い多様体を学習するために,Auto-SDEと呼ばれるニューラルネットワークを含む新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-09T09:56:58Z) - DiffPD: Differentiable Projective Dynamics with Contact [65.88720481593118]
DiffPDは、暗黙の時間積分を持つ効率的な微分可能なソフトボディシミュレータである。
我々はDiffPDの性能を評価し,様々な応用における標準ニュートン法と比較して4~19倍のスピードアップを観測した。
論文 参考訳(メタデータ) (2021-01-15T00:13:33Z) - Fast and differentiable simulation of driven quantum systems [58.720142291102135]
我々は、ダイソン展開に基づく半解析手法を導入し、標準数値法よりもはるかに高速に駆動量子系を時間発展させることができる。
回路QEDアーキテクチャにおけるトランスモン量子ビットを用いた2量子ゲートの最適化結果を示す。
論文 参考訳(メタデータ) (2020-12-16T21:43:38Z) - Continuous-in-Depth Neural Networks [107.47887213490134]
まず最初に、このリッチな意味では、ResNetsは意味のある動的でないことを示します。
次に、ニューラルネットワークモデルが連続力学系を表現することを実証する。
ResNetアーキテクチャの詳細な一般化としてContinuousNetを紹介します。
論文 参考訳(メタデータ) (2020-08-05T22:54:09Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。