論文の概要: Learning Dynamical Systems from Noisy Data with Inverse-Explicit
Integrators
- arxiv url: http://arxiv.org/abs/2306.03548v1
- Date: Tue, 6 Jun 2023 09:50:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 16:15:35.586782
- Title: Learning Dynamical Systems from Noisy Data with Inverse-Explicit
Integrators
- Title(参考訳): 逆説明積分器を用いた雑音データからの動的システム学習
- Authors: H\r{a}kon Noren, S{\o}lve Eidnes and Elena Celledoni
- Abstract要約: 雑音データからベクトル場を近似するためにニューラルネットワークをトレーニングする際の精度を高めるために,平均逆積分器(MII)を導入する。
単単純ランゲ・クッタ法 (MIRK) のクラスは, MII に関連する場合に特に有利であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce the mean inverse integrator (MII), a novel approach to increase
the accuracy when training neural networks to approximate vector fields of
dynamical systems from noisy data. This method can be used to average multiple
trajectories obtained by numerical integrators such as Runge-Kutta methods. We
show that the class of mono-implicit Runge-Kutta methods (MIRK) has particular
advantages when used in connection with MII. When training vector field
approximations, explicit expressions for the loss functions are obtained when
inserting the training data in the MIRK formulae, unlocking symmetric and
high-order integrators that would otherwise be implicit for initial value
problems. The combined approach of applying MIRK within MII yields a
significantly lower error compared to the plain use of the numerical integrator
without averaging the trajectories. This is demonstrated with experiments using
data from several (chaotic) Hamiltonian systems. Additionally, we perform a
sensitivity analysis of the loss functions under normally distributed
perturbations, supporting the favorable performance of MII.
- Abstract(参考訳): 雑音データから力学系のベクトル場を近似するためにニューラルネットワークをトレーニングする際の精度を向上させる新しい手法である平均逆積分器(MII)を導入する。
この方法は、runge-kutta法のような数値積分器によって得られる複数の軌道の平均に使うことができる。
モノインプリシットなrunge-kuttaメソッド(mirk)のクラスはmiiと関連づける場合に特に有利であることを示す。
ベクトル場近似を訓練する場合、MIRK式にトレーニングデータを挿入する際、損失関数の明示的な式が得られ、初期値問題に対して暗黙的な対称および高階積分器をアンロックする。
MII に MIRK を適用するという組み合わせのアプローチは、トラジェクトリを平均化せずに数値積分器の通常の使用に比べて誤差が大幅に低い。
これは、いくつかの(カオス的な)ハミルトン系のデータを用いた実験で実証される。
また,通常分散摂動下での損失関数の感度解析を行い,miiの性能を良好に評価した。
関連論文リスト
- Accelerating Fractional PINNs using Operational Matrices of Derivative [0.24578723416255746]
本稿では,分数次物理学情報ニューラルネットワーク(fPINN)の学習を高速化する新しい演算行列法を提案する。
提案手法では、カプトー型分数微分問題において、0alpha1$での分数導関数の高速な計算を容易にする。
提案手法の有効性は,遅延微分方程式 (DDE) や微分代数方程式 (DAE) など,様々な微分方程式にまたがって検証される。
論文 参考訳(メタデータ) (2024-01-25T11:00:19Z) - Learning Hamiltonian Systems with Mono-Implicit Runge-Kutta Methods [0.0]
単単純ランジュ・クッタ法を高次に使用することにより、ハミルトンニューラルネットワークを小さなデータセット上で正確にトレーニングできることを示す。
これは、Fermi-Pasta-Ulam-Tsingouシステムに加えて、カオス二重振り子のハミルトニアンがデータから学習される数値実験によって実証される。
論文 参考訳(メタデータ) (2023-03-07T10:04:51Z) - Score-based Diffusion Models in Function Space [140.792362459734]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
本稿では,関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)という,数学的に厳密なフレームワークを提案する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - Rigorous dynamical mean field theory for stochastic gradient descent
methods [17.90683687731009]
一階勾配法の一家系の正確な高次元に対する閉形式方程式を証明した。
これには勾配降下(SGD)やネステロフ加速度などの広く使われているアルゴリズムが含まれる。
論文 参考訳(メタデータ) (2022-10-12T21:10:55Z) - A Robust and Flexible EM Algorithm for Mixtures of Elliptical
Distributions with Missing Data [71.9573352891936]
本稿では、ノイズや非ガウス的なデータに対するデータ計算の欠如に対処する。
楕円分布と潜在的な欠落データを扱う特性を混合した新しいEMアルゴリズムについて検討した。
合成データの実験的結果は,提案アルゴリズムが外れ値に対して頑健であり,非ガウスデータで使用可能であることを示す。
論文 参考訳(メタデータ) (2022-01-28T10:01:37Z) - Learning Operators with Coupled Attention [9.715465024071333]
本稿では,近年の注目機構の成功を動機とした,新しい演算子学習手法であるLOCAを提案する。
我々のアーキテクチャでは、入力関数は有限個の特徴にマッピングされ、その特徴は出力クエリの場所に依存する注意重みで平均化される。
これらの注意重みを積分変換と組み合わせることで、LOCAは目標出力関数の相関関係を明示的に学習することができる。
論文 参考訳(メタデータ) (2022-01-04T08:22:03Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z) - Learning Nonparametric Volterra Kernels with Gaussian Processes [0.0]
本稿では、ガウス過程(GP)を用いて表現されたカーネルを持つボルテラ級数を用いて、非線形作用素の非パラメトリックベイズ学習法を提案する。
NVKMは、演算子への入力関数が観測されず、GP先行を持つとき、単出力と多重出力の両方の回帰のための強力な方法を構成し、非線形および非パラメトリック潜在力モデルと見なすことができる。
論文 参考訳(メタデータ) (2021-06-10T08:21:00Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。