論文の概要: DeepBayes -- an estimator for parameter estimation in stochastic
nonlinear dynamical models
- arxiv url: http://arxiv.org/abs/2205.02264v1
- Date: Wed, 4 May 2022 18:12:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-06 14:21:43.609885
- Title: DeepBayes -- an estimator for parameter estimation in stochastic
nonlinear dynamical models
- Title(参考訳): DeepBayes -- 確率非線形力学モデルにおけるパラメータ推定のための推定器
- Authors: Anubhab Ghosh, Mohamed Abdalmoaty, Saikat Chatterjee, H{\aa}kan
Hjalmarsson
- Abstract要約: 本研究では,DeepBayes推定器を提案する。
ディープリカレントニューラルネットワークアーキテクチャはオフラインでトレーニングでき、推論中にかなりの時間を節約できる。
提案手法の異なる実例モデルへの適用性を実証し, 最先端手法との詳細な比較を行う。
- 参考スコア(独自算出の注目度): 11.917949887615567
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stochastic nonlinear dynamical systems are ubiquitous in modern, real-world
applications. Yet, estimating the unknown parameters of stochastic, nonlinear
dynamical models remains a challenging problem. The majority of existing
methods employ maximum likelihood or Bayesian estimation. However, these
methods suffer from some limitations, most notably the substantial
computational time for inference coupled with limited flexibility in
application. In this work, we propose DeepBayes estimators that leverage the
power of deep recurrent neural networks in learning an estimator. The method
consists of first training a recurrent neural network to minimize the
mean-squared estimation error over a set of synthetically generated data using
models drawn from the model set of interest. The a priori trained estimator can
then be used directly for inference by evaluating the network with the
estimation data. The deep recurrent neural network architectures can be trained
offline and ensure significant time savings during inference. We experiment
with two popular recurrent neural networks -- long short term memory network
(LSTM) and gated recurrent unit (GRU). We demonstrate the applicability of our
proposed method on different example models and perform detailed comparisons
with state-of-the-art approaches. We also provide a study on a real-world
nonlinear benchmark problem. The experimental evaluations show that the
proposed approach is asymptotically as good as the Bayes estimator.
- Abstract(参考訳): 確率非線形力学系は現代の実世界の応用においてユビキタスである。
しかし、確率的非線形力学モデルの未知パラメータを推定することは難しい問題である。
既存の手法の大半は最大確率またはベイズ推定を用いる。
しかし、これらの手法にはいくつかの制限があり、特に推論のかなりの計算時間とアプリケーションの柔軟性が制限されている。
本研究では,DeepBayes推定器を提案する。この推定器の学習において,ディープリカレントニューラルネットワークのパワーを利用する。
この方法は、関心のモデルセットから引き出されたモデルを用いて合成されたデータの集合に対して平均2乗推定誤差を最小限に抑えるために、まず繰り返しニューラルネットワークを訓練する。
事前訓練された推定器は、推定データを用いてネットワークを評価することにより、推論に直接使用できる。
ディープリカレントニューラルネットワークアーキテクチャはオフラインでトレーニングでき、推論中にかなりの時間を節約できる。
我々は,長期記憶ネットワーク(LSTM)とゲートリカレントユニット(GRU)の2つの一般的なリカレントニューラルネットワークを実験した。
提案手法の異なる実例モデルへの適用性を実証し,最先端手法との比較を行った。
また,実世界の非線形ベンチマーク問題についても考察する。
実験により,提案手法はベイズ推定器と同程度の漸近性を示した。
関連論文リスト
- Scalable Bayesian Inference in the Era of Deep Learning: From Gaussian Processes to Deep Neural Networks [0.5827521884806072]
大規模なデータセットでトレーニングされた大規模なニューラルネットワークは、マシンラーニングの主要なパラダイムになっています。
この論文は、モデル不確実性を持つニューラルネットワークを装備するためのスケーラブルな手法を開発する。
論文 参考訳(メタデータ) (2024-04-29T23:38:58Z) - A variational neural Bayes framework for inference on intractable posterior distributions [1.0801976288811024]
トレーニングされたニューラルネットワークに観測データを供給することにより、モデルパラメータの後方分布を効率的に取得する。
理論的には、我々の後部はKulback-Leiblerの発散において真の後部に収束することを示す。
論文 参考訳(メタデータ) (2024-04-16T20:40:15Z) - The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - Deep Ensembles Meets Quantile Regression: Uncertainty-aware Imputation for Time Series [45.76310830281876]
量子回帰に基づくタスクネットワークのアンサンブルを用いて不確実性を推定する新しい手法であるQuantile Sub-Ensemblesを提案する。
提案手法は,高い損失率に頑健な高精度な計算法を生成するだけでなく,非生成モデルの高速な学習により,計算効率も向上する。
論文 参考訳(メタデータ) (2023-12-03T05:52:30Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - Scalable computation of prediction intervals for neural networks via
matrix sketching [79.44177623781043]
既存の不確実性推定アルゴリズムでは、モデルアーキテクチャとトレーニング手順を変更する必要がある。
本研究では、与えられたトレーニングされたニューラルネットワークに適用し、近似予測間隔を生成できる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-06T13:18:31Z) - Neural Networks for Parameter Estimation in Intractable Models [0.0]
本稿では,最大安定過程からパラメータを推定する方法を示す。
モデルシミュレーションのデータを入力として使用し,統計的パラメータを学習するために深層ニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2021-07-29T21:59:48Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Sparsely constrained neural networks for model discovery of PDEs [0.0]
本稿では,任意のスパース回帰手法を用いて,ディープラーニングに基づくサロゲートのスパースパターンを決定するモジュラーフレームワークを提案する。
異なるネットワークアーキテクチャと疎度推定器がモデル発見精度と収束性を,いくつかのベンチマーク例でどのように改善するかを示す。
論文 参考訳(メタデータ) (2020-11-09T11:02:40Z) - A Bayesian Perspective on Training Speed and Model Selection [51.15664724311443]
モデルのトレーニング速度の測定値を用いて,その限界確率を推定できることを示す。
線形モデルと深部ニューラルネットワークの無限幅限界に対するモデル選択タスクの結果を検証する。
以上の結果から、勾配勾配勾配で訓練されたニューラルネットワークが、一般化する関数に偏りがある理由を説明するための、有望な新たな方向性が示唆された。
論文 参考訳(メタデータ) (2020-10-27T17:56:14Z) - Amortized Bayesian Inference for Models of Cognition [0.1529342790344802]
専門的なニューラルネットワークアーキテクチャを用いたシミュレーションベース推論の最近の進歩は、ベイズ近似計算の多くの過去の問題を回避している。
本稿では,アモータイズされたベイズパラメータの推定とモデル比較について概説する。
論文 参考訳(メタデータ) (2020-05-08T08:12:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。