論文の概要: History-Based, Bayesian, Closure for Stochastic Parameterization:
Application to Lorenz '96
- arxiv url: http://arxiv.org/abs/2210.14488v1
- Date: Wed, 26 Oct 2022 05:22:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 14:06:49.466465
- Title: History-Based, Bayesian, Closure for Stochastic Parameterization:
Application to Lorenz '96
- Title(参考訳): 確率的パラメータ化のための履歴ベースベイジアンクロージャ:Lorenz '96への応用
- Authors: Mohamed Aziz Bhouri and Pierre Gentine
- Abstract要約: 本研究では,ニューラルネットワークに対するベイズ形式に基づく新しいパラメータ化手法を開発し,不確実な定量化を考慮に入れた。
ベイズ史に基づくパラメータ化をLorenz '96モデルに適用し,ノイズやスパースデータの存在下でのパラメータ化について検討した。
このアプローチは閉包問題に対するベイズ的アプローチの活用の道を開く。
- 参考スコア(独自算出の注目度): 0.09137554315375918
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Physical parameterizations are used as representations of unresolved subgrid
processes within weather and global climate models or coarse-scale turbulent
models, whose resolutions are too coarse to resolve small-scale processes.
These parameterizations are typically grounded on physically-based, yet
empirical, representations of the underlying small-scale processes. Machine
learning-based parameterizations have recently been proposed as an alternative
and have shown great promises to reduce uncertainties associated with
small-scale processes. Yet, those approaches still show some important
mismatches that are often attributed to stochasticity in the considered
process. This stochasticity can be due to noisy data, unresolved variables or
simply to the inherent chaotic nature of the process. To address these issues,
we develop a new type of parameterization (closure) which is based on a
Bayesian formalism for neural networks, to account for uncertainty
quantification, and includes memory, to account for the non-instantaneous
response of the closure. To overcome the curse of dimensionality of Bayesian
techniques in high-dimensional spaces, the Bayesian strategy is based on a
Hamiltonian Monte Carlo Markov Chain sampling strategy that takes advantage of
the likelihood function and kinetic energy's gradients with respect to the
parameters to accelerate the sampling process. We apply the proposed Bayesian
history-based parameterization to the Lorenz '96 model in the presence of noisy
and sparse data, similar to satellite observations, and show its capacity to
predict skillful forecasts of the resolved variables while returning
trustworthy uncertainty quantifications for different sources of error. This
approach paves the way for the use of Bayesian approaches for closure problems.
- Abstract(参考訳): 物理パラメータ化は、気象や地球規模の気候モデルや粗大な乱流モデルにおける未解決のサブグリッド過程の表現として用いられる。
これらのパラメータ化は通常、基礎となる小規模プロセスの物理的だが経験的な表現に基づいている。
機械学習に基づくパラメータ化は、最近代替案として提案され、小規模プロセスに関連する不確実性を削減するという大きな約束を示している。
しかし、これらのアプローチは、しばしば考慮されたプロセスにおける確率性に起因する重要なミスマッチを示している。
この確率性は、ノイズの多いデータ、未解決変数、あるいは単にプロセスの本質的なカオス性に起因する。
これらの問題に対処するために、ニューラルネットワークのベイズ形式に基づく新しいタイプのパラメータ化(クロージャ)を開発し、不確実な定量化を考慮し、クロージャの即時応答を考慮に入れたメモリを含む。
高次元空間におけるベイズ的手法の次元性の呪いを克服するために、ベイズ的戦略は、サンプリング過程を加速するパラメータに関して確率関数と運動エネルギーの勾配を利用するハミルトン的モンテカルロマルコフ・チェインサンプリング戦略に基づいている。
提案するベイズ歴史に基づくパラメータ化を,衛星観測と類似したノイズ・スパースデータの存在下でのlorenz '96モデルに適用し,異なる誤差源に対する信頼に値する不確かさの定量化を返しながら,解決された変数の熟練した予測を行う能力を示す。
このアプローチは閉包問題に対するベイズ的アプローチの活用の道を開く。
関連論文リスト
- Data-freeWeight Compress and Denoise for Large Language Models [101.53420111286952]
パラメータ行列を圧縮する手法として,データフリーなジョイントランクk近似を提案する。
キャリブレーションデータなしで、元の性能の93.43%を維持しながら80%のパラメータのモデルプルーニングを実現する。
論文 参考訳(メタデータ) (2024-02-26T05:51:47Z) - Learning minimal representations of stochastic processes with
variational autoencoders [52.99137594502433]
プロセスを記述するのに必要なパラメータの最小セットを決定するために、教師なしの機械学習アプローチを導入する。
我々の手法はプロセスを記述する未知のパラメータの自律的な発見を可能にする。
論文 参考訳(メタデータ) (2023-07-21T14:25:06Z) - Scalable and adaptive variational Bayes methods for Hawkes processes [4.580983642743026]
本稿では,スペーサ性誘導法を提案し,一般的なシグモイドホークスプロセスに対する適応平均場変動アルゴリズムを導出する。
我々のアルゴリズムは並列性があり、したがって高次元設定では計算効率がよい。
論文 参考訳(メタデータ) (2022-12-01T05:35:32Z) - On the Effectiveness of Parameter-Efficient Fine-Tuning [79.6302606855302]
現在、多くの研究が、パラメータのごく一部のみを微調整し、異なるタスク間で共有されるパラメータのほとんどを保持することを提案している。
これらの手法は, いずれも細粒度モデルであり, 新たな理論的解析を行う。
我々の理論に根ざした空間性の有効性にもかかわらず、調整可能なパラメータをどう選ぶかという問題はまだ未解決のままである。
論文 参考訳(メタデータ) (2022-11-28T17:41:48Z) - Random Forest Weighted Local Fr\'echet Regression with Random Objects [52.25304029942005]
本稿では,新しいランダム森林重み付き局所Fr'echet回帰パラダイムを提案する。
最初の方法は,これらの重みを局所平均として利用し,条件付きFr'echet平均を解く。
第二の手法は局所線形Fr'echet回帰を行い、どちらも既存のFr'echet回帰法を大幅に改善した。
論文 参考訳(メタデータ) (2022-02-10T09:10:59Z) - Evaluating Sensitivity to the Stick-Breaking Prior in Bayesian
Nonparametrics [85.31247588089686]
変分ベイズ法はベイズモデルのパラメトリック的および非パラメトリック的側面に対して感性が得られることを示す。
ベイズ感度分析に対する変動的アプローチの理論的および経験的支援を提供する。
論文 参考訳(メタデータ) (2021-07-08T03:40:18Z) - Leveraging Global Parameters for Flow-based Neural Posterior Estimation [90.21090932619695]
実験観測に基づくモデルのパラメータを推定することは、科学的方法の中心である。
特に困難な設定は、モデルが強く不確定であるとき、すなわち、パラメータの異なるセットが同一の観測をもたらすときである。
本稿では,グローバルパラメータを共有する観測の補助的セットによって伝達される付加情報を利用して,その不確定性を破る手法を提案する。
論文 参考訳(メタデータ) (2021-02-12T12:23:13Z) - Understanding Variational Inference in Function-Space [20.940162027560408]
この設定で、Kullback-Leiblerの発散を利用する際の利点と制限を強調します。
近似品質を直接測定する関数空間推論手法のベンチマークとしてベイズ線形回帰法を提案する。
論文 参考訳(メタデータ) (2020-11-18T17:42:01Z) - Novel and flexible parameter estimation methods for data-consistent
inversion in mechanistic modeling [0.13635858675752988]
本稿では,レジェクションサンプリング,マルコフ連鎖モンテカルロ,GAN(Generative Adversarial Network)に基づく逆問題(SIP)の解法を提案する。
SIPの限界を克服するため、制約付き最適化に基づいてSIPを再構成し、制約付き最適化問題を解決するための新しいGANを提案する。
論文 参考訳(メタデータ) (2020-09-17T13:13:21Z) - Variable selection for Gaussian process regression through a sparse
projection [0.802904964931021]
本稿では,ガウス過程(GP)レグレッションと統合された新しい変数選択手法を提案する。
パラメータの調整と推定の精度を,選択したベンチマーク手法を用いて評価した。
論文 参考訳(メタデータ) (2020-08-25T01:06:10Z) - Resampling with neural networks for stochastic parameterization in
multiscale systems [0.0]
本研究では,完全に解決されたシミュレーションから観測データや参照データの条件再サンプリングを行う機械学習手法を提案する。
これは、マクロ変数を条件とした参照データのサブセットの確率的分類に基づいている。
我々は,2つのパラメータ設定を用いて,Lorenz 96システムに対するアプローチを検証する。
論文 参考訳(メタデータ) (2020-04-03T10:09:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。