論文の概要: Using Deep Learning to Improve Ensemble Smoother: Applications to
Subsurface Characterization
- arxiv url: http://arxiv.org/abs/2002.09100v2
- Date: Tue, 20 Oct 2020 15:15:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 01:45:37.072475
- Title: Using Deep Learning to Improve Ensemble Smoother: Applications to
Subsurface Characterization
- Title(参考訳): 深層学習によるアンサンブルのスムース化:地下キャラクタリゼーションへの応用
- Authors: Jiangjiang Zhang, Qiang Zheng, Laosheng Wu, Lingzao Zeng
- Abstract要約: エンサンブルスムース(ES)は様々な研究分野で広く使われている。
ES$_text(DL)$は、複雑なデータ同化アプリケーションにおけるESの更新スキームである。
DLに基づくES法,すなわちES$_text(DL)$はより汎用的で柔軟であることを示す。
- 参考スコア(独自算出の注目度): 2.4373900721120285
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensemble smoother (ES) has been widely used in various research fields to
reduce the uncertainty of the system-of-interest. However, the commonly-adopted
ES method that employs the Kalman formula, that is, ES$_\text{(K)}$, does not
perform well when the probability distributions involved are non-Gaussian. To
address this issue, we suggest to use deep learning (DL) to derive an
alternative update scheme for ES in complex data assimilation applications.
Here we show that the DL-based ES method, that is, ES$_\text{(DL)}$, is more
general and flexible. In this new update scheme, a high volume of training data
are generated from a relatively small-sized ensemble of model parameters and
simulation outputs, and possible non-Gaussian features can be preserved in the
training data and captured by an adequate DL model. This new variant of ES is
tested in two subsurface characterization problems with or without Gaussian
assumptions. Results indicate that ES$_\text{(DL)}$ can produce similar (in the
Gaussian case) or even better (in the non-Gaussian case) results compared to
those from ES$_\text{(K)}$. The success of ES$_\text{(DL)}$ comes from the
power of DL in extracting complex (including non-Gaussian) features and
learning nonlinear relationships from massive amounts of training data.
Although in this work we only apply the ES$_\text{(DL)}$ method in parameter
estimation problems, the proposed idea can be conveniently extended to analysis
of model structural uncertainty and state estimation in real-time forecasting
studies.
- Abstract(参考訳): エンサンブル・スムース(ES)は、様々な研究分野において、関心のシステムの不確実性を減らすために広く利用されている。
しかし、カルマンの公式、すなわち ES$_\text{(K)}$ を用いる一般的な ES 法は、関連する確率分布がガウス的でないときにうまく機能しない。
この問題に対処するために、複雑なデータ同化アプリケーションにおいて、深層学習(DL)を用いてESの代替更新スキームを導出することを提案する。
ここでは DL に基づく ES 法,すなわち ES$_\text{(DL)}$ がより一般的で柔軟であることを示す。
この新たな更新方式では、モデルパラメータとシミュレーション出力の比較的小さなアンサンブルから大量のトレーニングデータが生成され、トレーニングデータに可能な非ガウス的特徴を保存でき、適切なdlモデルでキャプチャされる。
この新しい ES の変種はガウス的仮定の有無にかかわらず2つの地下特性問題で検証される。
結果は ES$_\text{(DL)}$ が ES$_\text{(K)}$ と類似した(ガウス的でない場合)あるいはさらによい(ガウス的でない場合)結果を生成することを示している。
es$_\text{(dl)}$の成功は、複素(非ガウス的)特徴の抽出と大量のトレーニングデータからの非線形関係の学習におけるdlの力によるものである。
本研究はパラメータ推定問題においてES$_\text{(DL)}$法のみを適用するが,提案手法はモデル構造の不確実性の解析や実時間予測における状態推定に便利に拡張できる。
関連論文リスト
- Self-Ensembling Gaussian Splatting for Few-Shot Novel View Synthesis [55.561961365113554]
3D Gaussian Splatting (3DGS) は新規ビュー合成(NVS)に顕著な効果を示した
しかし、3DGSモデルはスパースポーズビューで訓練すると過度に適合する傾向にあり、その一般化能力は新規ビューに制限される。
オーバーフィッティング問題を緩和するために,Self-Ensembling Gaussian Splatting (SE-GS) アプローチを提案する。
提案手法は,NVSの品質向上に寄与し,既存の最先端手法よりも優れる。
論文 参考訳(メタデータ) (2024-10-31T18:43:48Z) - Closed-form Filtering for Non-linear Systems [83.91296397912218]
我々は密度近似と計算効率の面でいくつかの利点を提供するガウスPSDモデルに基づく新しいフィルタのクラスを提案する。
本研究では,遷移や観測がガウスPSDモデルである場合,フィルタリングを効率的にクローズド形式で行うことができることを示す。
提案する推定器は, 近似の精度に依存し, 遷移確率の正則性に適応する推定誤差を伴って, 高い理論的保証を享受する。
論文 参考訳(メタデータ) (2024-02-15T08:51:49Z) - A Specialized Semismooth Newton Method for Kernel-Based Optimal
Transport [92.96250725599958]
カーネルベース最適輸送(OT)推定器は、サンプルからOT問題に対処するための代替的機能的推定手順を提供する。
SSN法は, 標準正規性条件下でのグローバル収束率$O (1/sqrtk)$, 局所二次収束率を達成できることを示す。
論文 参考訳(メタデータ) (2023-10-21T18:48:45Z) - Easy Differentially Private Linear Regression [16.325734286930764]
本研究では,指数関数機構を用いて,非プライベート回帰モデルの集合からタキー深度の高いモデルを選択するアルゴリズムについて検討する。
このアルゴリズムは、データリッチな設定において、強い経験的性能を得る。
論文 参考訳(メタデータ) (2022-08-15T17:42:27Z) - uGLAD: Sparse graph recovery by optimizing deep unrolled networks [11.48281545083889]
深層ネットワークを最適化してスパースグラフ復元を行う新しい手法を提案する。
我々のモデルであるuGLADは、最先端モデルGLADを教師なし設定に構築し、拡張します。
我々は, 遺伝子調節ネットワークから生成した合成ガウスデータ, 非ガウスデータを用いて, モデル解析を行い, 嫌気性消化の事例研究を行った。
論文 参考訳(メタデータ) (2022-05-23T20:20:27Z) - Learning Mixtures of Linear Dynamical Systems [94.49754087817931]
そこで我々は,2段階のメタアルゴリズムを開発し,各基底構造LPSモデルを誤り$tildeO(sqrtd/T)$.sqrtd/T)まで効率的に復元する。
提案手法の有効性を検証し,数値実験による理論的研究を検証する。
論文 参考訳(メタデータ) (2022-01-26T22:26:01Z) - Near-optimal Offline and Streaming Algorithms for Learning Non-Linear
Dynamical Systems [45.17023170054112]
X_t+1 = phi(A* X_t) + eta_t$, where $eta_t$ is unbiased noise and $phi : mathbbR to mathbbR$ is a known link function that certain em expansivity properties。
論文 参考訳(メタデータ) (2021-05-24T22:14:26Z) - Learning to extrapolate using continued fractions: Predicting the
critical temperature of superconductor materials [5.905364646955811]
人工知能(AI)と機械学習(ML)の分野では、未知のターゲット関数 $y=f(mathbfx)$ の近似が共通の目的である。
トレーニングセットとして$S$を参照し、新しいインスタンス$mathbfx$に対して、このターゲット関数を効果的に近似できる低複雑さの数学的モデルを特定することを目的としている。
論文 参考訳(メタデータ) (2020-11-27T04:57:40Z) - Estimating Stochastic Linear Combination of Non-linear Regressions
Efficiently and Scalably [23.372021234032363]
サブサンプルサイズが大きくなると、推定誤差が過度に犠牲になることを示す。
私たちの知る限りでは、線形テキスト+確率モデルが保証される最初の研究です。
論文 参考訳(メタデータ) (2020-10-19T07:15:38Z) - Optimal Robust Linear Regression in Nearly Linear Time [97.11565882347772]
学習者が生成モデル$Y = langle X,w* rangle + epsilon$から$n$のサンプルにアクセスできるような高次元頑健な線形回帰問題について検討する。
i) $X$ is L4-L2 hypercontractive, $mathbbE [XXtop]$ has bounded condition number and $epsilon$ has bounded variance, (ii) $X$ is sub-Gaussian with identity second moment and $epsilon$ is
論文 参考訳(メタデータ) (2020-07-16T06:44:44Z) - Learning Gaussian Graphical Models via Multiplicative Weights [54.252053139374205]
乗算重み更新法に基づいて,Klivans と Meka のアルゴリズムを適用した。
アルゴリズムは、文献の他のものと質的に類似したサンプル複雑性境界を楽しみます。
ランタイムが低い$O(mp2)$で、$m$サンプルと$p$ノードの場合には、簡単にオンライン形式で実装できる。
論文 参考訳(メタデータ) (2020-02-20T10:50:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。