論文の概要: Deep adaptive sampling for surrogate modeling without labeled data
- arxiv url: http://arxiv.org/abs/2402.11283v1
- Date: Sat, 17 Feb 2024 13:44:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 22:12:13.488285
- Title: Deep adaptive sampling for surrogate modeling without labeled data
- Title(参考訳): ラベル付きデータを用いないサロゲートモデリングのための深層適応サンプリング
- Authors: Xili Wang, Kejun Tang, Jiayu Zhai, Xiaoliang Wan, Chao Yang
- Abstract要約: 代理モデリングのための深層適応サンプリング法(textDAS2$)を提案する。
パラメトリック設定では、残留損失関数は非正規化確率密度関数とみなすことができる。
新しいサンプルは残留誘起分布と一致し、洗練されたトレーニングセットは統計誤差をさらに減らすことができる。
- 参考スコア(独自算出の注目度): 4.047684532081032
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Surrogate modeling is of great practical significance for parametric
differential equation systems. In contrast to classical numerical methods,
using physics-informed deep learning methods to construct simulators for such
systems is a promising direction due to its potential to handle high
dimensionality, which requires minimizing a loss over a training set of random
samples. However, the random samples introduce statistical errors, which may
become the dominant errors for the approximation of low-regularity and
high-dimensional problems. In this work, we present a deep adaptive sampling
method for surrogate modeling ($\text{DAS}^2$), where we generalize the deep
adaptive sampling (DAS) method [62] [Tang, Wan and Yang, 2023] to build
surrogate models for low-regularity parametric differential equations. In the
parametric setting, the residual loss function can be regarded as an
unnormalized probability density function (PDF) of the spatial and parametric
variables. This PDF is approximated by a deep generative model, from which new
samples are generated and added to the training set. Since the new samples
match the residual-induced distribution, the refined training set can further
reduce the statistical error in the current approximate solution. We
demonstrate the effectiveness of $\text{DAS}^2$ with a series of numerical
experiments, including the parametric lid-driven 2D cavity flow problem with a
continuous range of Reynolds numbers from 100 to 1000.
- Abstract(参考訳): 代理モデリングはパラメトリック微分方程式系にとって非常に実用的である。
古典的な数値法とは対照的に、物理インフォームド・ディープラーニング法を用いてそのようなシステムのためのシミュレータを構築することは、高次元性を扱う可能性から有望な方向であり、ランダムサンプルのトレーニングセットよりも損失を最小限に抑える必要がある。
しかし、ランダムサンプルは統計誤差を導入し、これは低規則性および高次元問題の近似において支配的な誤差となる可能性がある。
本稿では,surogate modeling (\text{das}^2$) に対するディープアダプティブサンプリング法を提案する。ここでは,deep adaptive sampling (das) method [62] [tang, wan and yang, 2023] を一般化し,低正則パラメトリック微分方程式のためのサロゲートモデルを構築する。
パラメトリック設定では、残留損失関数は空間変数とパラメトリック変数の非正規化確率密度関数(PDF)とみなすことができる。
このPDFは深層生成モデルによって近似され、そこから新しいサンプルが生成され、トレーニングセットに追加される。
新しいサンプルは残留誘起分布と一致するため、洗練されたトレーニングセットは現在の近似解の統計誤差をさらに低減することができる。
パラメトリックリッド駆動の2次元キャビティ流れ問題を含む100から1000までの連続的なレイノルズ数を含む一連の数値実験により,$\text{das}^2$の有効性を実証した。
関連論文リスト
- Diffusion models for probabilistic programming [56.47577824219207]
拡散モデル変分推論(DMVI)は確率型プログラミング言語(PPL)における自動近似推論手法である
DMVIは実装が容易で、例えば正規化フローを用いた変分推論の欠点を伴わずに、PPLでヘイズルフリー推論が可能であり、基礎となるニューラルネットワークモデルに制約を課さない。
論文 参考訳(メタデータ) (2023-11-01T12:17:05Z) - Adaptive importance sampling for Deep Ritz [7.123920027048777]
偏微分方程式(PDE)の解法を目的としたディープリッツ法の適応サンプリング法を提案する。
1つのネットワークはPDEの解を近似するために使用され、もう1つはトレーニングセットを洗練させるために新しいコロケーションポイントを生成するために使用される深層生成モデルである。
従来のDeep Ritz法と比較して、特に低正規性と高次元性で特徴づけられる問題に対して、提案手法は精度を向上する。
論文 参考訳(メタデータ) (2023-10-26T06:35:08Z) - HyperSINDy: Deep Generative Modeling of Nonlinear Stochastic Governing
Equations [5.279268784803583]
本稿では,データからのスパース制御方程式の深部生成モデルを用いた動的モデリングフレームワークHyperSINDyを紹介する。
一度訓練すると、HyperSINDyは、係数が白色雑音によって駆動される微分方程式を介して力学を生成する。
実験では、HyperSINDyはデータと一致するように学習度をスケーリングすることで、基底的真理支配方程式を復元する。
論文 参考訳(メタデータ) (2023-10-07T14:41:59Z) - Probabilistic Unrolling: Scalable, Inverse-Free Maximum Likelihood
Estimation for Latent Gaussian Models [69.22568644711113]
我々は,モンテカルロサンプリングと反復線形解法を組み合わせた確率的アンローリングを導入し,行列逆転を回避した。
理論的解析により,解法の繰り返しによる解法の解法と逆転が最大値推定の勾配推定を高速化することを示した。
シミュレーションおよび実データ実験において、確率的アンロールは、モデル性能の損失を最小限に抑えながら、勾配EMよりも桁違いに高速な潜在ガウスモデルを学習することを示した。
論文 参考訳(メタデータ) (2023-06-05T21:08:34Z) - Reflected Diffusion Models [93.26107023470979]
本稿では,データのサポートに基づいて進化する反射微分方程式を逆転する反射拡散モデルを提案する。
提案手法は,一般化されたスコアマッチング損失を用いてスコア関数を学習し,標準拡散モデルの主要成分を拡張する。
論文 参考訳(メタデータ) (2023-04-10T17:54:38Z) - Tailoring Language Generation Models under Total Variation Distance [55.89964205594829]
ニューラルネットワーク生成の標準パラダイムは、最適化方法として最大推定(MLE)を採用する。
言語生成に適用するための実践的境界を開発する。
本稿では,TVD推定のトレードオフのバランスをとるためのTaiLr の目標について紹介する。
論文 参考訳(メタデータ) (2023-02-26T16:32:52Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Inverting brain grey matter models with likelihood-free inference: a
tool for trustable cytoarchitecture measurements [62.997667081978825]
脳の灰白質細胞構造の特徴は、体密度と体積に定量的に敏感であり、dMRIでは未解決の課題である。
我々は新しいフォワードモデル、特に新しい方程式系を提案し、比較的スパースなb殻を必要とする。
次に,提案手法を逆転させるため,確率自由推論 (LFI) として知られるベイズ解析から最新のツールを適用した。
論文 参考訳(メタデータ) (2021-11-15T09:08:27Z) - Variational Inference with NoFAS: Normalizing Flow with Adaptive
Surrogate for Computationally Expensive Models [7.217783736464403]
マルコフ連鎖モンテカルロのようなサンプリングに基づくアプローチの使用は、それぞれの可能性評価が計算的に高価であるときに難解になる可能性がある。
変分推論と正規化フローを組み合わせた新しいアプローチは、潜在変数空間の次元と線形にしか成長しない計算コストによって特徴づけられる。
本稿では,ニューラルネットワークサロゲートモデルの正規化フローパラメータと重みを代わりに更新する最適化戦略である,適応サロゲートを用いた正規化フロー(NoFAS)を提案する。
論文 参考訳(メタデータ) (2021-08-28T14:31:45Z) - Low-rank Characteristic Tensor Density Estimation Part II: Compression
and Latent Density Estimation [31.631861197477185]
生成確率モデルを学習することは、機械学習における中核的な問題である。
本稿では,共同次元化と非パラメトリック密度推定の枠組みを提案する。
提案手法は, 回帰処理, サンプリング, 異常検出において, 極めて有望な結果が得られることを示す。
論文 参考訳(メタデータ) (2021-06-20T00:38:56Z) - Variational Mixture of Normalizing Flows [0.0]
生成逆数ネットワークオートサイトGAN、変分オートエンコーダオートサイトベイペーパー、およびそれらの変種などの深い生成モデルは、複雑なデータ分布をモデル化するタスクに広く採用されている。
正規化フローはこの制限を克服し、確率密度関数にそのような公式の変更を利用する。
本研究は,混合モデルのコンポーネントとして正規化フローを用い,そのようなモデルのエンドツーエンドトレーニング手順を考案することによって,この問題を克服する。
論文 参考訳(メタデータ) (2020-09-01T17:20:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。