論文の概要: Deep adaptive sampling for surrogate modeling without labeled data
- arxiv url: http://arxiv.org/abs/2402.11283v1
- Date: Sat, 17 Feb 2024 13:44:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 22:12:13.488285
- Title: Deep adaptive sampling for surrogate modeling without labeled data
- Title(参考訳): ラベル付きデータを用いないサロゲートモデリングのための深層適応サンプリング
- Authors: Xili Wang, Kejun Tang, Jiayu Zhai, Xiaoliang Wan, Chao Yang
- Abstract要約: 代理モデリングのための深層適応サンプリング法(textDAS2$)を提案する。
パラメトリック設定では、残留損失関数は非正規化確率密度関数とみなすことができる。
新しいサンプルは残留誘起分布と一致し、洗練されたトレーニングセットは統計誤差をさらに減らすことができる。
- 参考スコア(独自算出の注目度): 4.047684532081032
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Surrogate modeling is of great practical significance for parametric
differential equation systems. In contrast to classical numerical methods,
using physics-informed deep learning methods to construct simulators for such
systems is a promising direction due to its potential to handle high
dimensionality, which requires minimizing a loss over a training set of random
samples. However, the random samples introduce statistical errors, which may
become the dominant errors for the approximation of low-regularity and
high-dimensional problems. In this work, we present a deep adaptive sampling
method for surrogate modeling ($\text{DAS}^2$), where we generalize the deep
adaptive sampling (DAS) method [62] [Tang, Wan and Yang, 2023] to build
surrogate models for low-regularity parametric differential equations. In the
parametric setting, the residual loss function can be regarded as an
unnormalized probability density function (PDF) of the spatial and parametric
variables. This PDF is approximated by a deep generative model, from which new
samples are generated and added to the training set. Since the new samples
match the residual-induced distribution, the refined training set can further
reduce the statistical error in the current approximate solution. We
demonstrate the effectiveness of $\text{DAS}^2$ with a series of numerical
experiments, including the parametric lid-driven 2D cavity flow problem with a
continuous range of Reynolds numbers from 100 to 1000.
- Abstract(参考訳): 代理モデリングはパラメトリック微分方程式系にとって非常に実用的である。
古典的な数値法とは対照的に、物理インフォームド・ディープラーニング法を用いてそのようなシステムのためのシミュレータを構築することは、高次元性を扱う可能性から有望な方向であり、ランダムサンプルのトレーニングセットよりも損失を最小限に抑える必要がある。
しかし、ランダムサンプルは統計誤差を導入し、これは低規則性および高次元問題の近似において支配的な誤差となる可能性がある。
本稿では,surogate modeling (\text{das}^2$) に対するディープアダプティブサンプリング法を提案する。ここでは,deep adaptive sampling (das) method [62] [tang, wan and yang, 2023] を一般化し,低正則パラメトリック微分方程式のためのサロゲートモデルを構築する。
パラメトリック設定では、残留損失関数は空間変数とパラメトリック変数の非正規化確率密度関数(PDF)とみなすことができる。
このPDFは深層生成モデルによって近似され、そこから新しいサンプルが生成され、トレーニングセットに追加される。
新しいサンプルは残留誘起分布と一致するため、洗練されたトレーニングセットは現在の近似解の統計誤差をさらに低減することができる。
パラメトリックリッド駆動の2次元キャビティ流れ問題を含む100から1000までの連続的なレイノルズ数を含む一連の数値実験により,$\text{das}^2$の有効性を実証した。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Total Uncertainty Quantification in Inverse PDE Solutions Obtained with Reduced-Order Deep Learning Surrogate Models [50.90868087591973]
機械学習サロゲートモデルを用いて得られた逆PDE解の総不確かさを近似したベイズ近似法を提案する。
非線型拡散方程式に対する反復的アンサンブルスムーズおよび深層アンサンブル法との比較により,提案手法を検証した。
論文 参考訳(メタデータ) (2024-08-20T19:06:02Z) - Scaling and renormalization in high-dimensional regression [72.59731158970894]
本稿では,様々な高次元リッジ回帰モデルの訓練および一般化性能の簡潔な導出について述べる。
本稿では,物理と深層学習の背景を持つ読者を対象に,これらのトピックに関する最近の研究成果の紹介とレビューを行う。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Variational Bayesian surrogate modelling with application to robust design optimisation [0.9626666671366836]
サロゲートモデルは複雑な計算モデルに対して素早く評価できる近似を提供する。
入力の不確かさと次元減少を伴う統計的代理を構築するためのベイズ推定について考察する。
コスト関数がモデル出力の平均および標準偏差の重み付け和に依存するような本質的で頑健な構造最適化問題を示す。
論文 参考訳(メタデータ) (2024-04-23T09:22:35Z) - Diffusion models for probabilistic programming [56.47577824219207]
拡散モデル変分推論(DMVI)は確率型プログラミング言語(PPL)における自動近似推論手法である
DMVIは実装が容易で、例えば正規化フローを用いた変分推論の欠点を伴わずに、PPLでヘイズルフリー推論が可能であり、基礎となるニューラルネットワークモデルに制約を課さない。
論文 参考訳(メタデータ) (2023-11-01T12:17:05Z) - Adaptive importance sampling for Deep Ritz [7.123920027048777]
偏微分方程式(PDE)の解法を目的としたディープリッツ法の適応サンプリング法を提案する。
1つのネットワークはPDEの解を近似するために使用され、もう1つはトレーニングセットを洗練させるために新しいコロケーションポイントを生成するために使用される深層生成モデルである。
従来のDeep Ritz法と比較して、特に低正規性と高次元性で特徴づけられる問題に対して、提案手法は精度を向上する。
論文 参考訳(メタデータ) (2023-10-26T06:35:08Z) - HyperSINDy: Deep Generative Modeling of Nonlinear Stochastic Governing
Equations [5.279268784803583]
本稿では,データからのスパース制御方程式の深部生成モデルを用いた動的モデリングフレームワークHyperSINDyを紹介する。
一度訓練すると、HyperSINDyは、係数が白色雑音によって駆動される微分方程式を介して力学を生成する。
実験では、HyperSINDyはデータと一致するように学習度をスケーリングすることで、基底的真理支配方程式を復元する。
論文 参考訳(メタデータ) (2023-10-07T14:41:59Z) - Tailoring Language Generation Models under Total Variation Distance [55.89964205594829]
ニューラルネットワーク生成の標準パラダイムは、最適化方法として最大推定(MLE)を採用する。
言語生成に適用するための実践的境界を開発する。
本稿では,TVD推定のトレードオフのバランスをとるためのTaiLr の目標について紹介する。
論文 参考訳(メタデータ) (2023-02-26T16:32:52Z) - Inverting brain grey matter models with likelihood-free inference: a
tool for trustable cytoarchitecture measurements [62.997667081978825]
脳の灰白質細胞構造の特徴は、体密度と体積に定量的に敏感であり、dMRIでは未解決の課題である。
我々は新しいフォワードモデル、特に新しい方程式系を提案し、比較的スパースなb殻を必要とする。
次に,提案手法を逆転させるため,確率自由推論 (LFI) として知られるベイズ解析から最新のツールを適用した。
論文 参考訳(メタデータ) (2021-11-15T09:08:27Z) - Variational Inference with NoFAS: Normalizing Flow with Adaptive
Surrogate for Computationally Expensive Models [7.217783736464403]
マルコフ連鎖モンテカルロのようなサンプリングに基づくアプローチの使用は、それぞれの可能性評価が計算的に高価であるときに難解になる可能性がある。
変分推論と正規化フローを組み合わせた新しいアプローチは、潜在変数空間の次元と線形にしか成長しない計算コストによって特徴づけられる。
本稿では,ニューラルネットワークサロゲートモデルの正規化フローパラメータと重みを代わりに更新する最適化戦略である,適応サロゲートを用いた正規化フロー(NoFAS)を提案する。
論文 参考訳(メタデータ) (2021-08-28T14:31:45Z) - Variational Mixture of Normalizing Flows [0.0]
生成逆数ネットワークオートサイトGAN、変分オートエンコーダオートサイトベイペーパー、およびそれらの変種などの深い生成モデルは、複雑なデータ分布をモデル化するタスクに広く採用されている。
正規化フローはこの制限を克服し、確率密度関数にそのような公式の変更を利用する。
本研究は,混合モデルのコンポーネントとして正規化フローを用い,そのようなモデルのエンドツーエンドトレーニング手順を考案することによって,この問題を克服する。
論文 参考訳(メタデータ) (2020-09-01T17:20:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。