論文の概要: Wasserstein Generative Adversarial Uncertainty Quantification in
Physics-Informed Neural Networks
- arxiv url: http://arxiv.org/abs/2108.13054v1
- Date: Mon, 30 Aug 2021 08:18:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-31 14:15:57.597322
- Title: Wasserstein Generative Adversarial Uncertainty Quantification in
Physics-Informed Neural Networks
- Title(参考訳): 物理形ニューラルネットワークにおけるwasserstein生成逆不確実性定量化
- Authors: Yihang Gao and Michael K. Ng
- Abstract要約: Wasserstein Generative Adversarial Networks (WGAN) は偏微分方程式の解の不確かさを学習するために設計された。
物理インフォームドWGANは、ジェネレータよりも識別器の容量の要求が高いことを示す。
- 参考スコア(独自算出の注目度): 19.15477953428763
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study a physics-informed algorithm for Wasserstein
Generative Adversarial Networks (WGANs) for uncertainty quantification in
solutions of partial differential equations. By using groupsort activation
functions in adversarial network discriminators, network generators are
utilized to learn the uncertainty in solutions of partial differential
equations observed from the initial/boundary data. Under mild assumptions, we
show that the generalization error of the computed generator converges to the
approximation error of the network with high probability, when the number of
samples are sufficiently taken. According to our established error bound, we
also find that our physics-informed WGANs have higher requirement for the
capacity of discriminators than that of generators. Numerical results on
synthetic examples of partial differential equations are reported to validate
our theoretical results and demonstrate how uncertainty quantification can be
obtained for solutions of partial differential equations and the distributions
of initial/boundary data.
- Abstract(参考訳): 本稿では,偏微分方程式の解における不確実性定量化のための物理インフォームドアルゴリズムをWasserstein Generative Adversarial Networks (WGANs) に対して検討する。
逆ネットワーク判別器におけるグループソート活性化関数を用いて、初期/境界データから観測される偏微分方程式の解の不確かさをネットワーク生成器で学習する。
穏やかな仮定の下では、計算されたジェネレータの一般化誤差は、サンプル数を十分に取ると、高い確率でネットワークの近似誤差に収束することを示す。
確立されたエラーバウンドによると、我々の物理インフォームドWGANは、ジェネレータよりも識別器の容量が要求される。
偏微分方程式の合成例に関する数値計算の結果を報告し, 偏微分方程式の解と初期/境界データの分布について不確かさの定量化が可能であることを示す。
関連論文リスト
- Physics-Informed Generator-Encoder Adversarial Networks with Latent
Space Matching for Stochastic Differential Equations [14.999611448900822]
微分方程式における前方・逆・混合問題に対処するために,新しい物理情報ニューラルネットワークのクラスを提案する。
我々のモデルは、ジェネレータとエンコーダの2つのキーコンポーネントで構成され、どちらも勾配降下によって交互に更新される。
従来の手法とは対照的に、より低次元の潜在特徴空間内で機能する間接マッチングを用いる。
論文 参考訳(メタデータ) (2023-11-03T04:29:49Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - PI-VEGAN: Physics Informed Variational Embedding Generative Adversarial
Networks for Stochastic Differential Equations [14.044012646069552]
本稿では,新しい物理インフォームドニューラルネットワーク(PI-VEGAN)について紹介する。
PI-VEGANは微分方程式の前方、逆、混合問題に効果的に取り組む。
我々は,システムパラメータと解の同時計算を必要とする,前方・逆・混合問題に対するPI-VEGANの有効性を評価する。
論文 参考訳(メタデータ) (2023-07-21T01:18:02Z) - Energy-Dissipative Evolutionary Deep Operator Neural Networks [12.764072441220172]
エネルギー分散進化的深層演算子ニューラルネットワーク(Energy-Dissipative Evolutionary Deep Operator Neural Network)は、ニューラルネットワークを学習するオペレータである。
偏微分方程式のクラスに対する数値解をシードするように設計されている。
論文 参考訳(メタデータ) (2023-06-09T22:11:16Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Learning Distributions by Generative Adversarial Networks: Approximation
and Generalization [0.6768558752130311]
本研究では,これらのモデルの収束速度を解析することにより,有限サンプルから生成逆数ネットワークがいかによく学習するかを考察する。
我々の分析は、GANの推定誤差を判別器とジェネレータの近似誤差に分解する新しい不等式オラクルに基づいている。
生成元近似誤差に対して、ニューラルネットワークは、およそ低次元のソース分布を高次元のターゲット分布に変換することができることを示す。
論文 参考訳(メタデータ) (2022-05-25T09:26:17Z) - Robust Estimation for Nonparametric Families via Generative Adversarial
Networks [92.64483100338724]
我々は,高次元ロバストな統計問題を解くためにGAN(Generative Adversarial Networks)を設計するためのフレームワークを提供する。
我々の研究は、これらをロバスト平均推定、第二モーメント推定、ロバスト線形回帰に拡張する。
技術面では、提案したGAN損失は、スムーズで一般化されたコルモゴロフ-スミルノフ距離と見なすことができる。
論文 参考訳(メタデータ) (2022-02-02T20:11:33Z) - A Robust and Flexible EM Algorithm for Mixtures of Elliptical
Distributions with Missing Data [71.9573352891936]
本稿では、ノイズや非ガウス的なデータに対するデータ計算の欠如に対処する。
楕円分布と潜在的な欠落データを扱う特性を混合した新しいEMアルゴリズムについて検討した。
合成データの実験的結果は,提案アルゴリズムが外れ値に対して頑健であり,非ガウスデータで使用可能であることを示す。
論文 参考訳(メタデータ) (2022-01-28T10:01:37Z) - Approximating Probability Distributions by using Wasserstein Generative
Adversarial Networks [16.005358327268194]
ワッサースタイン生成敵ネットワーク(WGAN)とGroupSortニューラルネットワークを判別器として検討した。
対象分布に対する近似の誤差境界は、生成器と識別器の幅と深さ(容量)に依存する。
論文 参考訳(メタデータ) (2021-03-18T07:40:13Z) - General stochastic separation theorems with optimal bounds [68.8204255655161]
分離性の現象が明らかになり、機械学習で人工知能(AI)システムのエラーを修正し、AI不安定性を分析するために使用された。
エラーやエラーのクラスタは、残りのデータから分離することができる。
AIシステムを修正する能力は、それに対する攻撃の可能性も開き、高次元性は、同じ分離性によって引き起こされる脆弱性を誘発する。
論文 参考訳(メタデータ) (2020-10-11T13:12:41Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。