論文の概要: DAS: A deep adaptive sampling method for solving partial differential
equations
- arxiv url: http://arxiv.org/abs/2112.14038v1
- Date: Tue, 28 Dec 2021 08:37:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-30 16:06:57.495651
- Title: DAS: A deep adaptive sampling method for solving partial differential
equations
- Title(参考訳): das:偏微分方程式を解くための深適応サンプリング法
- Authors: Kejun Tang, Xiaoliang Wan, Chao Yang
- Abstract要約: 偏微分方程式(PDE)を解くための深層適応サンプリング法(DAS)を提案する。
深部ニューラルネットワークを用いてPDEの解を近似し、深部生成モデルを用いてトレーニングセットを洗練させる新しいコロケーションポイントを生成する。
そこで本研究では,DAS法が誤差境界を低減し,数値実験によりその有効性を実証できることを示す理論的解析を行った。
- 参考スコア(独自算出の注目度): 2.934397685379054
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work we propose a deep adaptive sampling (DAS) method for solving
partial differential equations (PDEs), where deep neural networks are utilized
to approximate the solutions of PDEs and deep generative models are employed to
generate new collocation points that refine the training set. The overall
procedure of DAS consists of two components: solving the PDEs by minimizing the
residual loss on the collocation points in the training set and generating a
new training set to further improve the accuracy of current approximate
solution. In particular, we treat the residual as a probability density
function and approximate it with a deep generative model, called KRnet. The new
samples from KRnet are consistent with the distribution induced by the
residual, i.e., more samples are located in the region of large residual and
less samples are located in the region of small residual. Analogous to
classical adaptive methods such as the adaptive finite element, KRnet acts as
an error indicator that guides the refinement of the training set. Compared to
the neural network approximation obtained with uniformly distributed
collocation points, the developed algorithms can significantly improve the
accuracy, especially for low regularity and high-dimensional problems. We
present a theoretical analysis to show that the proposed DAS method can reduce
the error bound and demonstrate its effectiveness with numerical experiments.
- Abstract(参考訳): 本研究では、偏微分方程式(PDE)を解くための深部適応サンプリング法を提案し、深部ニューラルネットワークを用いてPDEの解を近似し、深部生成モデルを用いてトレーニングセットを洗練するための新たなコロケーションポイントを生成する。
DASの全体的な手順は、トレーニングセット内のコロケーションポイントの残留損失を最小限に抑え、現在の近似解の精度をさらに向上させる新しいトレーニングセットを生成することにより、PDEを解く2つのコンポーネントから構成される。
特に、残差を確率密度関数として扱い、KRnetと呼ばれる深い生成モデルで近似する。
KRnetの新しいサンプルは、残留物によって誘導される分布と一致している、すなわち、多くのサンプルが大きな残留物領域にあり、少ないサンプルが小さな残留物領域にある。
適応有限要素のような古典的な適応法と類似して、KRnetはトレーニングセットの洗練を導くエラー指標として機能する。
均一に分散したコロケーション点を用いたニューラルネットワーク近似と比較して,開発したアルゴリズムは,特に低正則性や高次元問題において,精度を大幅に向上させることができる。
本稿では,提案手法が誤差境界を低減できることを示すための理論的解析を行い,数値実験によりその効果を示す。
関連論文リスト
- A hybrid FEM-PINN method for time-dependent partial differential equations [9.631238071993282]
本稿では、時間有限要素法とディープニューラルネットワークを融合させることにより、進化微分方程式(PDE)を解くためのハイブリッド数値計算法を提案する。
このようなハイブリッドな定式化の利点は2つある: 統計誤差は時間方向の積分に対して回避され、ニューラルネットワークの出力は縮小された空間基底関数の集合と見なすことができる。
論文 参考訳(メタデータ) (2024-09-04T15:28:25Z) - Total Uncertainty Quantification in Inverse PDE Solutions Obtained with Reduced-Order Deep Learning Surrogate Models [50.90868087591973]
機械学習サロゲートモデルを用いて得られた逆PDE解の総不確かさを近似したベイズ近似法を提案する。
非線型拡散方程式に対する反復的アンサンブルスムーズおよび深層アンサンブル法との比較により,提案手法を検証した。
論文 参考訳(メタデータ) (2024-08-20T19:06:02Z) - RoPINN: Region Optimized Physics-Informed Neural Networks [66.38369833561039]
物理インフォームドニューラルネットワーク(PINN)は偏微分方程式(PDE)の解法として広く応用されている。
本稿では,地域最適化としての新たな訓練パラダイムを提案し,理論的に検討する。
実践的なトレーニングアルゴリズムであるRerea Optimized PINN(RoPINN)は、この新しいパラダイムからシームレスに派生している。
論文 参考訳(メタデータ) (2024-05-23T09:45:57Z) - Adaptive importance sampling for Deep Ritz [7.123920027048777]
偏微分方程式(PDE)の解法を目的としたディープリッツ法の適応サンプリング法を提案する。
1つのネットワークはPDEの解を近似するために使用され、もう1つはトレーニングセットを洗練させるために新しいコロケーションポイントを生成するために使用される深層生成モデルである。
従来のDeep Ritz法と比較して、特に低正規性と高次元性で特徴づけられる問題に対して、提案手法は精度を向上する。
論文 参考訳(メタデータ) (2023-10-26T06:35:08Z) - Adversarial Adaptive Sampling: Unify PINN and Optimal Transport for the Approximation of PDEs [2.526490864645154]
ニューラルネットワークモデルにより与えられた近似解とトレーニングセットのランダムサンプルを同時に最適化する新しいminmax式を提案する。
鍵となる考え方は、深層生成モデルを用いてトレーニングセット内のランダムサンプルを調整し、近似されたPDE解によって誘導される残差が滑らかなプロファイルを維持することである。
論文 参考訳(メタデータ) (2023-05-30T02:59:18Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - A Novel Adaptive Causal Sampling Method for Physics-Informed Neural
Networks [35.25394937917774]
インフォームドニューラルネットワーク(PINN)は、偏微分方程式(PDE)の解を得るための魅力的な機械学習手法である。
適応サンプリングに時間因果性を導入し,PINの性能と効率を向上させるための適応因果サンプリング手法を提案する。
本研究では, 比較的単純なサンプリング手法を用いることで, 予測性能を2桁まで向上できることを実証した。
論文 参考訳(メタデータ) (2022-10-24T01:51:08Z) - Adaptive Self-supervision Algorithms for Physics-informed Neural
Networks [59.822151945132525]
物理情報ニューラルネットワーク(PINN)は、損失関数のソフト制約として問題領域からの物理的知識を取り入れている。
これらのモデルの訓練性に及ぼす座標点の位置の影響について検討した。
モデルがより高い誤りを犯している領域に対して、より多くのコロケーションポイントを段階的に割り当てる適応的コロケーション方式を提案する。
論文 参考訳(メタデータ) (2022-07-08T18:17:06Z) - Efficient training of physics-informed neural networks via importance
sampling [2.9005223064604078]
Physics-In Neural Networks(PINN)は、偏微分方程式(PDE)によって制御されるシステムを計算するために訓練されているディープニューラルネットワークのクラスである。
重要サンプリング手法により,PINN訓練の収束挙動が改善されることが示唆された。
論文 参考訳(メタデータ) (2021-04-26T02:45:10Z) - LocalDrop: A Hybrid Regularization for Deep Neural Networks [98.30782118441158]
本稿では,ローカルラデマチャー複雑性を用いたニューラルネットワークの正規化のための新しい手法であるLocalDropを提案する。
フルコネクテッドネットワーク(FCN)と畳み込みニューラルネットワーク(CNN)の両方のための新しい正規化機能は、ローカルラデマチャー複雑さの上限提案に基づいて開発されました。
論文 参考訳(メタデータ) (2021-03-01T03:10:11Z) - Spatially Adaptive Inference with Stochastic Feature Sampling and
Interpolation [72.40827239394565]
スパースサンプリングされた場所のみの機能を計算することを提案する。
次に、効率的な手順で特徴写像を密に再構築する。
提案したネットワークは、様々なコンピュータビジョンタスクの精度を維持しながら、かなりの計算を省くために実験的に示されている。
論文 参考訳(メタデータ) (2020-03-19T15:36:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。