論文の概要: Derivative-Informed Projected Neural Networks for High-Dimensional
Parametric Maps Governed by PDEs
- arxiv url: http://arxiv.org/abs/2011.15110v2
- Date: Tue, 16 Mar 2021 22:08:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-06 22:28:37.683725
- Title: Derivative-Informed Projected Neural Networks for High-Dimensional
Parametric Maps Governed by PDEs
- Title(参考訳): PDEによる高次元パラメトリックマップのための微分インフォームド・ニューラルネット
- Authors: Thomas O'Leary-Roseberry, Umberto Villa, Peng Chen, and Omar Ghattas
- Abstract要約: 我々は,高次元PDE重み付きパラメトリックマップを投影型ニューラルネットワークの形で構築する。
提案するニューラルネットワークは,完全なニューラルネットワークよりも精度が高いことを示す。
- 参考スコア(独自算出の注目度): 6.178864935410097
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many-query problems, arising from uncertainty quantification, Bayesian
inversion, Bayesian optimal experimental design, and optimization under
uncertainty-require numerous evaluations of a parameter-to-output map. These
evaluations become prohibitive if this parametric map is high-dimensional and
involves expensive solution of partial differential equations (PDEs). To tackle
this challenge, we propose to construct surrogates for high-dimensional
PDE-governed parametric maps in the form of projected neural networks that
parsimoniously capture the geometry and intrinsic low-dimensionality of these
maps. Specifically, we compute Jacobians of these PDE-based maps, and project
the high-dimensional parameters onto a low-dimensional derivative-informed
active subspace; we also project the possibly high-dimensional outputs onto
their principal subspace. This exploits the fact that many high-dimensional
PDE-governed parametric maps can be well-approximated in low-dimensional
parameter and output subspace. We use the projection basis vectors in the
active subspace as well as the principal output subspace to construct the
weights for the first and last layers of the neural network, respectively. This
frees us to train the weights in only the low-dimensional layers of the neural
network. The architecture of the resulting neural network captures to first
order, the low-dimensional structure and geometry of the parametric map. We
demonstrate that the proposed projected neural network achieves greater
generalization accuracy than a full neural network, especially in the limited
training data regime afforded by expensive PDE-based parametric maps. Moreover,
we show that the number of degrees of freedom of the inner layers of the
projected network is independent of the parameter and output dimensions, and
high accuracy can be achieved with weight dimension independent of the
discretization dimension.
- Abstract(参考訳): 不確かさの定量化、ベイジアン逆変換、ベイジアン最適実験設計、不確実性下での最適化から生じる多くの問合せ問題。
これらの評価は、このパラメトリック写像が高次元であり、偏微分方程式(pdes)の高価な解を含む場合、禁止される。
この課題に取り組むために,高次元 pde-governed parametric map のためのサロゲートを投影ニューラルネットワークとして構築し,これらの写像の幾何学的および固有低次元性を同時に捉えることを提案する。
具体的には、これらの PDE ベースの写像のヤコビアンを計算し、高次元パラメータを低次元微分インフォームドな活性部分空間に投影する。
このことは、多くの高次元 PDE-governed parametric map が低次元パラメータと出力部分空間で十分に近似できるという事実を利用する。
我々は、ニューラルネットワークの第1層と最後の層の重み付けを構成するために、アクティブ部分空間における投影基底ベクトルと主出力部分空間を使用する。
これにより、ニューラルネットワークの低次元層のみに重みをトレーニングすることができます。
結果のニューラルネットワークのアーキテクチャは、パラメトリックマップの低次元構造と幾何学を1階にキャプチャする。
提案したニューラルネットワークは,特に高価なPDEベースのパラメトリックマップによって提供される限られたトレーニングデータ構造において,完全なニューラルネットワークよりも高い一般化精度を実現することを示す。
さらに、投影されたネットワークの内部層の自由度数はパラメータと出力次元とは無関係であり、離散化次元とは独立な重み次元で高精度に達成できることを示す。
関連論文リスト
- Separable DeepONet: Breaking the Curse of Dimensionality in Physics-Informed Machine Learning [0.0]
ラベル付きデータセットがない場合、PDE残留損失を利用して物理系を学習する。
この手法は、主に次元の呪いによる重要な計算課題に直面するが、計算コストは、より詳細な離散化とともに指数関数的に増加する。
本稿では,これらの課題に対処し,高次元PDEのスケーラビリティを向上させるために,分離可能なDeepONetフレームワークを紹介する。
論文 参考訳(メタデータ) (2024-07-21T16:33:56Z) - ParaPoint: Learning Global Free-Boundary Surface Parameterization of 3D Point Clouds [52.03819676074455]
ParaPointは、グローバルな自由境界面パラメータ化を実現するための教師なしのニューラルネットワークパイプラインである。
この研究は、グローバルマッピングと自由境界の両方を追求するニューラルポイントクラウドパラメータ化を調査する最初の試みである。
論文 参考訳(メタデータ) (2024-03-15T14:35:05Z) - Sample Complexity of Neural Policy Mirror Descent for Policy
Optimization on Low-Dimensional Manifolds [75.51968172401394]
深部畳み込みニューラルネットワーク(CNN)を用いたNPMDアルゴリズムのサンプル複雑性について検討した。
NPMDの各イテレーションでは、値関数とポリシーの両方をCNNによってうまく近似することができる。
NPMDは状態空間の低次元構造を利用して次元の呪いから逃れることができることを示す。
論文 参考訳(メタデータ) (2023-09-25T07:31:22Z) - Tackling the Curse of Dimensionality with Physics-Informed Neural Networks [24.86574584293979]
我々は、任意の高次元PDEを解決するために、物理インフォームドニューラルネットワーク(PINN)をスケールアップする新しい方法を開発した。
本研究では,提案手法が多くの高次元PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2023-07-23T12:18:12Z) - Data-Free Learning of Reduced-Order Kinematics [54.85157881323157]
画像が多様だが低エネルギーな構成のサブ多様体をパラメータ化する低次元マップを作成する。
サブスペースを低次元潜在ベクトルを全構成空間にマッピングするニューラルネットワークとして表現する。
この定式化は、非常に一般的な物理系において有効である。
論文 参考訳(メタデータ) (2023-05-05T20:53:36Z) - Multilevel CNNs for Parametric PDEs [0.0]
偏微分方程式に対する多段階解法の概念とニューラルネットワークに基づくディープラーニングを組み合わせる。
より詳細な理論的解析により,提案アーキテクチャは乗算Vサイクルを任意の精度で近似できることを示した。
最先端のディープラーニングベースの解法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-04-01T21:11:05Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - Lie Point Symmetry Data Augmentation for Neural PDE Solvers [69.72427135610106]
本稿では,ニューラルPDEソルバサンプルの複雑性を改善することにより,この問題を部分的に緩和する手法を提案する。
PDEの文脈では、データ変換の完全なリストを定量的に導き出せることが分かりました。
神経性PDEソルバサンプルの複雑さを桁違いに改善するために、どのように容易に展開できるかを示す。
論文 参考訳(メタデータ) (2022-02-15T18:43:17Z) - Parametric Complexity Bounds for Approximating PDEs with Neural Networks [41.46028070204925]
pdeの係数が小さなニューラルネットワークで表現できる場合、入力された$d$でスケール的に解を近似するために必要なパラメータは、ニューラルネットワークのパラメータ数に比例することを証明する。
我々の証明は、PDEの解に収束する適切な空間における勾配降下をシミュレートするニューラルネットワークの構築に基づいている。
論文 参考訳(メタデータ) (2021-03-03T02:42:57Z) - Projected Wasserstein gradient descent for high-dimensional Bayesian
inference [8.750791391857264]
本稿では,高次元ベイズ推論問題に対するWasserstein勾配降下法 (pWGD) を提案する。
後方分布と先行分布の差における本質的な低ランク構造を生かして,この課題を克服する。
論文 参考訳(メタデータ) (2021-02-12T05:12:05Z) - Augmented Sliced Wasserstein Distances [55.028065567756066]
拡張スライスされたワッサーシュタイン距離(ASWD)と呼ばれる新しい距離測定法を提案する。
ASWDは、ニューラルネットワークによってパラメータ化された高次元超曲面への最初のマッピングサンプルによって構成される。
数値的な結果から、ASWDは、合成問題と実世界の問題の両方において、他のワッサーシュタイン変種を著しく上回っていることが示されている。
論文 参考訳(メタデータ) (2020-06-15T23:00:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。