論文の概要: Deep neural network surrogates for non-smooth quantities of interest in
shape uncertainty quantification
- arxiv url: http://arxiv.org/abs/2101.07023v1
- Date: Mon, 18 Jan 2021 12:02:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-27 06:01:52.911789
- Title: Deep neural network surrogates for non-smooth quantities of interest in
shape uncertainty quantification
- Title(参考訳): 深層ニューラルネットワークによる形状不確かさ定量化における非スムース量の推定
- Authors: Laura Scarabosio
- Abstract要約: 私達は楕円形のインターフェイス問題およびヘルムホルツ伝達問題に焦点を合わせます。
物理領域における解の点値は、一般に高次元パラメータに依存しない。
深層ニューラルネットワークを用いたポイント評価用サロゲートを構築します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the point evaluation of the solution to interface problems with
geometric uncertainties, where the uncertainty in the obstacle is described by
a high-dimensional parameter $\boldsymbol{y}\in[-1,1]^d$, $d\in\mathbb{N}$. We
focus in particular on an elliptic interface problem and a Helmholtz
transmission problem. Point values of the solution in the physical domain
depend in general non-smoothly on the high-dimensional parameter, posing a
challenge when one is interested in building surrogates. Indeed, high-order
methods show poor convergence rates, while methods which are able to track
discontinuities usually suffer from the so-called curse of dimensionality. For
this reason, in this work we propose to build surrogates for point evaluation
using deep neural networks. We provide a theoretical justification for why we
expect neural networks to provide good surrogates. Furthermore, we present
extensive numerical experiments showing their good performance in practice. We
observe in particular that neural networks do not suffer from the curse of
dimensionality, and we study the dependence of the error on the number of point
evaluations (that is, the number of discontinuities in the parameter space), as
well as on several modeling parameters, such as the contrast between the two
materials and, for the Helmholtz transmission problem, the wavenumber.
- Abstract(参考訳): 幾何学的不確かさを持つ界面問題に対する解のポイント評価について検討し、障害物の不確かさを高次元パラメータ $\boldsymbol{y}\in[-1,1]^d$, $d\in\mathbb{n}$ で記述する。
特に楕円型インタフェース問題とヘルムホルツ伝送問題に焦点を当てる。
物理領域における解のポイント値は、高次元パラメータに非スムースに依存し、サーロゲートの構築に関心がある場合の課題となる。
実際、高次法は収束率が低いが、不連続性を追跡する方法は通常、いわゆる次元性の呪いに悩まされる。
そこで本研究では,深層ニューラルネットワークを用いた点評価のためのサロゲートの構築を提案する。
ニューラルネットワークが優れたサロゲートを提供する理由を理論的に正当化する。
さらに, 実運用における優れた性能を示す広範な数値実験を行った。
特に,ニューラルネットワークが次元の呪いに苦しむことはないことを観察し,点評定点数(つまり,パラメータ空間における不連続点数)に対する誤差の依存性や,2つの物質間のコントラストやヘルムホルツ伝達問題に対するヘルムホルツ伝達問題などのモデリングパラメータについて検討した。
関連論文リスト
- Bayesian Physics Informed Neural Networks for Linear Inverse problems [1.30536490219656]
逆問題は科学や工学において発生し、間接的な観測から量の推測を行う必要がある。
BPINNの概念は、物理法則とディープラーニング技術を統合して、速度、精度、効率を向上させる。
本研究は,訓練段階における教師なしと教師なしの2症例について考察し,未知変数の後方確率の式を求め,NNパラメータの後方法則を導出する。
論文 参考訳(メタデータ) (2025-02-18T14:52:57Z) - Neural network analysis of neutron and X-ray reflectivity data:
Incorporating prior knowledge for tackling the phase problem [141.5628276096321]
本稿では,事前知識を利用して,より大規模なパラメータ空間上でのトレーニングプロセスを標準化する手法を提案する。
ボックスモデルパラメータ化を用いた多層構造を含む様々なシナリオにおいて,本手法の有効性を示す。
従来の手法とは対照的に,逆問題の複雑性を増大させると,我々の手法は好適にスケールする。
論文 参考訳(メタデータ) (2023-06-28T11:15:53Z) - On the ISS Property of the Gradient Flow for Single Hidden-Layer Neural
Networks with Linear Activations [0.0]
本研究では,不確かさが勾配推定に及ぼす影響について検討した。
一般の過度にパラメータ化された定式化は、損失関数が最小化される集合の外側に配置されるスプリアス平衡の集合を導入することを示す。
論文 参考訳(メタデータ) (2023-05-17T02:26:34Z) - Conductivity Imaging from Internal Measurements with Mixed Least-Squares
Deep Neural Networks [4.228167013618626]
我々は,楕円型問題における導電率分布を再構築するために,ディープニューラルネットワークを用いた新しいアプローチを開発した。
連続的および経験的損失の両方に対して、導電率の深いニューラルネットワーク近似を徹底的に分析する。
論文 参考訳(メタデータ) (2023-03-29T04:43:03Z) - Efficient Bayesian Physics Informed Neural Networks for Inverse Problems
via Ensemble Kalman Inversion [0.0]
本稿では,高次元推論タスクにEnsemble Kalman Inversion (EKI) を用いるB-PINNの新しい効率的な推論アルゴリズムを提案する。
提案手法は,ハミルトン・モンテカルロ (HMC) ベースのB-PINNに匹敵する情報的不確実性を推定し,計算コストを大幅に削減できることを示す。
論文 参考訳(メタデータ) (2023-03-13T18:15:26Z) - Sample Complexity of Nonparametric Off-Policy Evaluation on
Low-Dimensional Manifolds using Deep Networks [71.95722100511627]
深層ニューラルネットワークを用いた強化学習における非政治的評価問題について考察する。
ネットワークサイズを適切に選択することにより、マルコフ決定過程において低次元多様体構造を利用することができることを示す。
論文 参考訳(メタデータ) (2022-06-06T20:25:20Z) - Mean-field Analysis of Piecewise Linear Solutions for Wide ReLU Networks [83.58049517083138]
勾配勾配勾配を用いた2層ReLUネットワークについて検討する。
SGDは単純な解に偏りがあることが示される。
また,データポイントと異なる場所で結び目が発生するという経験的証拠も提供する。
論文 参考訳(メタデータ) (2021-11-03T15:14:20Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Numerical Solution of Inverse Problems by Weak Adversarial Networks [6.571303769953873]
我々は与えられた逆問題におけるPDEの弱い定式化を活用し、解とテスト関数をディープニューラルネットワークとしてパラメータ化する。
パラメータが更新されると、ネットワークは徐々に逆問題の解を近似する。
論文 参考訳(メタデータ) (2020-02-26T07:58:37Z) - Beyond Dropout: Feature Map Distortion to Regularize Deep Neural
Networks [107.77595511218429]
本稿では,ディープニューラルネットワークの中間層に関連する実験的なRademacher複雑性について検討する。
上記の問題に対処するための特徴歪み法(Disout)を提案する。
より高い試験性能を有するディープニューラルネットワークを作製するための特徴写像歪みの優位性を解析し、実証した。
論文 参考訳(メタデータ) (2020-02-23T13:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。