論文の概要: Shape Derivative-Informed Neural Operators with Application to Risk-Averse Shape Optimization
- arxiv url: http://arxiv.org/abs/2603.03211v1
- Date: Tue, 03 Mar 2026 18:06:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.91419
- Title: Shape Derivative-Informed Neural Operators with Application to Risk-Averse Shape Optimization
- Title(参考訳): 形状導出型ニューラル演算子とリスク-逆形状最適化への応用
- Authors: Xindi Gong, Dingcheng Luo, Thomas O'Leary-Roseberry, Ruanui Nicholson, Omar Ghattas,
- Abstract要約: Shape-DINOは、PDEソリューション演算子を学習するための微分インフォームドニューラルネットワークフレームワークである。
そこで,Shape-DINOは,微分情報なしで訓練した演算子サロゲートよりも信頼性の高い最適化結果が得られることを示す。
この例では,Shape-DINOは状態および勾配評価において3-8桁の速度アップを達成している。
- 参考スコア(独自算出の注目度): 0.32622301272834514
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Shape optimization under uncertainty (OUU) is computationally intensive for classical PDE-based methods due to the high cost of repeated sampling-based risk evaluation across many uncertainty realizations and varying geometries, while standard neural surrogates often fail to provide accurate and efficient sensitivities for optimization. We introduce Shape-DINO, a derivative-informed neural operator framework for learning PDE solution operators on families of varying geometries, with a particular focus on accelerating PDE-constrained shape OUU. Shape-DINOs encode geometric variability through diffeomorphic mappings to a fixed reference domain and employ a derivative-informed operator learning objective that jointly learns the PDE solution and its Fréchet derivatives with respect to design variables and uncertain parameters, enabling accurate state predictions and reliable gradients for large-scale OUU. We establish a priori error bounds linking surrogate accuracy to optimization error and prove universal approximation results for multi-input reduced basis neural operators in suitable $C^1$ norms. We demonstrate efficiency and scalability on three representative shape OUU problems, including boundary design for a Poisson equation and shape design governed by steady-state Navier-Stokes exterior flows in two and three dimensions. Across these examples, Shape-DINOs produce more reliable optimization results than operator surrogates trained without derivative information. In our examples, Shape-DINOs achieve 3-8 orders-of-magnitude speedups in state and gradient evaluations. Counting training data generation, Shape-DINOs reduce necessary PDE solves by 1-2 orders-of-magnitude compared to a strictly PDE-based approach for a single OUU problem. Moreover, Shape-DINO construction costs can be amortized across many objectives and risk measures, enabling large-scale shape OUU for complex systems.
- Abstract(参考訳): 不確実性の下での形状最適化(OUU)は、多くの不確実性実現や様々なジオメトリにわたって繰り返しサンプリングベースのリスク評価を行うコストが高いため、古典的なPDEベースの手法では計算に重きを置いている。
本稿では,PDE 制約型 OUU の高速化に着目した,PDE ソリューション演算子を様々なジオメトリの族で学習するための微分インフォームドニューラルネットワークフレームワークである Shape-DINO を紹介する。
形状-DINOは、微分同相写像を固定参照領域へエンコードし、PDE解とそのフレシェ微分を設計変数や不確実なパラメータに関して共同で学習する微分インフォームド演算子学習目標を用いて、大規模OUUの正確な状態予測と信頼性勾配を可能にする。
代用精度を最適化誤差にリンクする事前誤差境界を確立し、適切な$C^1$ノルムで多入力還元基底ニューラル演算子に対する普遍近似結果を証明した。
ポアソン方程式の境界設計や,定常ナヴィエ・ストークス外流が2次元および3次元に支配する形状設計を含む,3つの代表形 OUU 問題に対する効率性とスケーラビリティを実証する。
これらの例全体で、Shape-DINOは微分情報なしで訓練された演算子サロゲートよりも信頼性の高い最適化結果を生成する。
この例では,Shape-DINOは状態および勾配評価において3-8桁の速度アップを達成している。
1つのOUU問題に対する厳密なPDEベースのアプローチと比較して、Shape-DINOは必要なPDEを1-2桁のマグニチュードで削減する。
さらに、形状DINO建設コストは、多くの目的やリスク対策にまたがって償却することができ、複雑なシステムに対して大規模な形状OUUが可能である。
関連論文リスト
- Deep Neural networks for solving high-dimensional parabolic partial differential equations [7.36584254933872]
本稿では,高次元パラボリックPDEを解くニューラルネットワークベースの手法をチュートリアル指向で紹介する。
各パラダイムについて、基礎となる数学的定式化と実践的な強みと限界について概説する。
本稿は,高次元PDEの信頼性と拡張性を実現するためのオープン課題と今後の方向性について論じる。
論文 参考訳(メタデータ) (2026-01-19T17:41:54Z) - Optimality-Informed Neural Networks for Solving Parametric Optimization Problems [0.688204255655161]
ニューラルネットワークを用いてパラメータから原始最適解、および対応する双対への写像を学習することを提案する。
我々のアプローチであるOptimality-informed Neural Networks (OptINNs) は、(i) 1次最適条件の違反を罰するKKT残留損失を組み合わせたものである。
低次元から高次元までの様々な非線形最適化問題に対してOPTINNを評価する。
論文 参考訳(メタデータ) (2025-12-23T11:24:45Z) - High precision PINNs in unbounded domains: application to singularity formulation in PDEs [83.50980325611066]
ニューラルネットワークアンサッツの選択、サンプリング戦略、最適化アルゴリズムについて検討する。
1次元バーガース方程式の場合、我々のフレームワークは非常に高精度な解が得られる。
2D Boussinesq 方程式の場合、損失が 4$ の解は citewang2023asymsymptotic よりも小さく、トレーニングステップは少ない。
論文 参考訳(メタデータ) (2025-06-24T02:01:44Z) - Enabling Automatic Differentiation with Mollified Graph Neural Operators [73.52999622724101]
本稿では,自動微分と任意のジオメトリの正確な勾配を求める最初の手法であるモリファイドグラフニューラル演算子(m$GNO)を提案する。
正規格子上のPDEの例では、$m$GNOとオートグレードの組み合わせにより、L2相対データの誤差は有限差に比べて20倍減少した。
また、物理損失のみを使用し、有限差分に必要な分解能よりもはるかに低い精度で、非構造化点雲上のPDEをシームレスに解くことができる。
論文 参考訳(メタデータ) (2025-04-11T06:16:30Z) - End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - An Extreme Learning Machine-Based Method for Computational PDEs in
Higher Dimensions [1.2981626828414923]
本稿では,確率型ニューラルネットワークに基づく高次元偏微分方程式(PDE)の解法について述べる。
本稿では,高次元線形・非線形定常・動的PDEの数値シミュレーションを行い,その性能を実証する。
論文 参考訳(メタデータ) (2023-09-13T15:59:02Z) - Efficient PDE-Constrained optimization under high-dimensional
uncertainty using derivative-informed neural operators [6.296120102486062]
大規模偏微分方程式(PDE)を高次元ランダムパラメータで解くための新しい枠組みを提案する。
我々は、そのようなニューラル演算子をマルチインプット還元ベースインフォメーションニューラル演算子(MR-DINO)と呼ぶ。
MR-DINOは103ドル~107ドルで実行時間を短縮し,標準PDEソリューションと同等の精度のOUUソリューションを生成可能であることを示す。
論文 参考訳(メタデータ) (2023-05-31T17:26:20Z) - Fully probabilistic deep models for forward and inverse problems in
parametric PDEs [1.9599274203282304]
本稿では,PDEのパラメータ・ツー・ソリューション(前方)と解・ツー・パラメータ(逆)マップを同時に学習する物理駆動型ディープ潜在変数モデル(PDDLVM)を提案する。
提案フレームワークは、観測データをシームレスに統合し、逆問題を解決するとともに、生成モデルを構築するために容易に拡張できる。
有限要素離散パラメトリックPDE問題に対して,本手法の有効性とロバスト性を示す。
論文 参考訳(メタデータ) (2022-08-09T15:40:53Z) - Learning Physics-Informed Neural Networks without Stacked
Back-propagation [82.26566759276105]
我々は,物理インフォームドニューラルネットワークのトレーニングを著しく高速化する新しい手法を開発した。
特に、ガウス滑らか化モデルによりPDE解をパラメータ化し、スタインの恒等性から導かれる2階微分がバックプロパゲーションなしで効率的に計算可能であることを示す。
実験の結果,提案手法は通常のPINN訓練に比べて2桁の精度で競合誤差を実現できることがわかった。
論文 参考訳(メタデータ) (2022-02-18T18:07:54Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z) - Offline Model-Based Optimization via Normalized Maximum Likelihood
Estimation [101.22379613810881]
データ駆動最適化の問題を検討し、一定の点セットでクエリのみを与えられた関数を最大化する必要がある。
この問題は、関数評価が複雑で高価なプロセスである多くの領域に現れる。
我々は,提案手法を高容量ニューラルネットワークモデルに拡張可能なトラクタブル近似を提案する。
論文 参考訳(メタデータ) (2021-02-16T06:04:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。