論文の概要: Imposing Boundary Conditions on Neural Operators via Learned Function Extensions
- arxiv url: http://arxiv.org/abs/2602.04923v1
- Date: Wed, 04 Feb 2026 08:28:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.545042
- Title: Imposing Boundary Conditions on Neural Operators via Learned Function Extensions
- Title(参考訳): 学習関数拡張によるニューラル演算子への境界条件の適用
- Authors: Sepehr Mousavi, Siddhartha Mishra, Laura De Lorenzis,
- Abstract要約: 本稿では,機能拡張による複雑な非均一なBC上でのニューラル演算子の条件付けフレームワークを提案する。
我々は、Poisson、線形弾性、超弾性問題にまたがる18の挑戦的データセットをベンチマークした。
この結果から,既存のニューラルネットワークフレームワークにおいて,境界-領域間拡張を学習することは複雑なBCGを注入するための効果的かつ実践的な戦略であることが示唆された。
- 参考スコア(独自算出の注目度): 13.031092961445104
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural operators have emerged as powerful surrogates for the solution of partial differential equations (PDEs), yet their ability to handle general, highly variable boundary conditions (BCs) remains limited. Existing approaches often fail when the solution operator exhibits strong sensitivity to boundary forcings. We propose a general framework for conditioning neural operators on complex non-homogeneous BCs through function extensions. Our key idea is to map boundary data to latent pseudo-extensions defined over the entire spatial domain, enabling any standard operator learning architecture to consume boundary information. The resulting operator, coupled with an arbitrary domain-to-domain neural operator, can learn rich dependencies on complex BCs and input domain functions at the same time. To benchmark this setting, we construct 18 challenging datasets spanning Poisson, linear elasticity, and hyperelasticity problems, with highly variable, mixed-type, component-wise, and multi-segment BCs on diverse geometries. Our approach achieves state-of-the-art accuracy, outperforming baselines by large margins, while requiring no hyperparameter tuning across datasets. Overall, our results demonstrate that learning boundary-to-domain extensions is an effective and practical strategy for imposing complex BCs in existing neural operator frameworks, enabling accurate and robust scientific machine learning models for a broader range of PDE-governed problems.
- Abstract(参考訳): ニューラル作用素は偏微分方程式(PDE)の解の強力な代理として現れてきたが、一般の高可変境界条件(BC)を扱う能力は依然として限られている。
既存のアプローチは、ソリューション演算子が境界強制に対して強い感度を示すと、しばしば失敗する。
本稿では,機能拡張による複雑な非均一なBC上でのニューラル作用素の条件付けのための一般的な枠組みを提案する。
我々のキーとなる考え方は、空間領域全体に定義された潜在擬似拡張に境界データをマッピングし、任意の標準的な演算子学習アーキテクチャが境界情報を消費できるようにすることである。
結果として得られる演算子と任意のドメイン間ニューラルネットワークは、複雑なBCと入力ドメイン関数に対する豊富な依存を同時に学習することができる。
この設定をベンチマークするために,ポアソン,線形弾性,超弾性問題にまたがる18の挑戦的データセットを構築した。
提案手法は,データセット間のハイパーパラメータチューニングを必要とせずに,最先端の精度を実現し,ベースラインを大きなマージンで上回る。
全体として,学習境界からドメインへの拡張は,既存のニューラルネットワークフレームワークに複雑なBCGを注入するための効果的かつ実践的な戦略であり,より広い範囲のPDEが支配する問題に対して,正確かつ堅牢な科学的機械学習モデルを実現することを実証した。
関連論文リスト
- Geometric Laplace Neural Operator [12.869633759181417]
本稿では指数基底関数に富んだ極-極分解に基づく一般化された演算子学習フレームワークを提案する。
本稿では,ラプラススペクトル表現をラプラス・ベルトラミ作用素の固有基底に埋め込んだGLNO(Geometric Laplace Neural Operator)を紹介する。
さらに,実際にGLNOを実現するグリッド不変ネットワークアーキテクチャ(GLNONet)を設計する。
論文 参考訳(メタデータ) (2025-12-18T11:07:41Z) - From Local Interactions to Global Operators: Scalable Gaussian Process Operator for Physical Systems [7.807210884802377]
本稿では,カーネル設計による空間性,局所性,構造情報を活かした,新しいスケーラブルなGPOを提案する。
我々のフレームワークは、様々な離散化スケールで常に高い精度を達成できることを実証する。
論文 参考訳(メタデータ) (2025-06-18T22:40:52Z) - FB-HyDON: Parameter-Efficient Physics-Informed Operator Learning of Complex PDEs via Hypernetwork and Finite Basis Domain Decomposition [0.0]
ディープ・オペレータ・ネットワーク(DeepONet)とニューラル・オペレーターは無限次元の関数空間をマッピングし、ゼロショット超解像を行う能力において大きな注目を集めている。
本稿では,Finite Basis Physics-Informed HyperDeepONet (FB-HyDON)を紹介した。
ハイパーネットワークと有限基底関数を利用することで、FB-HyDONは既存の物理インフォームド演算子学習法に関連するトレーニング制限を効果的に緩和する。
論文 参考訳(メタデータ) (2024-09-13T21:41:59Z) - Multi-Grid Tensorized Fourier Neural Operator for High-Resolution PDEs [93.82811501035569]
本稿では,メモリ要求を低減し,より一般化したデータ効率・並列化可能な演算子学習手法を提案する。
MG-TFNOは、実世界の実世界の現象の局所的構造と大域的構造を活用することで、大規模な分解能にスケールする。
乱流ナビエ・ストークス方程式において150倍以上の圧縮で誤差の半分以下を達成できる優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-29T20:18:52Z) - Neural Fields with Hard Constraints of Arbitrary Differential Order [61.49418682745144]
我々は、ニューラルネットワークに厳しい制約を課すための一連のアプローチを開発する。
制約は、ニューラルネットワークとそのデリバティブに適用される線形作用素として指定することができる。
私たちのアプローチは、広範囲の現実世界のアプリケーションで実証されています。
論文 参考訳(メタデータ) (2023-06-15T08:33:52Z) - Understanding Overparameterization in Generative Adversarial Networks [56.57403335510056]
generative adversarial network (gans) は、非凹型ミニマックス最適化問題を訓練するために用いられる。
ある理論は、グローバル最適解に対する勾配降下 (gd) の重要性を示している。
ニューラルネットワークジェネレータと線形判別器を併用した多層GANにおいて、GDAは、基礎となる非凹面min-max問題の大域的なサドル点に収束することを示す。
論文 参考訳(メタデータ) (2021-04-12T16:23:37Z) - Deep Parametric Continuous Convolutional Neural Networks [92.87547731907176]
Parametric Continuous Convolutionは、非グリッド構造化データ上で動作する、新たな学習可能な演算子である。
室内および屋外シーンの点雲セグメンテーションにおける最先端技術よりも顕著な改善が見られた。
論文 参考訳(メタデータ) (2021-01-17T18:28:23Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。