論文の概要: A Physics-informed Multi-resolution Neural Operator
- arxiv url: http://arxiv.org/abs/2510.23810v1
- Date: Mon, 27 Oct 2025 19:50:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:36.497663
- Title: A Physics-informed Multi-resolution Neural Operator
- Title(参考訳): 物理インフォームド多分解能ニューラル演算子
- Authors: Sumanta Roy, Bahador Bahmani, Ioannis G. Kevrekidis, Michael D. Shields,
- Abstract要約: 本稿では,Resolvion Independent Neural Operator (RINO) フレームワークを完全データフリーな設定に拡張することにより,物理インフォームド演算子学習手法を提案する。
本研究では,リゾリューション独立ニューラル演算子(RINO)フレームワークを完全データフリーな設定に拡張することにより,物理インフォームド演算子学習手法を提案する。
- 参考スコア(独自算出の注目度): 1.4174475093445233
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The predictive accuracy of operator learning frameworks depends on the quality and quantity of available training data (input-output function pairs), often requiring substantial amounts of high-fidelity data, which can be challenging to obtain in some real-world engineering applications. These datasets may be unevenly discretized from one realization to another, with the grid resolution varying across samples. In this study, we introduce a physics-informed operator learning approach by extending the Resolution Independent Neural Operator (RINO) framework to a fully data-free setup, addressing both challenges simultaneously. Here, the arbitrarily (but sufficiently finely) discretized input functions are projected onto a latent embedding space (i.e., a vector space of finite dimensions), using pre-trained basis functions. The operator associated with the underlying partial differential equations (PDEs) is then approximated by a simple multi-layer perceptron (MLP), which takes as input a latent code along with spatiotemporal coordinates to produce the solution in the physical space. The PDEs are enforced via a finite difference solver in the physical space. The validation and performance of the proposed method are benchmarked on several numerical examples with multi-resolution data, where input functions are sampled at varying resolutions, including both coarse and fine discretizations.
- Abstract(参考訳): 演算子学習フレームワークの予測精度は、利用可能なトレーニングデータ(インプット・アウトプット関数ペア)の品質と量に依存する。
これらのデータセットは、ある実現から別の実現への不均一な離散化が可能であり、グリッドの解像度はサンプルによって異なる。
本研究では,リゾリューション独立ニューラル演算子(RINO)フレームワークを完全データフリーな設定に拡張し,両課題を同時に解決する物理インフォームド演算子学習手法を提案する。
ここで、任意の(しかし十分に微細に)離散化された入力関数は、事前訓練された基底関数を用いて、潜在埋め込み空間(つまり有限次元のベクトル空間)に射影される。
基礎となる偏微分方程式 (PDE) に付随する作用素は、単純多層パーセプトロン (MLP) によって近似される。
PDEは物理空間における有限差分解法によって強制される。
提案手法の検証と性能は多分解能データを用いていくつかの数値例でベンチマークされ、入力関数は粗い値と細かな値の両方を含む様々な解像度でサンプリングされる。
関連論文リスト
- Diffeomorphic Latent Neural Operators for Data-Efficient Learning of Solutions to Partial Differential Equations [5.308435208832696]
計算された解演算子から偏微分方程式系(PDE)への近似は、科学や工学の様々な分野において必要である。
十分なデータのサンプル化を必要とせず,複数の領域にまたがって一般化可能なPDEソリューション演算子を学習するために,少数の真理解場に潜伏したニューラル演算子を訓練することができることを提案する。
論文 参考訳(メタデータ) (2024-11-27T03:16:00Z) - Physics-informed Discretization-independent Deep Compositional Operator Network [1.2430809884830318]
我々はPDEパラメータと不規則領域形状の様々な離散表現に一般化できる新しい物理インフォームドモデルアーキテクチャを提案する。
ディープ・オペレーター・ニューラルネットワークにインスパイアされた我々のモデルは、パラメータの繰り返し埋め込みの離散化に依存しない学習を含む。
提案手法の精度と効率を数値計算により検証した。
論文 参考訳(メタデータ) (2024-04-21T12:41:30Z) - D2NO: Efficient Handling of Heterogeneous Input Function Spaces with
Distributed Deep Neural Operators [7.119066725173193]
異種性を示す入力関数を扱うための新しい分散手法を提案する。
中央ニューラルネットワークは、すべての出力関数間で共有情報を処理するために使用される。
ニューラルネットワークが連続非線形作用素の普遍近似であることを示す。
論文 参考訳(メタデータ) (2023-10-29T03:29:59Z) - Score-based Diffusion Models in Function Space [137.70916238028306]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
この研究は、関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)と呼ばれる数学的に厳密なフレームワークを導入する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - Solving High-Dimensional PDEs with Latent Spectral Models [74.1011309005488]
我々は,高次元PDEの効率的かつ高精度な解法に向けて,Latent Spectral Models (LSM) を提案する。
数値解析において古典スペクトル法に着想を得て,潜時空間におけるPDEを解くために,ニューラルスペクトルブロックを設計する。
LSMは、一貫した最先端を実現し、7つのベンチマークで平均11.5%の相対的な利益を得る。
論文 参考訳(メタデータ) (2023-01-30T04:58:40Z) - Physics-Informed Neural Operator for Learning Partial Differential
Equations [55.406540167010014]
PINOは、演算子を学ぶために異なる解像度でデータとPDE制約を組み込んだ最初のハイブリッドアプローチである。
結果の PINO モデルは、多くの人気のある PDE ファミリの基底構造解演算子を正確に近似することができる。
論文 参考訳(メタデータ) (2021-11-06T03:41:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。