論文の概要: A reduced-order derivative-informed neural operator for subsurface fluid-flow
- arxiv url: http://arxiv.org/abs/2509.13620v1
- Date: Wed, 17 Sep 2025 01:30:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.681941
- Title: A reduced-order derivative-informed neural operator for subsurface fluid-flow
- Title(参考訳): 地下流体流に対する低次微分インフォームドニューラル演算子
- Authors: Jeongjin, Park, Grant Bruer, Huseyin Tuna Erdinc, Abhinav Prakash Gahlot, Felix J. Herrmann,
- Abstract要約: ニューラル演算子のための低次微分インフォームドトレーニングフレームワークを提案する。
DeFINOは、観測データによって直接情報を得る感度情報をキャプチャする。
基礎流体力学の頑健な前方予測を維持しつつ, 勾配精度の向上を実証する。
- 参考スコア(独自算出の注目度): 0.21585047554218337
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural operators have emerged as cost-effective surrogates for expensive fluid-flow simulators, particularly in computationally intensive tasks such as permeability inversion from time-lapse seismic data, and uncertainty quantification. In these applications, the fidelity of the surrogate's gradients with respect to system parameters is crucial, as the accuracy of downstream tasks, such as optimization and Bayesian inference, relies directly on the quality of the derivative information. Recent advances in physics-informed methods have leveraged derivative information to improve surrogate accuracy. However, incorporating explicit Jacobians can become computationally prohibitive, as the complexity typically scales quadratically with the number of input parameters. To address this limitation, we propose DeFINO (Derivative-based Fisher-score Informed Neural Operator), a reduced-order, derivative-informed training framework. DeFINO integrates Fourier neural operators (FNOs) with a novel derivative-based training strategy guided by the Fisher Information Matrix (FIM). By projecting Jacobians onto dominant eigen-directions identified by the FIM, DeFINO captures critical sensitivity information directly informed by observational data, significantly reducing computational expense. We validate DeFINO through synthetic experiments in the context of subsurface multi-phase fluid-flow, demonstrating improvements in gradient accuracy while maintaining robust forward predictions of underlying fluid dynamics. These results highlight DeFINO's potential to offer practical, scalable solutions for inversion problems in complex real-world scenarios, all at substantially reduced computational cost.
- Abstract(参考訳): 神経オペレーターは高価な流体流シミュレーター、特に時間経過地震データからの透過性逆転や不確実性定量化といった計算集約的なタスクにおいて、コスト効率のよいサロゲートとして登場した。
これらの応用では、最適化やベイズ推論といった下流タスクの精度は、微分情報の質に直接依存するため、システムパラメータに対する代理の勾配の忠実さが不可欠である。
物理インフォームド手法の最近の進歩は、代理精度を向上させるために微分情報を活用している。
しかし、明示的なヤコビアンを組み込むことは計算的に禁じられることがある。
この制限に対処するため,DFINO (Derivative-based Fisher-score Informed Neural Operator) を提案する。
DeFINOは、Funier Neural operator(FNO)とFisher Information Matrix(FIM)が指導する新しい微分ベースのトレーニング戦略を統合している。
ヤコビアンをFIMによって特定された優占的固有方向へ投影することにより、デフィノは観測データによって直接に通知される重要な感度情報を捕捉し、計算コストを著しく削減する。
我々は, 地下多相流体流の文脈における合成実験によるDeFINOの検証を行い, 基礎流体力学の頑健な前方予測を維持しつつ, 勾配精度の向上を実証した。
これらの結果は、複雑な実世界のシナリオにおける逆問題に対する実用的でスケーラブルなソリューションを、いずれも計算コストを大幅に削減するDeFINOの可能性を浮き彫りにしている。
関連論文リスト
- OmniFluids: Physics Pre-trained Modeling of Fluid Dynamics [25.066485418709114]
OmniFluidsは、基礎流体力学の法則を捉え、多様な下流タスクに効率的に適応する純粋物理事前学習モデルである。
本研究では,物理のみの事前学習,粗粒度演算子蒸留,小ショットファインチューニングを併用したトレーニングフレームワークを開発した。
テストによると、OmniFluidsは流れ場の予測と統計の点で最先端のAI駆動手法より優れている。
論文 参考訳(メタデータ) (2025-06-12T16:23:02Z) - LaPON: A Lagrange's-mean-value-theorem-inspired operator network for solving PDEs and its application on NSE [8.014720523981385]
ラグランジュの平均値定理に着想を得た演算子ネットワークであるLaPONを提案する。
損失関数ではなく、ニューラルネットワークアーキテクチャに直接、事前の知識を組み込む。
LaPONは、高忠実度流体力学シミュレーションのためのスケーラブルで信頼性の高いソリューションを提供する。
論文 参考訳(メタデータ) (2025-05-18T10:45:17Z) - Decentralized Nonconvex Composite Federated Learning with Gradient Tracking and Momentum [78.27945336558987]
分散サーバ(DFL)はクライアント・クライアント・アーキテクチャへの依存をなくす。
非滑らかな正規化はしばしば機械学習タスクに組み込まれる。
本稿では,これらの問題を解決する新しいDNCFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-17T08:32:25Z) - Efficient Transformed Gaussian Process State-Space Models for Non-Stationary High-Dimensional Dynamical Systems [49.819436680336786]
本研究では,高次元非定常力学系のスケーラブルかつ柔軟なモデリングのための効率的な変換ガウス過程状態空間モデル(ETGPSSM)を提案する。
具体的には、ETGPSSMは、単一の共有GPと入力依存の正規化フローを統合し、複雑な非定常遷移ダイナミクスを捉える前に、表現的な暗黙のプロセスを生成する。
ETGPSSMは、計算効率と精度の観点から、既存のGPSSMとニューラルネットワークベースのSSMより優れています。
論文 参考訳(メタデータ) (2025-03-24T03:19:45Z) - Using Parametric PINNs for Predicting Internal and External Turbulent Flows [6.387263468033964]
提案するRANS-PINNフレームワークは,シリンダー上の流れの予測にのみ焦点をあてたものである。
本研究では,内流と外流の双方に対して,関連する乱流変数を予測する際の精度について検討する。
論文 参考訳(メタデータ) (2024-10-24T17:08:20Z) - Guaranteed Approximation Bounds for Mixed-Precision Neural Operators [83.64404557466528]
我々は、ニューラル演算子学習が本質的に近似誤差を誘導する直感の上に構築する。
提案手法では,GPUメモリ使用量を最大50%削減し,スループットを58%向上する。
論文 参考訳(メタデータ) (2023-07-27T17:42:06Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - Derivative-Informed Neural Operator: An Efficient Framework for
High-Dimensional Parametric Derivative Learning [3.7051887945349518]
微分インフォームド・ニューラル演算子(DINO)を提案する。
DINO は入力関数空間から出力関数空間や興味の量への無限次元写像として近似する。
提案したDINOは,デリバティブ情報なしで訓練したニューラル演算子よりも有意に精度が高いことを示す。
論文 参考訳(メタデータ) (2022-06-21T21:40:01Z) - Incorporating NODE with Pre-trained Neural Differential Operator for
Learning Dynamics [73.77459272878025]
ニューラル微分演算子(NDO)の事前学習による動的学習における教師付き信号の強化を提案する。
NDOは記号関数のクラスで事前訓練され、これらの関数の軌跡サンプルとそれらの導関数とのマッピングを学習する。
我々は,NDOの出力が,ライブラリの複雑さを適切に調整することで,基礎となる真理微分を適切に近似できることを理論的に保証する。
論文 参考訳(メタデータ) (2021-06-08T08:04:47Z) - Physics-aware deep neural networks for surrogate modeling of turbulent
natural convection [0.0]
Rayleigh-B'enard乱流流に対するPINNのサーロゲートモデルの使用を検討する。
標準ピンの精度が低いゾーンであるトレーニング境界に近い正規化として、どのように機能するかを示す。
50億のDNS座標全体のサロゲートの予測精度は、相対的なL2ノルムで[0.3% -- 4%]の範囲のすべてのフロー変数のエラーをもたらします。
論文 参考訳(メタデータ) (2021-03-05T09:48:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。