論文の概要: Test-time Generalization for Physics through Neural Operator Splitting
- arxiv url: http://arxiv.org/abs/2602.00884v1
- Date: Sat, 31 Jan 2026 20:08:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.449473
- Title: Test-time Generalization for Physics through Neural Operator Splitting
- Title(参考訳): ニューラル演算子分割による物理試験時間一般化
- Authors: Louis Serrano, Jiequn Han, Edouard Oyallon, Shirley Ho, Rudy Morel,
- Abstract要約: トレーニングオペレータの合成を探索し、未知のダイナミクスを近似する神経オペレータ分割戦略を導入する。
提案手法は,基礎となるPDEパラメータを復元しながら,最先端のゼロショット一般化結果を実現する。
- 参考スコア(独自算出の注目度): 12.59844119790293
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural operators have shown promise in learning solution maps of partial differential equations (PDEs), but they often struggle to generalize when test inputs lie outside the training distribution, such as novel initial conditions, unseen PDE coefficients or unseen physics. Prior works address this limitation with large-scale multiple physics pretraining followed by fine-tuning, but this still requires examples from the new dynamics, falling short of true zero-shot generalization. In this work, we propose a method to enhance generalization at test time, i.e., without modifying pretrained weights. Building on DISCO, which provides a dictionary of neural operators trained across different dynamics, we introduce a neural operator splitting strategy that, at test time, searches over compositions of training operators to approximate unseen dynamics. On challenging out-of-distribution tasks including parameter extrapolation and novel combinations of physics phenomena, our approach achieves state-of-the-art zero-shot generalization results, while being able to recover the underlying PDE parameters. These results underscore test-time computation as a key avenue for building flexible, compositional, and generalizable neural operators.
- Abstract(参考訳): ニューラル作用素は偏微分方程式(PDE)の学習解写像において有望であるが、新しい初期条件や未知のPDE係数、未知の物理学など、試験入力がトレーニング分布外にある場合、一般化に苦慮することが多い。
以前の研究は、大規模な多重物理事前訓練と微調整によるこの制限に対処していたが、それでもこれは真のゼロショット一般化に欠ける新しい力学の例を必要とする。
本研究では,事前学習した重みを変更することなく,テスト時の一般化を向上する手法を提案する。
異なるダイナミックスでトレーニングされたニューラル演算子の辞書を提供するdisCO上に構築されており、テスト時にトレーニング演算子の合成を探索し、未知のダイナミクスを近似するニューラル演算子の分割戦略を導入する。
パラメータ外挿や物理現象の新たな組み合わせを含む分布外処理の課題に対して,本手法は基礎となるPDEパラメータを復元しつつ,最先端のゼロショット一般化結果を達成している。
これらの結果は、フレキシブルで構成的で一般化可能なニューラル演算子を構築するための重要な道として、テスト時間計算の基盤となる。
関連論文リスト
- Learning Physical Operators using Neural Operators [10.57578521926415]
我々は、線形作用素を固定有限差分畳み込みで近似しながら、個々の非線形物理作用素を学習するようにニューラルネットワークを訓練する。
学習した演算子が右辺を構成するニューラル常微分方程式(ODE)としてモデル化タスクを定式化する。
我々の手法は、目に見えない物理学を一般化する際に、より良い収束と優れた性能を達成する。
論文 参考訳(メタデータ) (2026-02-26T15:27:14Z) - Expanding the Chaos: Neural Operator for Stochastic (Partial) Differential Equations [65.80144621950981]
我々はWienerカオス拡張(WCE)に基づいて、SPDEとSDEのためのニューラル演算子(NO)アーキテクチャを設計する。
WCEベースのニューラル演算子は、SDE/SPDEソリューション演算子を学習するための実用的でスケーラブルな方法を提供する。
論文 参考訳(メタデータ) (2026-01-03T00:59:25Z) - Accelerating PDE Solvers with Equation-Recast Neural Operator Preconditioning [9.178290601589365]
Minimal-Data Parametric Neural Operator Preconditioning (MD-PNOP) はパラメトリックPDEソルバを高速化するための新しいパラダイムである。
パラメータ偏差の残差を、トレーニングされたニューラル演算子を使用して、オフラインでソリューションを洗練させる、追加のソース用語として再キャストする。
固定ソース、単一グループ固有値、および多群結合固有値問題に対する完全順序忠実度を維持しつつ、計算時間の50%削減を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-01T12:14:58Z) - From Theory to Application: A Practical Introduction to Neural Operators in Scientific Computing [0.0]
この研究は、Deep Operator Networks (DeepONet) や主成分分析に基づくニューラルネットワーク (PCANet) などの基礎モデルをカバーする。
レビューでは、ベイズ推論問題の代理として神経オペレーターを適用し、精度を維持しながら後部推論を加速させる効果を示した。
残差ベースのエラー修正やマルチレベルトレーニングなど、これらの問題に対処する新たな戦略を概説する。
論文 参考訳(メタデータ) (2025-03-07T17:25:25Z) - DimINO: Dimension-Informed Neural Operator Learning [41.37905663176428]
Diminoは次元分析にインスパイアされたフレームワークである。
既存のニューラル演算子アーキテクチャにシームレスに統合することができる。
PDEデータセットで最大76.3%のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - PICL: Physics Informed Contrastive Learning for Partial Differential Equations [7.136205674624813]
我々は,複数の支配方程式にまたがるニューラル演算子一般化を同時に改善する,新しいコントラスト事前学習フレームワークを開発する。
物理インフォームドシステムの進化と潜在空間モデル出力の組み合わせは、入力データに固定され、我々の距離関数で使用される。
物理インフォームドコントラストプレトレーニングにより,1次元および2次元熱,バーガーズ,線形対流方程式に対する固定フューチャーおよび自己回帰ロールアウトタスクにおけるフーリエニューラル演算子の精度が向上することがわかった。
論文 参考訳(メタデータ) (2024-01-29T17:32:22Z) - On the Dynamics Under the Unhinged Loss and Beyond [104.49565602940699]
我々は、閉形式力学を解析するための数学的機会を提供する、簡潔な損失関数であるアンヒンジド・ロスを導入する。
アンヒンジされた損失は、時間変化学習率や特徴正規化など、より実践的なテクニックを検討することができる。
論文 参考訳(メタデータ) (2023-12-13T02:11:07Z) - Neural Operators for Accelerating Scientific Simulations and Design [85.89660065887956]
Neural Operatorsとして知られるAIフレームワークは、継続的ドメインで定義された関数間のマッピングを学習するための原則的なフレームワークを提供する。
ニューラルオペレータは、計算流体力学、天気予報、物質モデリングなど、多くのアプリケーションで既存のシミュレータを拡張または置き換えることができる。
論文 参考訳(メタデータ) (2023-09-27T00:12:07Z) - Long-time integration of parametric evolution equations with
physics-informed DeepONets [0.0]
ランダムな初期条件を関連するPDE解に短時間でマッピングする無限次元演算子を学習するための効果的なフレームワークを提案する。
その後、訓練されたモデルを反復的に評価することにより、一連の初期条件にわたるグローバルな長期予測が得られる。
これは時間領域分解に対する新しいアプローチを導入し、正確な長期シミュレーションを実行するのに有効であることを示した。
論文 参考訳(メタデータ) (2021-06-09T20:46:17Z) - What training reveals about neural network complexity [80.87515604428346]
この研究は、ディープニューラルネットワーク(NN)が学習している関数の複雑さは、トレーニング中にその重みがどれほど速く変化するかによって推定できるという仮説を探求する。
我々の結果は、優れた訓練行動が良い一般化への有用なバイアスとなるという仮説を支持している。
論文 参考訳(メタデータ) (2021-06-08T08:58:00Z) - Incorporating NODE with Pre-trained Neural Differential Operator for
Learning Dynamics [73.77459272878025]
ニューラル微分演算子(NDO)の事前学習による動的学習における教師付き信号の強化を提案する。
NDOは記号関数のクラスで事前訓練され、これらの関数の軌跡サンプルとそれらの導関数とのマッピングを学習する。
我々は,NDOの出力が,ライブラリの複雑さを適切に調整することで,基礎となる真理微分を適切に近似できることを理論的に保証する。
論文 参考訳(メタデータ) (2021-06-08T08:04:47Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。