論文の概要: Test-time Generalization for Physics through Neural Operator Splitting
- arxiv url: http://arxiv.org/abs/2602.00884v1
- Date: Sat, 31 Jan 2026 20:08:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.449473
- Title: Test-time Generalization for Physics through Neural Operator Splitting
- Title(参考訳): ニューラル演算子分割による物理試験時間一般化
- Authors: Louis Serrano, Jiequn Han, Edouard Oyallon, Shirley Ho, Rudy Morel,
- Abstract要約: トレーニングオペレータの合成を探索し、未知のダイナミクスを近似する神経オペレータ分割戦略を導入する。
提案手法は,基礎となるPDEパラメータを復元しながら,最先端のゼロショット一般化結果を実現する。
- 参考スコア(独自算出の注目度): 12.59844119790293
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural operators have shown promise in learning solution maps of partial differential equations (PDEs), but they often struggle to generalize when test inputs lie outside the training distribution, such as novel initial conditions, unseen PDE coefficients or unseen physics. Prior works address this limitation with large-scale multiple physics pretraining followed by fine-tuning, but this still requires examples from the new dynamics, falling short of true zero-shot generalization. In this work, we propose a method to enhance generalization at test time, i.e., without modifying pretrained weights. Building on DISCO, which provides a dictionary of neural operators trained across different dynamics, we introduce a neural operator splitting strategy that, at test time, searches over compositions of training operators to approximate unseen dynamics. On challenging out-of-distribution tasks including parameter extrapolation and novel combinations of physics phenomena, our approach achieves state-of-the-art zero-shot generalization results, while being able to recover the underlying PDE parameters. These results underscore test-time computation as a key avenue for building flexible, compositional, and generalizable neural operators.
- Abstract(参考訳): ニューラル作用素は偏微分方程式(PDE)の学習解写像において有望であるが、新しい初期条件や未知のPDE係数、未知の物理学など、試験入力がトレーニング分布外にある場合、一般化に苦慮することが多い。
以前の研究は、大規模な多重物理事前訓練と微調整によるこの制限に対処していたが、それでもこれは真のゼロショット一般化に欠ける新しい力学の例を必要とする。
本研究では,事前学習した重みを変更することなく,テスト時の一般化を向上する手法を提案する。
異なるダイナミックスでトレーニングされたニューラル演算子の辞書を提供するdisCO上に構築されており、テスト時にトレーニング演算子の合成を探索し、未知のダイナミクスを近似するニューラル演算子の分割戦略を導入する。
パラメータ外挿や物理現象の新たな組み合わせを含む分布外処理の課題に対して,本手法は基礎となるPDEパラメータを復元しつつ,最先端のゼロショット一般化結果を達成している。
これらの結果は、フレキシブルで構成的で一般化可能なニューラル演算子を構築するための重要な道として、テスト時間計算の基盤となる。
関連論文リスト
- From Theory to Application: A Practical Introduction to Neural Operators in Scientific Computing [0.0]
この研究は、Deep Operator Networks (DeepONet) や主成分分析に基づくニューラルネットワーク (PCANet) などの基礎モデルをカバーする。
レビューでは、ベイズ推論問題の代理として神経オペレーターを適用し、精度を維持しながら後部推論を加速させる効果を示した。
残差ベースのエラー修正やマルチレベルトレーニングなど、これらの問題に対処する新たな戦略を概説する。
論文 参考訳(メタデータ) (2025-03-07T17:25:25Z) - DimINO: Dimension-Informed Neural Operator Learning [41.37905663176428]
Diminoは次元分析にインスパイアされたフレームワークである。
既存のニューラル演算子アーキテクチャにシームレスに統合することができる。
PDEデータセットで最大76.3%のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - PICL: Physics Informed Contrastive Learning for Partial Differential Equations [7.136205674624813]
我々は,複数の支配方程式にまたがるニューラル演算子一般化を同時に改善する,新しいコントラスト事前学習フレームワークを開発する。
物理インフォームドシステムの進化と潜在空間モデル出力の組み合わせは、入力データに固定され、我々の距離関数で使用される。
物理インフォームドコントラストプレトレーニングにより,1次元および2次元熱,バーガーズ,線形対流方程式に対する固定フューチャーおよび自己回帰ロールアウトタスクにおけるフーリエニューラル演算子の精度が向上することがわかった。
論文 参考訳(メタデータ) (2024-01-29T17:32:22Z) - On the Dynamics Under the Unhinged Loss and Beyond [104.49565602940699]
我々は、閉形式力学を解析するための数学的機会を提供する、簡潔な損失関数であるアンヒンジド・ロスを導入する。
アンヒンジされた損失は、時間変化学習率や特徴正規化など、より実践的なテクニックを検討することができる。
論文 参考訳(メタデータ) (2023-12-13T02:11:07Z) - Neural Operators for Accelerating Scientific Simulations and Design [85.89660065887956]
Neural Operatorsとして知られるAIフレームワークは、継続的ドメインで定義された関数間のマッピングを学習するための原則的なフレームワークを提供する。
ニューラルオペレータは、計算流体力学、天気予報、物質モデリングなど、多くのアプリケーションで既存のシミュレータを拡張または置き換えることができる。
論文 参考訳(メタデータ) (2023-09-27T00:12:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。