論文の概要: Towards a Physics Foundation Model
- arxiv url: http://arxiv.org/abs/2509.13805v1
- Date: Wed, 17 Sep 2025 08:19:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.783976
- Title: Towards a Physics Foundation Model
- Title(参考訳): 物理基礎モデルに向けて
- Authors: Florian Wiesner, Matthias Wessling, Stephen Baek,
- Abstract要約: シミュレーションデータの1.8TBをトレーニングした一般物理変換器(GPhyT)について述べる。
GPhyTは複数の物理領域にまたがる優れた性能を実現し、特殊アーキテクチャを最大29倍の性能で上回る。
単一のモデルがデータだけで一般的な物理原理を学習できることを確立することで、この研究は普遍的な物理基礎モデルへの道を開く。
- 参考スコア(独自算出の注目度): 2.109902626434734
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Foundation models have revolutionized natural language processing through a ``train once, deploy anywhere'' paradigm, where a single pre-trained model adapts to countless downstream tasks without retraining. Access to a Physics Foundation Model (PFM) would be transformative -- democratizing access to high-fidelity simulations, accelerating scientific discovery, and eliminating the need for specialized solver development. Yet current physics-aware machine learning approaches remain fundamentally limited to single, narrow domains and require retraining for each new system. We present the General Physics Transformer (GPhyT), trained on 1.8 TB of diverse simulation data, that demonstrates foundation model capabilities are achievable for physics. Our key insight is that transformers can learn to infer governing dynamics from context, enabling a single model to simulate fluid-solid interactions, shock waves, thermal convection, and multi-phase dynamics without being told the underlying equations. GPhyT achieves three critical breakthroughs: (1) superior performance across multiple physics domains, outperforming specialized architectures by up to 29x, (2) zero-shot generalization to entirely unseen physical systems through in-context learning, and (3) stable long-term predictions through 50-timestep rollouts. By establishing that a single model can learn generalizable physical principles from data alone, this work opens the path toward a universal PFM that could transform computational science and engineering.
- Abstract(参考訳): ファウンデーションモデルは、'`train once, deploy anywhere''パラダイムを通じて自然言語処理に革命をもたらした。
物理基礎モデル(PFM)へのアクセスは変革的であり、高忠実度シミュレーションへのアクセスを民主化し、科学的発見を加速し、特別な解法の開発を不要にする。
しかし、現在の物理学を意識した機械学習アプローチは、基本的に1つの狭い領域に限られており、新しいシステムごとに再訓練を必要としている。
本稿では, シミュレーションデータの1.8TBをトレーニングした一般物理変換器(GPhyT)について述べる。
我々の重要な洞察は、トランスフォーマーが文脈から制御力学を推論し、基礎となる方程式を話さずに流体-固体相互作用、衝撃波、熱対流、多相ダイナミクスをシミュレートすることができることである。
GPhyTは、3つの重要なブレークスルーを達成している:(1) 複数の物理領域にまたがる優れた性能、29倍の特殊アーキテクチャ、(2)コンテキスト内学習による完全に見えない物理システムへのゼロショット一般化、(3)50段階のロールアウトによる安定した長期予測。
単一のモデルがデータ単独で一般化可能な物理原理を学習できることを確立することで、この研究は計算科学と工学を変革する万能PFMへの道を開く。
関連論文リスト
- Universal Physics Simulation: A Foundational Diffusion Approach [0.0]
境界条件データから直接物理法則を学習する普遍物理学シミュレーションのための最初の基礎的AIモデルを提案する。
本手法は,シミュレーションを条件付き生成問題として扱うことにより,計算物理を再現する。
繰り返しにわたってエラーを蓄積するシーケンシャルなタイムステッピングメソッドとは異なり、私たちのアプローチは時間的統合を完全にバイパスします。
論文 参考訳(メタデータ) (2025-07-13T18:12:34Z) - OmniFluids: Physics Pre-trained Modeling of Fluid Dynamics [25.066485418709114]
OmniFluidsは、基礎流体力学の法則を捉え、多様な下流タスクに効率的に適応する純粋物理事前学習モデルである。
本研究では,物理のみの事前学習,粗粒度演算子蒸留,小ショットファインチューニングを併用したトレーニングフレームワークを開発した。
テストによると、OmniFluidsは流れ場の予測と統計の点で最先端のAI駆動手法より優れている。
論文 参考訳(メタデータ) (2025-06-12T16:23:02Z) - FORT: Forward-Only Regression Training of Normalizing Flows [85.66894616735752]
我々は,古典正規化フローを,精度の高い一段階生成モデルとして再考する。
本稿では,従来の最大度学習で用いられる可変式の変更を計算する必要のない,スケーラブルな学習目標を提案する。
論文 参考訳(メタデータ) (2025-06-01T20:32:27Z) - Physics Encoded Blocks in Residual Neural Network Architectures for Digital Twin Models [2.8720819157502344]
物理インフォームド・機械学習は、デジタル双生児におけるモデリングとシミュレーションの一般的なアプローチとして登場した。
本稿では,新しい物理符号化残差ニューラルネットワークアーキテクチャに基づく汎用的アプローチを提案する。
本手法は、物理モデルとフィードフォワード学習ブロックとから、微分可能な物理ブロックを実装する数学的演算子を統合する。
論文 参考訳(メタデータ) (2024-11-18T11:58:20Z) - PhyRecon: Physically Plausible Neural Scene Reconstruction [81.73129450090684]
PHYRECONは、微分可能なレンダリングと微分可能な物理シミュレーションの両方を利用して暗黙的な表面表現を学習する最初のアプローチである。
この設計の中心は、SDFに基づく暗黙の表現と明示的な表面点の間の効率的な変換である。
また,物理シミュレータの安定性も向上し,全データセットに対して少なくとも40%の改善が得られた。
論文 参考訳(メタデータ) (2024-04-25T15:06:58Z) - OmniArch: Building Foundation Model For Scientific Computing [35.41293100957156]
OmniArchは,物理アライメントによるマルチスケール・マルチ物理科学計算問題の解決を目的とした,最初のプロトタイプである。
PDEBench上で1D-2D-3Dの統合事前トレーニングを行い、1D, 2D, 3D PDEの新たなパフォーマンスベンチマークを設定するだけでなく、コンテキスト内およびゼロショット学習アプローチによる新しい物理への例外的な適応性を示す。
論文 参考訳(メタデータ) (2024-02-25T07:19:01Z) - Physics-Inspired Temporal Learning of Quadrotor Dynamics for Accurate
Model Predictive Trajectory Tracking [76.27433308688592]
クオーロタのシステムダイナミクスを正確にモデル化することは、アジャイル、安全、安定したナビゲーションを保証する上で非常に重要です。
本稿では,ロボットの経験から,四重項系の力学を純粋に学習するための新しい物理インスパイアされた時間畳み込みネットワーク(PI-TCN)を提案する。
提案手法は,スパース時間的畳み込みと高密度フィードフォワード接続の表現力を組み合わせて,正確なシステム予測を行う。
論文 参考訳(メタデータ) (2022-06-07T13:51:35Z) - PlasticineLab: A Soft-Body Manipulation Benchmark with Differentiable
Physics [89.81550748680245]
PasticineLabと呼ばれる新しい微分可能な物理ベンチマークを導入する。
各タスクにおいて、エージェントはマニピュレータを使用して、プラスチックを所望の構成に変形させる。
本稿では,既存の強化学習(RL)手法と勾配に基づく手法について評価する。
論文 参考訳(メタデータ) (2021-04-07T17:59:23Z) - Physics-Integrated Variational Autoencoders for Robust and Interpretable
Generative Modeling [86.9726984929758]
我々は、不完全物理モデルの深部生成モデルへの統合に焦点を当てる。
本稿では,潜在空間の一部が物理によって基底づけられたVAEアーキテクチャを提案する。
合成および実世界のデータセットの集合に対して生成的性能改善を示す。
論文 参考訳(メタデータ) (2021-02-25T20:28:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。