論文の概要: Out-of-distribution transfer of PDE foundation models to material dynamics under extreme loading
- arxiv url: http://arxiv.org/abs/2603.04354v1
- Date: Wed, 04 Mar 2026 18:19:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.447381
- Title: Out-of-distribution transfer of PDE foundation models to material dynamics under extreme loading
- Title(参考訳): 極端荷重下におけるPDE基礎モデルの物質力学へのアウト・オブ・ディストリビューション伝達
- Authors: Mahindra Rautela, Alexander Most, Siddharth Mansingh, Aleksandra Pachalieva, Bradley Love, Daniel O Malley, Alexander Scheinker, Kyle Hickmann, Diane Oyen, Nathan Debardeleben, Earl Lawrence, Ayan Biswas,
- Abstract要約: ほとんどのPDEファンデーションモデルは、流体中心のベンチマークに基づいて事前訓練され、微調整されている。
衝撃, 進化する界面, 破壊が非平滑な場を生み出す2つの不連続支配的体制について, 分布外移動をベンチマークする。
我々は,PDE基礎モデルであるPOSEIDONとMORPHを2つのオープンソースとして評価し,事前学習した重みからの微調整と,トレーニングセットのサイズによるスクラッチからのトレーニングを比較し,分散シフト下でのサンプル効率の定量化を行った。
- 参考スコア(独自算出の注目度): 86.6550968435969
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most PDE foundation models are pretrained and fine-tuned on fluid-centric benchmarks. Their utility under extreme-loading material dynamics remains unclear. We benchmark out-of-distribution transfer on two discontinuity-dominated regimes in which shocks, evolving interfaces, and fracture produce highly non-smooth fields: shock-driven multi-material interface dynamics (perturbed layered interface or PLI) and dynamic fracture/failure evolution (FRAC). We formulate the downstream task as terminal-state prediction, i.e., learning a long-horizon map that predicts the final state directly from the first snapshot without intermediate supervision. Using a unified training and evaluation protocol, we evaluate two open-source pretrained PDE foundation models, POSEIDON and MORPH, and compare fine-tuning from pretrained weights against training from scratch across training-set sizes to quantify sample efficiency under distribution shift.
- Abstract(参考訳): ほとんどのPDEファンデーションモデルは、流体中心のベンチマークに基づいて事前訓練され、微調整されている。
極端荷重物質力学におけるそれらの有用性は未だ不明である。
衝撃駆動型多材料界面力学 (perturbed layered interface, PLI) と動的破壊・破壊進化 (FRAC) の2つの不連続支配的状態において, 衝撃, 進化する界面, 破壊が非平滑な場を生じさせるような2つの不連続支配的状態について, アウト・オブ・ディストリビューション・トランスファーをベンチマークした。
我々は、ダウンストリームタスクを端末状態予測として定式化し、すなわち、中間監督なしで第1スナップショットから直接最終状態を予測できる長期水平マップを学習する。
統一的なトレーニングおよび評価プロトコルを用いて,POSEIDONとMORPHの2つのオープンソースの事前学習PDE基礎モデルを評価し,トレーニングセットのサイズをスクラッチから切り離したトレーニングに対する事前学習重みからの微調整を比較し,分散シフト下でのサンプル効率の定量化を行う。
関連論文リスト
- PDE foundation model-accelerated inverse estimation of system parameters in inertial confinement fusion [36.885866084809926]
Inertial Confinement fusion (ICF)における逆問題について検討する:マルチモーダル・スナップショット式観測(出力)からシステムパラメータ(インプット)を推定する。
我々はPDEファンデーションモデルを微調整し、ハイパースペクトル画像と回帰システムのパラメータを共同で再構築する軽量なタスク固有ヘッドを訓練する。
実験では、トレーニングデータの量が増加するにつれて、復元と回帰の両方の損失が一貫した改善を示す。
論文 参考訳(メタデータ) (2026-03-04T21:07:43Z) - PHDME: Physics-Informed Diffusion Models without Explicit Governing Equations [0.496981595868944]
拡散モデルは、力学系の軌跡を予測するための表現力のある先行情報を提供するが、通常スパースデータ構造では信頼できない。
エルフスパース観測および不完全物理のために設計されたポート・ハミルトン拡散フレームワークである textbfPHDME を紹介する。
PDEベンチマークと実世界のスプリングシステムの実験では、データの不足下での精度と物理的一貫性が改善された。
論文 参考訳(メタデータ) (2026-01-29T03:53:48Z) - Which Layer Causes Distribution Deviation? Entropy-Guided Adaptive Pruning for Diffusion and Flow Models [77.55829017952728]
EntPrunerは、拡散およびフローモデルのためのエントロピー誘導自動プログレッシブプルーニングフレームワークである。
DiTモデルとSiTモデルの実験はEntPrunerの有効性を示し、最大2.22$times$推論スピードアップを達成する。
論文 参考訳(メタデータ) (2025-11-26T07:20:48Z) - MaP: A Unified Framework for Reliable Evaluation of Pre-training Dynamics [72.00014675808228]
大規模言語モデルの不安定性評価プロセスは、真の学習力学を曖昧にする。
textbfMaPは、アンダーラインMergingアンダーラインとアンダーラインPass@kメトリックを統合するフレームワークです。
実験により、MaPはよりスムーズな性能曲線を示し、ラン間分散を低減し、より一貫性のあるランキングを保証する。
論文 参考訳(メタデータ) (2025-10-10T11:40:27Z) - Control-Augmented Autoregressive Diffusion for Data Assimilation [17.305296093966803]
本稿では,ARDMを軽量コントローラで拡張するアモールト化フレームワークを提案する。
我々はこの枠組みをカオス偏微分方程式(PDE)に対するデータ同化(DA)の文脈で評価する。
提案手法は,DA推論をオンザフライ修正による単一前方ロールアウトに還元し,推論中に高価な随伴計算や最適化を回避する。
論文 参考訳(メタデータ) (2025-10-08T04:37:32Z) - Flow marching for a generative PDE foundation model [0.0]
本稿では,物理力学系における誤り蓄積の解析によって動機付けられたフローマッチングを用いて,ニューラル演算子の学習をブリッジするアルゴリズムであるフローマーチングを提案する。
また,物理制約付き変分オートエンコーダ(P2E)を導入し,物理軌道をコンパクトな潜在空間に埋め込む。
異なる12種類のPDEファミリーおよびP2EとFMTのトレインスイートの2.5Mトラジェクトリを複数スケールでキュレートする。
論文 参考訳(メタデータ) (2025-09-23T04:00:41Z) - Efficient Regression-Based Training of Normalizing Flows for Boltzmann Generators [85.25962679349551]
ボルツマン・ジェネレータ(BG)は効率的なサンプリングと可能性を提供するが、最大可能性によるトレーニングはしばしば不安定であり、計算的に困難である。
本稿では,従来の最大値トレーニングの数値不安定性と計算課題を回避し,新しい,スケーラブルなトレーニング目標である正規化フローの回帰トレーニングを提案する。
論文 参考訳(メタデータ) (2025-06-01T20:32:27Z) - Directional Gradient Projection for Robust Fine-Tuning of Foundation Models [25.04763038570959]
ディディショナル・グラディエント・プロジェクション(DiGraP)は、グラデーションからブリッジの正規化や多目的最適化に至るまでの方向性情報を階層的に学習可能な手法である。
まず,画像分類による視覚質問回答 (VQA) ベンチマークの分析により,一様・多モードのギャップを埋める。
実験結果から,DiGraPは画像分類やVQAタスクにおいて,識別的,生成的バックボーンで既存のベースラインを一貫して上回ることがわかった。
論文 参考訳(メタデータ) (2025-02-21T19:31:55Z) - On conditional diffusion models for PDE simulations [53.01911265639582]
スパース観測の予測と同化のためのスコアベース拡散モデルについて検討した。
本稿では,予測性能を大幅に向上させる自動回帰サンプリング手法を提案する。
また,条件付きスコアベースモデルに対する新たなトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2024-10-21T18:31:04Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - End-to-End Weak Supervision [15.125993628007972]
下流モデルを直接学習するためのエンドツーエンドアプローチを提案する。
下流テストセットにおけるエンドモデル性能の観点から,先行作業よりも性能が向上したことを示す。
論文 参考訳(メタデータ) (2021-07-05T19:10:11Z) - Churn Reduction via Distillation [54.5952282395487]
本研究は, 基礎モデルを教師として用いた蒸留によるトレーニングと, 予測的チャーンに対する明示的な制約によるトレーニングとの等価性を示す。
次に, 蒸留が近年の多くのベースラインに対する低チャーン訓練に有効であることを示す。
論文 参考訳(メタデータ) (2021-06-04T18:03:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。