論文の概要: Gradient-Informed Temporal Sampling Improves Rollout Accuracy in PDE Surrogate Training
- arxiv url: http://arxiv.org/abs/2603.18237v1
- Date: Wed, 18 Mar 2026 19:45:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-20 17:19:05.831006
- Title: Gradient-Informed Temporal Sampling Improves Rollout Accuracy in PDE Surrogate Training
- Title(参考訳): グラディエントインフォーム型テンポラルサンプリングはPDEサロゲートトレーニングにおけるロールアウト精度を向上させる
- Authors: Wenshuo Wang, Fan Zhang,
- Abstract要約: ニューラルシミュレータGITS(Gradient-Informed Temporal Smpling)に適したデータサンプリング手法を提案する。
GITSは、パイロットモデル局所勾配とセットレベルの時間被覆を協調的に最適化し、モデル特異性と動的情報のバランスをとる。
複数のサンプリングベースラインと比較して、GITSが選択したデータは、複数のPDEシステム、モデルバックボーン、サンプル比率で低いロールアウト誤差を達成する。
- 参考スコア(独自算出の注目度): 5.24655241578805
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Researchers train neural simulators on uniformly sampled numerical simulation data. But under the same budget, does systematically sampled data provide the most effective information? A fundamental yet unformalized problem is how to sample training data for neural simulators so as to maximize rollout accuracy. Existing data sampling methods either tend to collapse into locally high-information-density regions, or preserve diversity but remain insufficiently model-specific, often leading to performance that is no better than uniform sampling. To address this, we propose a data sampling method tailored to neural simulators, Gradient-Informed Temporal Sampling (GITS). GITS jointly optimizes pilot-model local gradients and set-level temporal coverage, thereby effectively balancing model specificity and dynamical information. Compared with multiple sampling baselines, the data selected by GITS achieves lower rollout error across multiple PDE systems, model backbones and sample ratios. Furthermore, ablation studies demonstrate the necessity and complementarity of the two optimization objectives in GITS. In addition, we analyze the successful sampling patterns of GITS as well as the typical PDE systems and model backbones on which GITS fails.
- Abstract(参考訳): 研究者は、一様にサンプリングされた数値シミュレーションデータに基づいて神経シミュレーターを訓練する。
しかし、同じ予算の下で、システマティックにサンプリングされたデータは最も効果的な情報を提供するだろうか?
基本的だが形式化されていない問題は、ロールアウト精度を最大化するために、ニューラルシミュレーターのトレーニングデータをサンプルする方法である。
既存のデータサンプリング手法は、局所的に高情報密度領域に崩壊する傾向にあるか、多様性を維持する傾向にあるが、モデル固有性に乏しいままであり、しばしば一様サンプリングに劣らないパフォーマンスをもたらす。
そこで本研究では, ニューラルシミュレータ, Gradient-Informed Temporal Smpling (GITS) に適したデータサンプリング手法を提案する。
GITSは、パイロットモデル局所勾配とセットレベルの時間的カバレッジを共同で最適化し、モデル特異性と動的情報のバランスをとる。
複数のサンプリングベースラインと比較して、GITSが選択したデータは、複数のPDEシステム、モデルバックボーン、サンプル比率で低いロールアウト誤差を達成する。
さらに,GITSにおける2つの最適化目標の必要性と相補性について検討した。
さらに,GITSのサンプリングパターンと,GITSが失敗する典型的なPDEシステムおよびモデルバックボーンの解析を行った。
関連論文リスト
- Inference-Time Scaling of Diffusion Language Models with Particle Gibbs Sampling [70.8832906871441]
我々は、モデルを再訓練することなく、所望の報酬に向けて世代を操る方法を研究する。
従来の手法では、通常は1つの認知軌道内でサンプリングやフィルタを行い、軌道レベルの改善なしに報酬をステップバイステップで最適化する。
本稿では,拡散言語モデル(PG-DLM)の粒子ギブスサンプリングについて紹介する。
論文 参考訳(メタデータ) (2025-07-11T08:00:47Z) - Model-agnostic Mitigation Strategies of Data Imbalance for Regression [0.0]
データ不均衡は、回帰タスクにおいて広範囲にわたる課題として持続し、モデルパフォーマンスのバイアスを導入し、予測信頼性を損なう。
既存のサンプリング手法を構築・改善する高度な緩和手法を提案する。
モデルのアンサンブル(不均衡緩和で訓練されたモデルと、非バランスで訓練されたモデル)の構築は、これらの負の効果を著しく減少させることを実証する。
論文 参考訳(メタデータ) (2025-06-02T09:46:08Z) - OASIS: Online Sample Selection for Continual Visual Instruction Tuning [55.92362550389058]
連続的インストラクションチューニング(CIT)のシナリオでは、新しいインストラクションチューニングデータがオンラインストリーミング形式で連続的に到着する。
データの選択はこのオーバーヘッドを軽減することができるが、既存の戦略はしばしば事前訓練された参照モデルに依存している。
最近の参照モデルなしオンラインサンプル選択手法はこれに対処するが、典型的にはバッチ毎に一定の数のサンプルを選択する。
論文 参考訳(メタデータ) (2025-05-27T20:32:43Z) - Graph Data Selection for Domain Adaptation: A Model-Free Approach [54.27731120381295]
グラフドメイン適応(GDA)は、グラフ機械学習の基本的なタスクである。
本稿では,対象ドメインの分類タスクに対して,ソースドメインから最高のトレーニングデータを選択する新しいモデルフリーフレームワークであるGRADATEを提案する。
GRADATEは既存の選択法よりも優れており、トレーニングデータが少なく、市販のGDA法を向上する。
論文 参考訳(メタデータ) (2025-05-22T21:18:39Z) - Learning Coupled Subspaces for Multi-Condition Spike Data [8.114880112033644]
神経科学では、研究者は複数の条件下で実験を行い、高次元スパイクトレインデータセットの形で神経応答を得る。
実験条件空間上でスムーズなチューニング関数を学習するための非パラメトリックベイズ手法を提案する。
論文 参考訳(メタデータ) (2024-10-24T20:44:28Z) - SGM-PINN: Sampling Graphical Models for Faster Training of Physics-Informed Neural Networks [4.262342157729123]
SGM-PINNは物理情報ニューラルネットワーク(PINN)のトレーニング効率を向上させるグラフベースの重要度サンプリングフレームワークである
提案手法の利点を実証し,従来の最先端サンプリング手法と比較して3倍の収束性を実現した。
論文 参考訳(メタデータ) (2024-07-10T04:31:50Z) - On the Trajectory Regularity of ODE-based Diffusion Sampling [79.17334230868693]
拡散に基づく生成モデルは微分方程式を用いて、複素データ分布と抽出可能な事前分布の間の滑らかな接続を確立する。
本稿では,拡散モデルのODEに基づくサンプリングプロセスにおいて,いくつかの興味深い軌道特性を同定する。
論文 参考訳(メタデータ) (2024-05-18T15:59:41Z) - Diffusion posterior sampling for simulation-based inference in tall data settings [53.17563688225137]
シミュレーションベース推論(SBI)は、入力パラメータを所定の観測に関連付ける後部分布を近似することができる。
本研究では、モデルのパラメータをより正確に推測するために、複数の観測値が利用できる、背の高いデータ拡張について考察する。
提案手法を,最近提案した各種数値実験の競合手法と比較し,数値安定性と計算コストの観点から,その優位性を実証した。
論文 参考訳(メタデータ) (2024-04-11T09:23:36Z) - Synthetic location trajectory generation using categorical diffusion
models [50.809683239937584]
拡散モデル(DPM)は急速に進化し、合成データのシミュレーションにおける主要な生成モデルの一つとなっている。
本稿では,個人が訪れた物理的位置を表す変数列である合成個別位置軌跡(ILT)の生成にDPMを用いることを提案する。
論文 参考訳(メタデータ) (2024-02-19T15:57:39Z) - Private Synthetic Data Meets Ensemble Learning [15.425653946755025]
機械学習モデルが合成データに基づいてトレーニングされ、実際のデータにデプロイされると、しばしばパフォーマンス低下が発生する。
実データを用いた場合のパフォーマンス向上を目標として,下流モデルのトレーニングのための新たなアンサンブル戦略を導入する。
論文 参考訳(メタデータ) (2023-10-15T04:24:42Z) - Reinforced Data Sampling for Model Diversification [15.547681142342846]
本稿では,データを適切にサンプリングする方法を学ぶための新しいReinforced Data Smpling (RDS)法を提案する。
モデルダイバーシフィケーションの最適化問題である$delta-div$をデータサンプリングで定式化し,モデルダイバーシフィケーションを注入することで学習ポテンシャルと最適アロケーションを最大化する。
モデル多様化のためのトレーニング可能なサンプリングは,各種機械学習タスクの潜在能力を追求する競技組織,研究者,さらには開始者にとって有用であることが示唆された。
論文 参考訳(メタデータ) (2020-06-12T11:46:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。