論文の概要: Accelerating Data Generation for Nonlinear temporal PDEs via homologous perturbation in solution space
- arxiv url: http://arxiv.org/abs/2510.21592v1
- Date: Fri, 24 Oct 2025 15:59:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 06:57:23.442582
- Title: Accelerating Data Generation for Nonlinear temporal PDEs via homologous perturbation in solution space
- Title(参考訳): 解空間におけるホモロジー摂動による非線形時間PDEの高速化データ生成
- Authors: Lei Liu, Zhenxin Huang, Hong Wang, huanshuo dong, Haiyang Xin, Hongwei Zhao, Bin Li,
- Abstract要約: 我々はhomologous Perturbation in Solution Space (HOPSS)と呼ばれる新しいデータ生成アルゴリズムを提案する。
HOPSSは、大規模なタイムステップデータセットを生成する従来のアプローチに従うのではなく、より少ないタイムステップでトレーニングデータセットを直接生成する。
例えば、Navier-Stokes方程式では、1万のサンプルを従来の手法の約10%の時間で生成し、モデルトレーニングのパフォーマンスに匹敵する。
- 参考スコア(独自算出の注目度): 14.26905095515366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data-driven deep learning methods like neural operators have advanced in solving nonlinear temporal partial differential equations (PDEs). However, these methods require large quantities of solution pairs\u2014the solution functions and right-hand sides (RHS) of the equations. These pairs are typically generated via traditional numerical methods, which need thousands of time steps iterations far more than the dozens required for training, creating heavy computational and temporal overheads. To address these challenges, we propose a novel data generation algorithm, called HOmologous Perturbation in Solution Space (HOPSS), which directly generates training datasets with fewer time steps rather than following the traditional approach of generating large time steps datasets. This algorithm simultaneously accelerates dataset generation and preserves the approximate precision required for model training. Specifically, we first obtain a set of base solution functions from a reliable solver, usually with thousands of time steps, and then align them in time steps with training datasets by downsampling. Subsequently, we propose a "homologous perturbation" approach: by combining two solution functions (one as the primary function, the other as a homologous perturbation term scaled by a small scalar) with random noise, we efficiently generate comparable-precision PDE data points. Finally, using these data points, we compute the variation in the original equation's RHS to form new solution pairs. Theoretical and experimental results show HOPSS lowers time complexity. For example, on the Navier-Stokes equation, it generates 10,000 samples in approximately 10% of traditional methods' time, with comparable model training performance.
- Abstract(参考訳): ニューラル演算子のようなデータ駆動深層学習法は非線形時間偏微分方程式(PDE)の解法において進歩している。
しかし、これらの方法は、方程式の解関数と右辺(RHS)を大量に必要とします。
これらのペアは通常、従来の数値的手法で生成され、トレーニングに必要な数十以上の時間ステップのイテレーションが必要であり、重い計算と時間的オーバーヘッドを発生させる。
これらの課題に対処するため,HOPSS(HOmologous Perturbation in Solution Space)と呼ばれる新しいデータ生成アルゴリズムを提案する。
このアルゴリズムは、データセット生成を同時に加速し、モデルトレーニングに必要な近似精度を保存する。
具体的には、まず信頼性のある解法から、通常は数千の時間ステップを持つ基本解関数のセットを取得し、その後、ダウンサンプリングによるデータセットのトレーニングとタイムステップで整列する。
次に,2つの解関数(1つは一次関数,もう1つは小さなスカラーでスケールしたホモロジー摂動項)をランダムノイズと組み合わせることで,等価精度のPDEデータポイントを効率的に生成する「ホモロジー摂動」手法を提案する。
最後に、これらのデータポイントを用いて、元の方程式の RHS の変動を計算し、新しい解対を形成する。
理論的および実験的結果は、HOPSSが時間の複雑さを低下させることを示している。
例えば、Navier-Stokes方程式では、1万のサンプルを従来の手法の約10%の時間で生成し、モデルトレーニングのパフォーマンスに匹敵する。
関連論文リスト
- MultiPDENet: PDE-embedded Learning with Multi-time-stepping for Accelerated Flow Simulation [48.41289705783405]
マルチスケールタイムステップ(MultiPDENet)を用いたPDE組み込みネットワークを提案する。
特に,有限差分構造に基づく畳み込みフィルタを少数のパラメータで設計し,最適化する。
4階ランゲ・クッタ積分器を微細な時間スケールで備えた物理ブロックが確立され、PDEの構造を埋め込んで予測を導出する。
論文 参考訳(メタデータ) (2025-01-27T12:15:51Z) - Computation-Aware Gaussian Processes: Model Selection And Linear-Time Inference [55.150117654242706]
我々は、1.8万のデータポイントでトレーニングされた計算対応GPのモデル選択が、1つのGPU上で数時間以内に可能であることを示す。
この研究の結果、ガウス過程は、不確実性を定量化する能力を著しく妥協することなく、大規模なデータセットで訓練することができる。
論文 参考訳(メタデータ) (2024-11-01T21:11:48Z) - Fast training of accurate physics-informed neural networks without gradient descent [4.411766183442036]
時空分離の原理に基づく新しいPINNであるFrozen-PINNを提案する。
8つのPDEベンチマークにおいて、Frozen-PINNは最先端のPINNよりも優れたトレーニング効率と精度を達成する。
論文 参考訳(メタデータ) (2024-05-31T14:24:39Z) - Accelerating PDE Data Generation via Differential Operator Action in Solution Space [5.801585720878268]
我々は、新しいPDEデータセット生成アルゴリズム、すなわち、解空間における微分演算子アクション(DiffOAS)を提案する。
DiffOASはいくつかの基本的なPDEソリューションを取得し、それらを組み合わせてソリューションを得る。
これらの解に対して微分演算子、すなわち「演算アクション」と呼ばれるプロセスを適用して、正確なPDEデータポイントを効率的に生成する。
実験の結果,DiffOASは1万インスタンスの大規模データセットの生成を300倍加速することがわかった。
論文 参考訳(メタデータ) (2024-02-04T17:28:27Z) - Generating synthetic data for neural operators [0.0]
PDEを数値的に解くのを避ける「後方」データ生成手法を提案する。
これにより、各データポイントに対してPDEを数値的に解くのではなく、微分を演算することで、トレーニングペア$(f_j, u_j)$を生成する。
実験により、この合成データに基づいてトレーニングされたモデルは、標準解法によって生成されたデータでテストすると、よく一般化されることが示された。
論文 参考訳(メタデータ) (2024-01-04T18:31:21Z) - FaDIn: Fast Discretized Inference for Hawkes Processes with General
Parametric Kernels [82.53569355337586]
この研究は、有限なサポートを持つ一般パラメトリックカーネルを用いた時間点プロセス推論の効率的な解を提供する。
脳磁図(MEG)により記録された脳信号からの刺激誘発パターンの発生をモデル化し,その有効性を評価する。
その結果,提案手法により,最先端技術よりもパターン遅延の推定精度が向上することが示唆された。
論文 参考訳(メタデータ) (2022-10-10T12:35:02Z) - Semi-supervised Learning of Partial Differential Operators and Dynamical
Flows [68.77595310155365]
本稿では,超ネットワーク解法とフーリエニューラル演算子アーキテクチャを組み合わせた新しい手法を提案する。
本手法は, 1次元, 2次元, 3次元の非線形流体を含む様々な時間発展PDEを用いて実験を行った。
その結果、新しい手法は、監督点の時点における学習精度を向上し、任意の中間時間にその解を補間できることを示した。
論文 参考訳(メタデータ) (2022-07-28T19:59:14Z) - Single-Timescale Stochastic Nonconvex-Concave Optimization for Smooth
Nonlinear TD Learning [145.54544979467872]
本稿では,各ステップごとに1つのデータポイントしか必要としない2つの単一スケールシングルループアルゴリズムを提案する。
本研究の結果は, 同時一次および二重側収束の形で表される。
論文 参考訳(メタデータ) (2020-08-23T20:36:49Z) - Deep-learning of Parametric Partial Differential Equations from Sparse
and Noisy Data [2.4431531175170362]
この研究では、ニューラルネットワーク、遺伝的アルゴリズム、適応的手法を組み合わせた新しいフレームワークが、これらの課題を同時に解決するために提案されている。
訓練されたニューラルネットワークを用いてデリバティブを計算し、大量のメタデータを生成し、スパースノイズデータの問題を解決する。
次に、遺伝的アルゴリズムを用いて、不完全候補ライブラリによるPDEと対応する係数の形式を発見する。
空間的あるいは時間的に異なる係数を持つパラメトリックPDEを発見するために、2段階適応法を導入する。
論文 参考訳(メタデータ) (2020-05-16T09:09:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。