論文の概要: Accelerating PDE Data Generation via Differential Operator Action in Solution Space
- arxiv url: http://arxiv.org/abs/2402.05957v2
- Date: Mon, 6 May 2024 08:48:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-07 23:35:59.020762
- Title: Accelerating PDE Data Generation via Differential Operator Action in Solution Space
- Title(参考訳): 解空間における微分演算子作用によるPDEデータ生成の高速化
- Authors: Huanshuo Dong, Hong Wang, Haoyang Liu, Jian Luo, Jie Wang,
- Abstract要約: 我々は、新しいPDEデータセット生成アルゴリズム、すなわち、解空間における微分演算子アクション(DiffOAS)を提案する。
DiffOASはいくつかの基本的なPDEソリューションを取得し、それらを組み合わせてソリューションを得る。
これらの解に対して微分演算子、すなわち「演算アクション」と呼ばれるプロセスを適用して、正確なPDEデータポイントを効率的に生成する。
実験の結果,DiffOASは1万インスタンスの大規模データセットの生成を300倍加速することがわかった。
- 参考スコア(独自算出の注目度): 5.801585720878268
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in data-driven approaches, such as Neural Operator (NO), have demonstrated their effectiveness in reducing the solving time of Partial Differential Equations (PDEs). However, one major challenge faced by these approaches is the requirement for a large amount of high-precision training data, which needs significant computational costs during the generation process. To address this challenge, we propose a novel PDE dataset generation algorithm, namely Differential Operator Action in Solution space (DiffOAS), which speeds up the data generation process and enhances the precision of the generated data simultaneously. Specifically, DiffOAS obtains a few basic PDE solutions and then combines them to get solutions. It applies differential operators on these solutions, a process we call 'operator action', to efficiently generate precise PDE data points. Theoretical analysis shows that the time complexity of DiffOAS method is one order lower than the existing generation method. Experimental results show that DiffOAS accelerates the generation of large-scale datasets with 10,000 instances by 300 times. Even with just 5% of the generation time, NO trained on the data generated by DiffOAS exhibits comparable performance to that using the existing generation method, which highlights the efficiency of DiffOAS.
- Abstract(参考訳): ニューラル演算子 (NO) のようなデータ駆動手法の最近の進歩は、部分微分方程式 (PDE) の解法時間を短縮する効果を実証している。
しかし、これらのアプローチが直面している大きな課題は、生成プロセス中にかなりの計算コストを必要とする大量の高精度なトレーニングデータを必要とすることである。
そこで本研究では,PDEデータセット生成アルゴリズム,すなわち解空間における微分演算子アクション(DiffOAS)を提案し,データ生成プロセスを高速化し,生成したデータの精度を同時に向上する。
具体的には、DiffOASはいくつかの基本的なPDEソリューションを取得し、それらを組み合わせてソリューションを得る。
これらの解に対して微分演算子、すなわち「演算アクション」と呼ばれるプロセスを適用して、正確なPDEデータポイントを効率的に生成する。
理論的解析により、DiffOAS法の時間複雑性は、既存の生成法よりも1次低いことが示されている。
実験の結果,DiffOASは1万インスタンスの大規模データセットの生成を300倍加速することがわかった。
生成時間の5%に過ぎず、DiffOASが生成したデータに基づいてトレーニングされたNOは、既存の生成方法と同等のパフォーマンスを示し、DiffOASの効率を強調している。
関連論文リスト
- Latent Neural Operator Pretraining for Solving Time-Dependent PDEs [5.8039987932401225]
本稿では,LNO(Latent Neural Operator Pretraining)をベースとしたLNOP(Latent Neural Operator Pretraining)フレームワークを提案する。
提案するLNOPフレームワークは, 4つの問題に対して解の誤差を31.7%削減し, 微調整後の57.1%まで改善することができる。
これらの結果から,本手法は非制約のニューラル演算子に比べて解の精度,転送能力,データ効率の面で競争力が高いことがわかった。
論文 参考訳(メタデータ) (2024-10-26T06:57:22Z) - Hierarchical Features Matter: A Deep Exploration of GAN Priors for Improved Dataset Distillation [51.44054828384487]
階層的生成潜在蒸留(H-GLaD)と呼ばれる新しいパラメータ化法を提案する。
本手法はGAN内の階層層を系統的に探索する。
さらに,合成データセット評価に伴う計算負担を軽減するために,新しいクラス関連特徴距離尺度を導入する。
論文 参考訳(メタデータ) (2024-06-09T09:15:54Z) - Data-Efficient Operator Learning via Unsupervised Pretraining and In-Context Learning [45.78096783448304]
本研究では,PDE演算子学習のための教師なし事前学習を設計する。
シミュレーションソリューションを使わずにラベルなしのPDEデータをマイニングし、物理に着想を得た再構成ベースのプロキシタスクでニューラルネットワークを事前訓練する。
提案手法は,データ効率が高く,より一般化可能であり,従来の視覚予測モデルよりも優れる。
論文 参考訳(メタデータ) (2024-02-24T06:27:33Z) - SA-Solver: Stochastic Adams Solver for Fast Sampling of Diffusion Models [66.67616086310662]
拡散確率モデル(DPM)は生成タスクでかなりの成功を収めた。
DPM からのサンプリングは、時間を要する拡散 SDE や ODE の解法と等価であるため、改良された微分方程式解法に基づく多数の高速サンプリング手法が提案されている。
拡散SDEを解くための効率の良いAdams法であるSA-of-rを提案する。
論文 参考訳(メタデータ) (2023-09-10T12:44:54Z) - BOOT: Data-free Distillation of Denoising Diffusion Models with
Bootstrapping [64.54271680071373]
拡散モデルは多様な画像を生成する優れた可能性を示している。
知識蒸留は、推論ステップの数を1つか数に減らすための治療法として最近提案されている。
本稿では,効率的なデータフリー蒸留アルゴリズムにより限界を克服するBOOTと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-08T20:30:55Z) - SEEDS: Exponential SDE Solvers for Fast High-Quality Sampling from
Diffusion Models [0.49478969093606673]
DPM(Diffusion Probabilistic Models)として知られる強力な生成モデルのクラスが注目されている。
高速であるにもかかわらず、そのような解法は通常、利用可能な遅いSDE解法によって達成される最適な品質に達しない。
我々の目標は、その目標を達成するために数百から数千のNFEを必要とすることなく、最適な品質に達するSDEソルバを提案することである。
論文 参考訳(メタデータ) (2023-05-23T17:19:54Z) - Score-based Diffusion Models in Function Space [140.792362459734]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
本稿では,関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)という,数学的に厳密なフレームワークを提案する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - An Accelerated Doubly Stochastic Gradient Method with Faster Explicit
Model Identification [97.28167655721766]
本稿では、分散正規化損失最小化問題に対する2倍加速勾配降下法(ADSGD)を提案する。
まず、ADSGDが線形収束率を達成でき、全体的な計算複雑性を低減できることを示す。
論文 参考訳(メタデータ) (2022-08-11T22:27:22Z) - D-CIPHER: Discovery of Closed-form Partial Differential Equations [80.46395274587098]
D-CIPHERは人工物の測定に頑健であり、微分方程式の新しい、非常に一般的なクラスを発見できる。
さらに,D-CIPHERを効率的に探索するための新しい最適化手法であるCoLLieを設計する。
論文 参考訳(メタデータ) (2022-06-21T17:59:20Z) - Deep-learning based discovery of partial differential equations in
integral form from sparse and noisy data [2.745859263816099]
上記の問題を同時に扱うために,ディープラーニングと積分形式を組み合わせた新しいフレームワークを提案する。
提案アルゴリズムは, 積分形式の利用により, 従来の手法と比較して, ノイズに強く, 精度が高い。
論文 参考訳(メタデータ) (2020-11-24T09:18:39Z) - Deep-learning of Parametric Partial Differential Equations from Sparse
and Noisy Data [2.4431531175170362]
この研究では、ニューラルネットワーク、遺伝的アルゴリズム、適応的手法を組み合わせた新しいフレームワークが、これらの課題を同時に解決するために提案されている。
訓練されたニューラルネットワークを用いてデリバティブを計算し、大量のメタデータを生成し、スパースノイズデータの問題を解決する。
次に、遺伝的アルゴリズムを用いて、不完全候補ライブラリによるPDEと対応する係数の形式を発見する。
空間的あるいは時間的に異なる係数を持つパラメトリックPDEを発見するために、2段階適応法を導入する。
論文 参考訳(メタデータ) (2020-05-16T09:09:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。