論文の概要: Metamizer: a versatile neural optimizer for fast and accurate physics simulations
- arxiv url: http://arxiv.org/abs/2410.19746v1
- Date: Thu, 10 Oct 2024 11:54:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-03 08:52:24.493623
- Title: Metamizer: a versatile neural optimizer for fast and accurate physics simulations
- Title(参考訳): Metamizer: 高速かつ高精度な物理シミュレーションのための多用途ニューラルオプティマイザ
- Authors: Nils Wandel, Stefan Schulz, Reinhard Klein,
- Abstract要約: 本稿では,広範囲の物理システムを高精度で反復的に解く,新しいニューラルネットワークであるMetamizerを紹介する。
我々は,メタマイザがディープラーニングに基づくアプローチにおいて,前例のない精度で達成できることを実証した。
以上の結果から,メタミザーは将来の数値解法に大きな影響を与える可能性が示唆された。
- 参考スコア(独自算出の注目度): 4.717325308876749
- License:
- Abstract: Efficient physics simulations are essential for numerous applications, ranging from realistic cloth animations or smoke effects in video games, to analyzing pollutant dispersion in environmental sciences, to calculating vehicle drag coefficients in engineering applications. Unfortunately, analytical solutions to the underlying physical equations are rarely available, and numerical solutions require high computational resources. Latest developments in the field of physics-based Deep Learning have led to promising efficiency improvements but still suffer from limited generalization capabilities and low accuracy compared to numerical solvers. In this work, we introduce Metamizer, a novel neural optimizer that iteratively solves a wide range of physical systems with high accuracy by minimizing a physics-based loss function. To this end, our approach leverages a scale-invariant architecture that enhances gradient descent updates to accelerate convergence. Since the neural network itself acts as an optimizer, training this neural optimizer falls into the category of meta-optimization approaches. We demonstrate that Metamizer achieves unprecedented accuracy for deep learning based approaches - sometimes approaching machine precision - across multiple PDEs after training on the Laplace, advection-diffusion and incompressible Navier-Stokes equation as well as on cloth simulations. Remarkably, the model also generalizes to PDEs that were not covered during training such as the Poisson, wave and Burgers equation. Our results suggest that Metamizer could have a profound impact on future numerical solvers, paving the way for fast and accurate neural physics simulations without the need for retraining.
- Abstract(参考訳): 効率的な物理シミュレーションは、リアルな布のアニメーションやビデオゲームの煙効果、環境科学における汚染物質分散の分析、工学的応用における車両のドラッグ係数の計算など、多くの応用に欠かせない。
残念ながら、基礎となる物理方程式に対する解析解はめったに得られず、数値解は高い計算資源を必要とする。
物理学ベースのDeep Learningの分野での最近の進歩は、有望な効率改善につながったが、数値解法と比較して、限定的な一般化能力と低い精度に悩まされている。
本稿では,物理に基づく損失関数を最小化することにより,広範囲の物理系を高精度に反復的に解く,ニューラルオプティマイザであるMetamizerを紹介する。
この目的のために,本手法は勾配降下更新を向上し収束を加速するスケール不変アーキテクチャを利用する。
ニューラルネットワーク自体がオプティマイザとして機能するため、このニューラルオプティマイザをトレーニングすることは、メタ最適化アプローチのカテゴリに該当する。
メタマイザは,Laplace, advection-diffusion, incompressible Navier-Stokes方程式および布のシミュレーションを訓練した後,複数のPDEにまたがる深層学習に基づくアプローチにおいて,前例のない精度(時として機械精度に近づいた)を実現することを実証した。
注目すべきことに、このモデルは、Poisson、Wave、Burgers方程式のようなトレーニング中にカバーされなかったPDEにも一般化される。
以上の結果から,メタミザーは将来の数値解法に大きな影響を与える可能性が示唆された。
関連論文リスト
- Text2PDE: Latent Diffusion Models for Accessible Physics Simulation [7.16525545814044]
物理シミュレーションに潜時拡散モデルを適用する方法をいくつか紹介する。
提案手法は、現在のニューラルPDEソルバと、精度と効率の両面で競合することを示す。
スケーラブルで正確で使用可能な物理シミュレータを導入することで、ニューラルPDEソルバを実用化に近づけたいと思っています。
論文 参考訳(メタデータ) (2024-10-02T01:09:47Z) - Gradual Optimization Learning for Conformational Energy Minimization [69.36925478047682]
ニューラルネットワークによるエネルギー最小化のためのGradual Optimization Learning Framework(GOLF)は、必要な追加データを大幅に削減する。
GOLFでトレーニングしたニューラルネットワークは,種々の薬物様分子のベンチマークにおいて,オラクルと同等に動作することを示す。
論文 参考訳(メタデータ) (2023-11-05T11:48:08Z) - Learning Generic Solutions for Multiphase Transport in Porous Media via
the Flux Functions Operator [0.0]
DeepDeepONetは、レンダリングフラックスDEを高速化する強力なツールとして登場した。
我々は、入力ペア出力の観測を伴わずにこのマッピングを実現するために、Physical-In DeepONets (PI-DeepONets) を用いている。
論文 参考訳(メタデータ) (2023-07-03T21:10:30Z) - Learning Controllable Adaptive Simulation for Multi-resolution Physics [86.8993558124143]
完全深層学習に基づくサロゲートモデルとして,LAMP(Learning Controllable Adaptive Simulation for Multi- resolution Physics)を導入した。
LAMPは、前方進化を学習するためのグラフニューラルネットワーク(GNN)と、空間的洗練と粗大化のポリシーを学ぶためのGNNベースのアクター批判で構成されている。
我々は,LAMPが最先端のディープラーニングサロゲートモデルより優れており,長期予測誤差を改善するために,適応的なトレードオフ計算が可能であることを実証した。
論文 参考訳(メタデータ) (2023-05-01T23:20:27Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - NeuralStagger: Accelerating Physics-constrained Neural PDE Solver with
Spatial-temporal Decomposition [67.46012350241969]
本稿では,NeuralStaggerと呼ばれる一般化手法を提案する。
元の学習タスクをいくつかの粗い解像度のサブタスクに分解する。
本稿では,2次元および3次元流体力学シミュレーションにおけるNeuralStaggerの適用例を示す。
論文 参考訳(メタデータ) (2023-02-20T19:36:52Z) - PlasticineLab: A Soft-Body Manipulation Benchmark with Differentiable
Physics [89.81550748680245]
PasticineLabと呼ばれる新しい微分可能な物理ベンチマークを導入する。
各タスクにおいて、エージェントはマニピュレータを使用して、プラスチックを所望の構成に変形させる。
本稿では,既存の強化学習(RL)手法と勾配に基づく手法について評価する。
論文 参考訳(メタデータ) (2021-04-07T17:59:23Z) - Physics-Informed Neural Network Method for Solving One-Dimensional
Advection Equation Using PyTorch [0.0]
PINNのアプローチは、最適化の強い制約としてPDEを尊重しながらニューラルネットワークのトレーニングを可能にします。
標準的な小規模循環シミュレーションでは、従来のアプローチは乱流拡散モデルの効果とほぼ同じ大きさの擬似拡散効果を組み込むことが示されている。
テストされた全てのスキームのうち、ピンズ近似のみが結果を正確に予測した。
論文 参考訳(メタデータ) (2021-03-15T05:39:17Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - Physics-informed deep learning for incompressible laminar flows [13.084113582897965]
流体力学のための物理インフォームドニューラルネットワーク(PINN)の混合可変方式を提案する。
パラメトリック研究では、混合変数スキームがPINNのトレーニング容易性と解の精度を向上させることが示されている。
論文 参考訳(メタデータ) (2020-02-24T21:51:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。