論文の概要: Enforcing the Principle of Locality for Physical Simulations with Neural Operators
- arxiv url: http://arxiv.org/abs/2405.01319v2
- Date: Fri, 10 Jan 2025 20:55:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:21:24.844772
- Title: Enforcing the Principle of Locality for Physical Simulations with Neural Operators
- Title(参考訳): ニューラルネットワークを用いた物理シミュレーションにおける局所性原理の適用
- Authors: Jiangce Chen, Wenzhuo Xu, Zeda Xu, Noelia Grande Gutiérrez, Sneha Prabha Narra, Christopher McComb,
- Abstract要約: 時間依存偏微分方程式(PDE)は、物理学における局所性の原理に従って厳密に局所依存的である。
ディープラーニングアーキテクチャは、ローカルな予測を行うための情報の範囲を必然的に増やすため、ローカル依存を厳格に強制することはできない。
本稿では,局所的な予測を行うニューラル演算子の情報範囲を厳格に制限するデータ分解手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Time-dependent partial differential equations (PDEs) for classic physical systems are established based on the conservation of mass, momentum, and energy, which are ubiquitous in scientific and engineering applications. These PDEs are strictly local-dependent according to the principle of locality in physics, which means that the evolution at a point is only influenced by the neighborhood around it whose size is determined by the length of timestep multiplied with the speed of characteristic information traveling in the system. However, deep learning architecture cannot strictly enforce the local-dependency as it inevitably increases the scope of information to make local predictions as the number of layers increases. Under limited training data, the extra irrelevant information results in sluggish convergence and compromised generalizability. This paper aims to solve this problem by proposing a data decomposition method to strictly limit the scope of information for neural operators making local predictions, which is called data decomposition enforcing local-dependency (DDELD). The numerical experiments over multiple physical phenomena show that DDELD significantly accelerates training convergence and reduces test errors of benchmark models on large-scale engineering simulations.
- Abstract(参考訳): 古典的な物理系に対する時間依存偏微分方程式(PDE)は、科学や工学の応用においてユビキタスな質量、運動量、エネルギーの保存に基づいて確立される。
これらのPDEは、物理の局所性の原理に従って厳密に局所的に依存しており、ある点における進化は、システム内を移動する特性情報の速度に乗じて、その大きさが時間ステップの長さによって決定される近傍によってのみ影響されることを意味する。
しかし、深層学習アーキテクチャは、レイヤーの数が増えるにつれて、情報の範囲を必然的に増やすため、局所依存性を厳格に強制することはできない。
限られたトレーニングデータの下では、余分に無関係な情報は、ゆるやかな収束と一般化可能性の妥協をもたらす。
本稿では,局所依存性を強制するデータ分解(DDELD)と呼ばれる局所的予測を行うニューラル演算子の情報範囲を厳格に制限するデータ分解手法を提案する。
複数の物理現象に対する数値実験により、DDELDはトレーニング収束を著しく加速し、大規模工学シミュレーションにおけるベンチマークモデルの試験誤差を低減することが示されている。
関連論文リスト
- Graph Neural Networks and Differential Equations: A hybrid approach for data assimilation of fluid flows [0.0]
本研究では,グラフニューラルネットワーク(GNN)とReynolds-Averaged Navier Stokes(RANS)方程式を組み合わせた新しいハイブリッド手法を提案する。
その結果, 純粋なデータ駆動モデルと比較して, 再構成平均流の精度は著しく向上した。
論文 参考訳(メタデータ) (2024-11-14T14:31:52Z) - PhyMPGN: Physics-encoded Message Passing Graph Network for spatiotemporal PDE systems [31.006807854698376]
我々は物理符号化されたメッセージパッシンググラフネットワーク(PhyMPGN)という新しいグラフ学習手法を提案する。
我々は,GNNを数値積分器に組み込んで,与えられたPDEシステムに対する時間的時間的ダイナミクスの時間的行進を近似する。
PhyMPGNは、粗い非構造メッシュ上での様々なタイプの時間的ダイナミクスを正確に予測することができる。
論文 参考訳(メタデータ) (2024-10-02T08:54:18Z) - Assessing Neural Network Representations During Training Using
Noise-Resilient Diffusion Spectral Entropy [55.014926694758195]
ニューラルネットワークにおけるエントロピーと相互情報は、学習プロセスに関する豊富な情報を提供する。
データ幾何を利用して基礎となる多様体にアクセスし、これらの情報理論測度を確実に計算する。
本研究は,高次元シミュレーションデータにおける固有次元と関係強度の耐雑音性の測定結果である。
論文 参考訳(メタデータ) (2023-12-04T01:32:42Z) - Learning Generic Solutions for Multiphase Transport in Porous Media via
the Flux Functions Operator [0.0]
DeepDeepONetは、レンダリングフラックスDEを高速化する強力なツールとして登場した。
我々は、入力ペア出力の観測を伴わずにこのマッピングを実現するために、Physical-In DeepONets (PI-DeepONets) を用いている。
論文 参考訳(メタデータ) (2023-07-03T21:10:30Z) - Training Deep Surrogate Models with Large Scale Online Learning [48.7576911714538]
ディープラーニングアルゴリズムは、PDEの高速解を得るための有効な代替手段として登場した。
モデルは通常、ソルバによって生成された合成データに基づいてトレーニングされ、ディスクに格納され、トレーニングのために読み返される。
ディープサロゲートモデルのためのオープンソースのオンライントレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-28T12:02:27Z) - Temporal Subsampling Diminishes Small Spatial Scales in Recurrent Neural
Network Emulators of Geophysical Turbulence [0.0]
しばしば見過ごされる処理ステップがエミュレータの予測品質にどのように影響するかを検討する。
1)空間ベクトル自己回帰(NVAR)の形式、(2)エコー状態ネットワーク(ESN)の形式。
いずれの場合も、トレーニングデータのサブサンプリングは、数値拡散に類似した小さなスケールでのバイアスの増加につながる。
論文 参考訳(メタデータ) (2023-04-28T21:34:53Z) - MAgNet: Mesh Agnostic Neural PDE Solver [68.8204255655161]
気候予測は、流体シミュレーションにおける全ての乱流スケールを解決するために、微細な時間分解能を必要とする。
現在の数値モデル解法 PDEs on grids that too coarse (3km~200km on each side)
本研究では,空間的位置問合せが与えられたPDEの空間的連続解を予測する新しいアーキテクチャを設計する。
論文 参考訳(メタデータ) (2022-10-11T14:52:20Z) - A Gradient-based Deep Neural Network Model for Simulating Multiphase
Flow in Porous Media [1.5791732557395552]
多孔質媒体の多相流に関する物理に制約された勾配に基づくディープニューラルネットワーク(GDNN)について述べる。
GDNNが非線型応答の非線型パターンを効果的に予測できることを実証する。
論文 参考訳(メタデータ) (2021-04-30T02:14:00Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - Combining Differentiable PDE Solvers and Graph Neural Networks for Fluid
Flow Prediction [79.81193813215872]
我々は,従来のグラフ畳み込みネットワークと,ネットワーク内部に組込み可能な流体力学シミュレータを組み合わせたハイブリッド(グラフ)ニューラルネットワークを開発した。
ニューラルネットワークのCFD予測の大幅な高速化により,新たな状況に十分対応できることが示される。
論文 参考訳(メタデータ) (2020-07-08T21:23:19Z) - A Near-Optimal Gradient Flow for Learning Neural Energy-Based Models [93.24030378630175]
学習エネルギーベースモデル(EBM)の勾配流を最適化する新しい数値スキームを提案する。
フォッカー・プランク方程式から大域相対エントロピーの2階ワッサーシュタイン勾配流を導出する。
既存のスキームと比較して、ワッサーシュタイン勾配流は実データ密度を近似するより滑らかで近似的な数値スキームである。
論文 参考訳(メタデータ) (2019-10-31T02:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。