論文の概要: On the locality of local neural operator in learning fluid dynamics
- arxiv url: http://arxiv.org/abs/2312.09820v1
- Date: Fri, 15 Dec 2023 14:18:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-18 15:28:21.386019
- Title: On the locality of local neural operator in learning fluid dynamics
- Title(参考訳): 流体力学学習における局所神経オペレーターの局所性について
- Authors: Ximeng Ye, Hongyu Li, Jingjie Huang, Guoliang Qin
- Abstract要約: 局所神経演算子(LNO)は、過渡偏微分方程式(PDE)の解法におけるLNOの柔軟性を可能にするコアである
我々はLNOの局所性について,LNOの受容領域と受容範囲を調べた。
本稿では,LNOを適用した多分野のPDEの学習と解法について概説する。
- 参考スコア(独自算出の注目度): 7.773086303468703
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper launches a thorough discussion on the locality of local neural
operator (LNO), which is the core that enables LNO great flexibility on varied
computational domains in solving transient partial differential equations
(PDEs). We investigate the locality of LNO by looking into its receptive field
and receptive range, carrying a main concern about how the locality acts in LNO
training and applications. In a large group of LNO training experiments for
learning fluid dynamics, it is found that an initial receptive range compatible
with the learning task is crucial for LNO to perform well. On the one hand, an
over-small receptive range is fatal and usually leads LNO to numerical
oscillation; on the other hand, an over-large receptive range hinders LNO from
achieving the best accuracy. We deem rules found in this paper general when
applying LNO to learn and solve transient PDEs in diverse fields. Practical
examples of applying the pre-trained LNOs in flow prediction are presented to
confirm the findings further. Overall, with the architecture properly designed
with a compatible receptive range, the pre-trained LNO shows commendable
accuracy and efficiency in solving practical cases.
- Abstract(参考訳): 本稿では,局所神経演算子(LNO)の局所性について,一過性偏微分方程式(PDE)の解法において,様々な計算領域におけるLNOの柔軟性を実現するためのコアである。
本研究はLNOの局所性について,LNOの受容領域と受容範囲を考察し,LNOのトレーニングや応用における局所性の役割について考察する。
流体力学を学習するためのLNOトレーニング実験の大規模なグループでは,LNOが学習課題に適合する初期受容範囲が重要であることが判明した。
一方、過大な受容範囲は致命的であり、通常、LNOを数値振動に導くが、一方、過大な受容範囲はLNOが最高の精度を達成するのを妨げている。
本稿では,LNOを適用した多分野のPDEの学習と解法について概説する。
流速予測に事前学習したLNOを適用する実践例を提示し, さらなる結果を確認した。
全体として、アーキテクチャは、互換性のある受容範囲で適切に設計されているため、事前訓練されたLNOは、現実的なケースを解決する上で、満足できる精度と効率を示す。
関連論文リスト
- Component Fourier Neural Operator for Singularly Perturbed Differential Equations [3.9482103923304877]
Singularly Perturbed Differential Equations (SPDE) の解法は、薄い領域における解の急激な遷移に起因する計算上の問題を引き起こす。
本稿では、フーリエニューラル演算子(FNO)に基づく革新的な演算子学習法であるComFNOを紹介する。
私たちのアプローチはFNOに限らず、Deep Operator Network(DeepONet)など他のニューラルネットワークフレームワークにも適用可能です。
論文 参考訳(メタデータ) (2024-09-07T09:40:51Z) - Spectral-Refiner: Fine-Tuning of Accurate Spatiotemporal Neural Operator for Turbulent Flows [6.961408873053586]
本稿では,ボヒナー空間間のマップを学習する新しい時間的ニューラル演算子(SFNO)と,これらの問題に対処する新しい学習フレームワークを提案する。
この新しいパラダイムは、従来の数値PDE理論と技法の知恵を利用して、一般的に採用されているエンドツーエンドのニューラル演算子のトレーニングと評価のパイプラインを洗練する。
2次元NSEのための一般的なベンチマークの数値実験は、エンドツーエンド評価や従来の数値PDEソルバと比較して計算効率と精度の両方が大幅に向上した。
論文 参考訳(メタデータ) (2024-05-27T14:33:06Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - LNO: Laplace Neural Operator for Solving Differential Equations [0.0]
入力空間を分解するためにLaplace変換を利用するLaplace Neural operator (LNO)を導入する。
LNOは入力と出力空間の間の極-残差関係を取り入れ、より高い解釈可能性を実現する。
LNOは、無限次元空間間の関数をマッピングするニューラル演算子を学習するための、有望な新しいアプローチであることを示す。
論文 参考訳(メタデータ) (2023-03-19T01:41:45Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - On Feature Learning in Neural Networks with Global Convergence
Guarantees [49.870593940818715]
勾配流(GF)を用いた広帯域ニューラルネットワーク(NN)の最適化について検討する。
入力次元がトレーニングセットのサイズ以下である場合、トレーニング損失はGFの下での線形速度で0に収束することを示す。
また、ニューラル・タンジェント・カーネル(NTK)システムとは異なり、我々の多層モデルは特徴学習を示し、NTKモデルよりも優れた一般化性能が得られることを実証的に示す。
論文 参考訳(メタデータ) (2022-04-22T15:56:43Z) - Local neural operator for solving transient partial differential
equations on varied domains [8.905324065830861]
そこで本稿では,PDE(Transient partial differential equation)の解法として局所ニューラル演算子(LNO)を提案する。
境界処理を含む便利な戦略が組み合わさり、1つの事前訓練されたLNOが、異なるドメインでのソリューションを予測することができる。
LNO はランダムに生成されたデータサンプルから Navier-Stokes 方程式を学習し、事前学習した LNO を明示的な数値マーチングスキームとして使用する。
論文 参考訳(メタデータ) (2022-03-11T06:41:51Z) - LyaNet: A Lyapunov Framework for Training Neural ODEs [59.73633363494646]
制御理論的リアプノフ条件を用いて常微分方程式を訓練する手法を提案する。
我々のアプローチはLyaNetと呼ばれ、推論ダイナミクスを正しい予測に迅速に収束させる新しいLyapunov損失定式化に基づいている。
論文 参考訳(メタデータ) (2022-02-05T10:13:14Z) - Incorporating NODE with Pre-trained Neural Differential Operator for
Learning Dynamics [73.77459272878025]
ニューラル微分演算子(NDO)の事前学習による動的学習における教師付き信号の強化を提案する。
NDOは記号関数のクラスで事前訓練され、これらの関数の軌跡サンプルとそれらの導関数とのマッピングを学習する。
我々は,NDOの出力が,ライブラリの複雑さを適切に調整することで,基礎となる真理微分を適切に近似できることを理論的に保証する。
論文 参考訳(メタデータ) (2021-06-08T08:04:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。