論文の概要: Approximating Numerical Fluxes Using Fourier Neural Operators for Hyperbolic Conservation Laws
- arxiv url: http://arxiv.org/abs/2401.01783v4
- Date: Mon, 13 May 2024 15:53:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-15 00:43:11.849330
- Title: Approximating Numerical Fluxes Using Fourier Neural Operators for Hyperbolic Conservation Laws
- Title(参考訳): フーリエニューラル演算子を用いた双曲保存法における数値フラックスの近似
- Authors: Taeyoung Kim, Myungjoo Kang,
- Abstract要約: 物理インフォームドニューラルネットワーク(PINN)やニューラル演算子などのニューラルネットワークベースの手法は、堅牢性と一般化の欠陥を示す。
本研究では,従来の数値フラックスをニューラル演算子に置き換えることによる双曲的保存則に着目した。
提案手法は従来の数値スキームとFNOの長所を組み合わせたもので,いくつかの点で標準FNO法よりも優れている。
- 参考スコア(独自算出の注目度): 7.438389089520601
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditionally, classical numerical schemes have been employed to solve partial differential equations (PDEs) using computational methods. Recently, neural network-based methods have emerged. Despite these advancements, neural network-based methods, such as physics-informed neural networks (PINNs) and neural operators, exhibit deficiencies in robustness and generalization. To address these issues, numerous studies have integrated classical numerical frameworks with machine learning techniques, incorporating neural networks into parts of traditional numerical methods. In this study, we focus on hyperbolic conservation laws by replacing traditional numerical fluxes with neural operators. To this end, we developed loss functions inspired by established numerical schemes related to conservation laws and approximated numerical fluxes using Fourier neural operators (FNOs). Our experiments demonstrated that our approach combines the strengths of both traditional numerical schemes and FNOs, outperforming standard FNO methods in several respects. For instance, we demonstrate that our method is robust, has resolution invariance, and is feasible as a data-driven method. In particular, our method can make continuous predictions over time and exhibits superior generalization capabilities with out-of-distribution (OOD) samples, which are challenges that existing neural operator methods encounter.
- Abstract(参考訳): 伝統的に、計算手法を用いて偏微分方程式(PDE)を解くために古典的な数値スキームが用いられている。
近年,ニューラルネットワークに基づく手法が出現している。
これらの進歩にもかかわらず、物理学インフォームドニューラルネットワーク(PINN)やニューラル演算子のようなニューラルネットワークベースの手法は、堅牢性と一般化の欠陥を示す。
これらの問題に対処するため、多くの研究が従来の数値手法の一部にニューラルネットワークを組み込んだ古典的数値フレームワークと機械学習技術を統合している。
本研究では,従来の数値フラックスをニューラル演算子に置き換えることによる双曲的保存則に着目した。
そこで我々は,保存法則とフーリエニューラル演算子(FNO)を用いた近似数値フラックスに関する確立された数値スキームから着想を得た損失関数を開発した。
提案手法は従来の数値スキームとFNOの長所を組み合わせ,いくつかの点でFNO法よりも優れていることを示した。
例えば、我々の手法は堅牢で、解像度の不変性があり、データ駆動方式として実現可能であることを実証する。
特に,本手法は時間とともに連続的な予測を行うことができ,既存のニューラル演算子の手法が遭遇する課題である,アウト・オブ・ディストリビューション(OOD)サンプルによる優れた一般化能力を示す。
関連論文リスト
- Component Fourier Neural Operator for Singularly Perturbed Differential Equations [3.9482103923304877]
Singularly Perturbed Differential Equations (SPDE) の解法は、薄い領域における解の急激な遷移に起因する計算上の問題を引き起こす。
本稿では、フーリエニューラル演算子(FNO)に基づく革新的な演算子学習法であるComFNOを紹介する。
私たちのアプローチはFNOに限らず、Deep Operator Network(DeepONet)など他のニューラルネットワークフレームワークにも適用可能です。
論文 参考訳(メタデータ) (2024-09-07T09:40:51Z) - Chebyshev Spectral Neural Networks for Solving Partial Differential Equations [0.0]
この研究は、フィードフォワードニューラルネットワークモデルとエラーバックプロパゲーション原理を用いて、損失関数の計算に自動微分(AD)を利用する。
楕円偏微分方程式を用いて,CSNNモデルの数値効率と精度について検討し,よく知られた物理インフォームドニューラルネットワーク(PINN)法と比較した。
論文 参考訳(メタデータ) (2024-06-06T05:31:45Z) - Neural Networks-based Random Vortex Methods for Modelling Incompressible Flows [0.0]
本稿では,(2D)非圧縮性ナビエ-ストークス方程式に対する解を近似するためのニューラルネットワークに基づく新しい手法を提案する。
このアルゴリズムは、ランダム渦力学の計算効率の良い定式化を利用する損失関数に基づいて、渦を近似する物理インフォームドニューラルネットワークを用いている。
論文 参考訳(メタデータ) (2024-05-22T14:36:23Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Operator-learning-inspired Modeling of Neural Ordinary Differential
Equations [38.17903151426809]
本稿では,時間微分項を定義するニューラル演算子に基づく手法を提案する。
一般下流タスクを用いた実験では,提案手法は既存手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2023-12-16T00:29:15Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Local Extreme Learning Machines and Domain Decomposition for Solving
Linear and Nonlinear Partial Differential Equations [0.0]
本稿では線形偏微分方程式と非線形偏微分方程式の解法を提案する。
この手法は、極端学習機械(ELM)、ドメイン分解、局所ニューラルネットワークのアイデアを組み合わせたものである。
本稿では,DGM法(Deep Galerkin Method)とPINN(Physical-informed Neural Network)を精度と計算コストの観点から比較する。
論文 参考訳(メタデータ) (2020-12-04T23:19:39Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。