論文の概要: Approximating Numerical Flux by Fourier Neural Operators for the
Hyperbolic Conservation Laws
- arxiv url: http://arxiv.org/abs/2401.01783v1
- Date: Wed, 3 Jan 2024 15:16:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-04 13:45:44.138815
- Title: Approximating Numerical Flux by Fourier Neural Operators for the
Hyperbolic Conservation Laws
- Title(参考訳): 双曲保存則に対するフーリエニューラル作用素による数値フラックス近似
- Authors: Taeyoung Kim and Myungjoo Sang
- Abstract要約: 提案手法は,従来の手法と比較することにより,数値スキームとFNOの両方の利点を有することを示す。
提案手法は,特に,分布外サンプルの時間的連続予測と一般化能力を有する。
- 参考スコア(独自算出の注目度): 1.7102697561186413
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Classical numerical schemes exist for solving PDEs numerically, and recently,
neural network-based methods have been developed. However, methodologies using
neural networks, such as PINN and neural operators, lack robustness and
generalization power. To compensate for such drawbacks, there are many types of
research combining classical numerical schemes and machine learning methods by
replacing a small portion of the numerical schemes with neural networks. In
this work, we focus on hyperbolic conservation laws and replace numerical
fluxes in the numerical schemes by neural operator. For this, we construct
losses that are motivated by numerical schemes for conservation laws and
approximate numerical flux by FNO. Through experiments, we show that our
methodology has advantages of both numerical schemes and FNO by comparing with
original methods. For instance, we demonstrate our method gains robustness,
resolution invariance property, and feasibility of a data-driven method. Our
method especially has the ability to predict continuously in time and
generalization power on the out-of-distribution samples, which are challenges
to be tackled for existing neural operator methods.
- Abstract(参考訳): PDEを数値的に解くための古典的な数値スキームが存在し、近年はニューラルネットワークに基づく手法が開発されている。
しかし、PINNやニューラル演算子などのニューラルネットワークを用いた手法は、堅牢性と一般化力に欠ける。
このような欠点を補うために、古典的数値スキームと機械学習手法を組み合わせた多くの研究が、数値スキームのごく一部をニューラルネットワークに置き換えて行われている。
本研究では, 双曲保存法則に着目し, ニューラル演算子による数値スキームの数値フラックスを置き換える。
このため,保存法則とFNOによる近似数値フラックスの数値スキームによって動機付けられた損失を構築する。
実験により,本手法は,従来の手法と比較することにより,数値スキームとFNOの両方の利点を有することを示した。
例えば,本手法はロバスト性,分解能不変性,およびデータ駆動方式の実現性を示す。
特に本手法は,既存のニューラル演算子手法では解決が困難である分散サンプルに対して,連続的な時間予測と一般化能力を有する。
関連論文リスト
- Component Fourier Neural Operator for Singularly Perturbed Differential Equations [3.9482103923304877]
Singularly Perturbed Differential Equations (SPDE) の解法は、薄い領域における解の急激な遷移に起因する計算上の問題を引き起こす。
本稿では、フーリエニューラル演算子(FNO)に基づく革新的な演算子学習法であるComFNOを紹介する。
私たちのアプローチはFNOに限らず、Deep Operator Network(DeepONet)など他のニューラルネットワークフレームワークにも適用可能です。
論文 参考訳(メタデータ) (2024-09-07T09:40:51Z) - Chebyshev Spectral Neural Networks for Solving Partial Differential Equations [0.0]
この研究は、フィードフォワードニューラルネットワークモデルとエラーバックプロパゲーション原理を用いて、損失関数の計算に自動微分(AD)を利用する。
楕円偏微分方程式を用いて,CSNNモデルの数値効率と精度について検討し,よく知られた物理インフォームドニューラルネットワーク(PINN)法と比較した。
論文 参考訳(メタデータ) (2024-06-06T05:31:45Z) - Neural Networks-based Random Vortex Methods for Modelling Incompressible Flows [0.0]
本稿では,(2D)非圧縮性ナビエ-ストークス方程式に対する解を近似するためのニューラルネットワークに基づく新しい手法を提案する。
このアルゴリズムは、ランダム渦力学の計算効率の良い定式化を利用する損失関数に基づいて、渦を近似する物理インフォームドニューラルネットワークを用いている。
論文 参考訳(メタデータ) (2024-05-22T14:36:23Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Operator-learning-inspired Modeling of Neural Ordinary Differential
Equations [38.17903151426809]
本稿では,時間微分項を定義するニューラル演算子に基づく手法を提案する。
一般下流タスクを用いた実験では,提案手法は既存手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2023-12-16T00:29:15Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Local Extreme Learning Machines and Domain Decomposition for Solving
Linear and Nonlinear Partial Differential Equations [0.0]
本稿では線形偏微分方程式と非線形偏微分方程式の解法を提案する。
この手法は、極端学習機械(ELM)、ドメイン分解、局所ニューラルネットワークのアイデアを組み合わせたものである。
本稿では,DGM法(Deep Galerkin Method)とPINN(Physical-informed Neural Network)を精度と計算コストの観点から比較する。
論文 参考訳(メタデータ) (2020-12-04T23:19:39Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。