論文の概要: Approximating Numerical Fluxes Using Fourier Neural Operators for
Hyperbolic Conservation Laws
- arxiv url: http://arxiv.org/abs/2401.01783v3
- Date: Wed, 17 Jan 2024 01:02:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 19:40:12.227355
- Title: Approximating Numerical Fluxes Using Fourier Neural Operators for
Hyperbolic Conservation Laws
- Title(参考訳): フーリエニューラル演算子を用いた双曲保存則の近似数値フラックス
- Authors: Taeyoung Kim and Myungjoo Kang
- Abstract要約: 物理インフォームドニューラルネットワーク(PINN)やニューラル演算子などのニューラルネットワークベースの手法は、堅牢性と一般化の欠陥を示す。
本研究では,従来の数値フラックスをニューラル演算子に置き換えることによる双曲的保存則に着目した。
提案手法は従来の数値スキームとFNOの長所を組み合わせたもので,いくつかの点で標準FNO法よりも優れている。
- 参考スコア(独自算出の注目度): 8.787471333999791
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditionally, classical numerical schemes have been employed to solve
partial differential equations (PDEs) using computational methods. Recently,
neural network-based methods have emerged. Despite these advancements, neural
network-based methods, such as physics-informed neural networks (PINNs) and
neural operators, exhibit deficiencies in robustness and generalization. To
address these issues, numerous studies have integrated classical numerical
frameworks with machine learning techniques, incorporating neural networks into
parts of traditional numerical methods. In this study, we focus on hyperbolic
conservation laws by replacing traditional numerical fluxes with neural
operators. To this end, we developed loss functions inspired by established
numerical schemes related to conservation laws and approximated numerical
fluxes using Fourier neural operators (FNOs). Our experiments demonstrated that
our approach combines the strengths of both traditional numerical schemes and
FNOs, outperforming standard FNO methods in several respects. For instance, we
demonstrate that our method is robust, has resolution invariance, and is
feasible as a data-driven method. In particular, our method can make continuous
predictions over time and exhibits superior generalization capabilities with
out-of-distribution (OOD) samples, which are challenges that existing neural
operator methods encounter.
- Abstract(参考訳): 伝統的に、計算手法を用いて偏微分方程式(PDE)を解くために古典的な数値スキームが用いられている。
近年,ニューラルネットワークに基づく手法が出現している。
これらの進歩にもかかわらず、物理情報ニューラルネットワーク(PINN)やニューラル演算子のようなニューラルネットワークベースの手法は、堅牢性と一般化の欠陥を示す。
これらの問題に対処するため、多くの研究が従来の数値手法の一部にニューラルネットワークを組み込んだ古典的数値フレームワークと機械学習技術を統合している。
本研究では,従来の数値フラックスをニューラルネットワークに置き換え,双曲的保存則に着目した。
そこで我々は,保存法則とFNOを用いた近似数値フラックスに関する確立された数値スキームから着想を得た損失関数を開発した。
実験により,従来の数値スキームとfnosの強みを組み合わせることにより,標準fno法をいくつかの点で上回った。
例えば,本手法はロバストであり,分解能不変性を有し,データ駆動型手法として実現可能であることを示す。
特に,本手法は時間とともに連続的な予測を行い,既存のニューラル演算子手法が直面する課題であるout-of-distribution (ood) サンプルを用いて,優れた一般化能力を示す。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Operator-learning-inspired Modeling of Neural Ordinary Differential
Equations [38.17903151426809]
本稿では,時間微分項を定義するニューラル演算子に基づく手法を提案する。
一般下流タスクを用いた実験では,提案手法は既存手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2023-12-16T00:29:15Z) - Regression-based Physics Informed Neural Networks (Reg-PINNs) for
Magnetopause Tracking [0.0]
本稿では,物理に基づく数値計算とバニラ機械学習を組み合わせた回帰型物理情報ニューラルネットワーク(Reg-PINN)を提案する。
シュエらと比較すると,1998年モデルでは根平均二乗誤差が約30%減少する。
論文 参考訳(メタデータ) (2023-06-16T04:28:57Z) - The Nonlocal Neural Operator: Universal Approximation [9.28489418323604]
本稿では,非局所的ニューラル演算子 (NNO) と呼ばれる演算子近似器を新たに導入し,任意のジオメトリ上で定義された関数間の演算子近似を可能にする。
非局所性の役割と非線形性との相互作用に新たな光を当て、非局所性に関するより体系的な探索の道を開く。
論文 参考訳(メタデータ) (2023-04-26T01:03:11Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Local Extreme Learning Machines and Domain Decomposition for Solving
Linear and Nonlinear Partial Differential Equations [0.0]
本稿では線形偏微分方程式と非線形偏微分方程式の解法を提案する。
この手法は、極端学習機械(ELM)、ドメイン分解、局所ニューラルネットワークのアイデアを組み合わせたものである。
本稿では,DGM法(Deep Galerkin Method)とPINN(Physical-informed Neural Network)を精度と計算コストの観点から比較する。
論文 参考訳(メタデータ) (2020-12-04T23:19:39Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Understanding and mitigating gradient pathologies in physics-informed
neural networks [2.1485350418225244]
この研究は、物理システムの結果を予測し、ノイズの多いデータから隠れた物理を発見するための物理情報ニューラルネットワークの有効性に焦点を当てる。
本稿では,モデル学習中の勾配統計を利用して,複合損失関数の異なる項間の相互作用のバランスをとる学習速度アニーリングアルゴリズムを提案する。
また、そのような勾配に耐性のある新しいニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-01-13T21:23:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。