論文の概要: Vandermonde Neural Operators
- arxiv url: http://arxiv.org/abs/2305.19663v2
- Date: Mon, 5 Jun 2023 10:35:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 00:19:16.228782
- Title: Vandermonde Neural Operators
- Title(参考訳): Vandermonde ニューラル演算子
- Authors: Levi Lingsch and Mike Michelis and Sirani M. Perera and Robert K.
Katzschmann and Siddartha Mishra
- Abstract要約: Fourier Neural Operators (FNO)は、学習オペレーターのための非常に人気のある機械学習アーキテクチャとして登場した。
ここでは、FNOを一般化して、等価でない点分布の入力データを処理する。
本稿では, ファンダーモンドニューラル演算子(VNO)がFNOよりもはるかに高速であることを示す数値実験を行った。
- 参考スコア(独自算出の注目度): 0.7349727826230862
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fourier Neural Operators (FNOs) have emerged as very popular machine learning
architectures for learning operators, particularly those arising in PDEs.
However, as FNOs rely on the fast Fourier transform for computational
efficiency, the architecture can be limited to input data on equispaced
Cartesian grids. Here, we generalize FNOs to handle input data on
non-equispaced point distributions. Our proposed model, termed as Vandermonde
Neural Operator (VNO), utilizes Vandermonde-structured matrices to efficiently
compute forward and inverse Fourier transforms, even on arbitrarily distributed
points. We present numerical experiments to demonstrate that VNOs can be
significantly faster than FNOs, while retaining comparable accuracy, and
improve upon accuracy of comparable non-equispaced methods such as the Geo-FNO.
- Abstract(参考訳): Fourier Neural Operators (FNO)は、特にPDEで発生する、学習オペレータのための非常に人気のある機械学習アーキテクチャとして登場した。
しかし、FNOは高速フーリエ変換を計算効率に頼っているため、このアーキテクチャは等間隔のカルテシアン格子上の入力データに限定される。
ここでは、FNOを一般化して、等価でない点分布の入力データを処理する。
提案モデルはvandermonde neural operator (vno) と呼ばれ,vandermonde-structured matricesを用いて任意に分布した点においても,前方および逆フーリエ変換を効率的に計算する。
数値実験により、VNOsはFNOsよりもはるかに高速でありながら、同等の精度を維持し、Geo-FNOのような非等価な手法の精度を向上させることを示す。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Linearization Turns Neural Operators into Function-Valued Gaussian Processes [23.85470417458593]
ニューラル作用素におけるベイズの不確かさを近似する新しい枠組みを導入する。
我々の手法は関数型プログラミングからカリー化の概念の確率論的類似体と解釈できる。
我々は、異なるタイプの偏微分方程式への応用を通して、我々のアプローチの有効性を示す。
論文 参考訳(メタデータ) (2024-06-07T16:43:54Z) - Spectral-Refiner: Fine-Tuning of Accurate Spatiotemporal Neural Operator for Turbulent Flows [6.961408873053586]
本稿では,ボヒナー空間間のマップを学習する新しい時間的ニューラル演算子(SFNO)と,これらの問題に対処する新しい学習フレームワークを提案する。
この新しいパラダイムは、従来の数値PDE理論と技法の知恵を利用して、一般的に採用されているエンドツーエンドのニューラル演算子のトレーニングと評価のパイプラインを洗練する。
2次元NSEのための一般的なベンチマークの数値実験は、エンドツーエンド評価や従来の数値PDEソルバと比較して計算効率と精度の両方が大幅に向上した。
論文 参考訳(メタデータ) (2024-05-27T14:33:06Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - Enhancing Solutions for Complex PDEs: Introducing Complementary Convolution and Equivariant Attention in Fourier Neural Operators [17.91230192726962]
複雑なPDEを解くために,畳み込み-残留層と注意機構を備えた新しい階層型フーリエニューラル演算子を提案する。
提案手法はこれらのPDEベンチマークにおいて,特に高速な係数変動を特徴とする方程式に対して,優れた性能を実現する。
論文 参考訳(メタデータ) (2023-11-21T11:04:13Z) - D2NO: Efficient Handling of Heterogeneous Input Function Spaces with
Distributed Deep Neural Operators [7.119066725173193]
異種性を示す入力関数を扱うための新しい分散手法を提案する。
中央ニューラルネットワークは、すべての出力関数間で共有情報を処理するために使用される。
ニューラルネットワークが連続非線形作用素の普遍近似であることを示す。
論文 参考訳(メタデータ) (2023-10-29T03:29:59Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - Factorized Fourier Neural Operators [77.47313102926017]
Factorized Fourier Neural Operator (F-FNO) は偏微分方程式をシミュレートする学習法である。
我々は,数値解法よりも桁違いに高速に動作しながら,誤差率2%を維持していることを示す。
論文 参考訳(メタデータ) (2021-11-27T03:34:13Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Learning Frequency Domain Approximation for Binary Neural Networks [68.79904499480025]
フーリエ周波数領域における符号関数の勾配を正弦関数の組み合わせを用いて推定し,BNNの訓練を行う。
いくつかのベンチマークデータセットとニューラルネットワークの実験により、この手法で学習したバイナリネットワークが最先端の精度を達成することが示されている。
論文 参考訳(メタデータ) (2021-03-01T08:25:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。