論文の概要: A Structured Matrix Method for Nonequispaced Neural Operators
- arxiv url: http://arxiv.org/abs/2305.19663v3
- Date: Fri, 6 Oct 2023 15:59:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 11:13:33.424972
- Title: A Structured Matrix Method for Nonequispaced Neural Operators
- Title(参考訳): 非等間隔ニューラル演算子の構造行列法
- Authors: Levi Lingsch and Mike Michelis and Emmanuel de Bezenac and Sirani M.
Perera and Robert K. Katzschmann and Siddhartha Mishra
- Abstract要約: 本稿では, バッチ行列の乗法を利用して, Vandermonde構造行列を効率的に構築し, 前方および逆変換を計算する手法を提案する。
提案手法は,ベースラインよりもトレーニング速度を向上し,精度を維持・改善しつつ,ニューラル演算子を非常に一般的な点分布に拡張することができることを示す。
- 参考スコア(独自算出の注目度): 14.368584137791904
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The computational efficiency of many neural operators, widely used for
learning solutions of PDEs, relies on the fast Fourier transform (FFT) for
performing spectral computations. However, as FFT is limited to equispaced
(rectangular) grids, this limits the efficiency of such neural operators when
applied to problems where the input and output functions need to be processed
on general non-equispaced point distributions. We address this issue by
proposing a novel method that leverages batch matrix multiplications to
efficiently construct Vandermonde-structured matrices and compute forward and
inverse transforms, on arbitrarily distributed points. An efficient
implementation of such structured matrix methods is coupled with existing
neural operator models to allow the processing of data on arbitrary
non-equispaced distributions of points. With extensive empirical evaluation, we
demonstrate that the proposed method allows one to extend neural operators to
very general point distributions with significant gains in training speed over
baselines, while retaining or improving accuracy.
- Abstract(参考訳): PDEの学習に広く用いられている多くのニューラル演算子の計算効率は、スペクトル計算を行うための高速フーリエ変換(FFT)に依存している。
しかし、fft は等間隔(正三角形)グリッドに制限されているため、入力関数と出力関数を一般的な非等間隔点分布で処理する必要がある問題に適用すると、そのようなニューラルネットワークの効率が制限される。
本稿では, バッチ行列乗法を利用して, Vandermonde構造行列を効率的に構築し, 任意の分散点上で前方および逆変換を計算する手法を提案する。
このような構造化マトリクス法の効率的な実装は、点の任意の非等間隔分布上のデータの処理を可能にするために、既存のニューラルオペレータモデルと結合される。
広範な経験的評価により,提案手法は,精度を維持しつつ,ベースラインよりもトレーニング速度が著しく向上する非常に一般的な点分布にニューラルネットワークを拡張できることを実証する。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Linearization Turns Neural Operators into Function-Valued Gaussian Processes [23.85470417458593]
ニューラル作用素におけるベイズの不確かさを近似する新しい枠組みを導入する。
我々の手法は関数型プログラミングからカリー化の概念の確率論的類似体と解釈できる。
我々は、異なるタイプの偏微分方程式への応用を通して、我々のアプローチの有効性を示す。
論文 参考訳(メタデータ) (2024-06-07T16:43:54Z) - Spectral-Refiner: Fine-Tuning of Accurate Spatiotemporal Neural Operator for Turbulent Flows [6.961408873053586]
本稿では,ボヒナー空間間のマップを学習する新しい時間的ニューラル演算子(SFNO)と,これらの問題に対処する新しい学習フレームワークを提案する。
この新しいパラダイムは、従来の数値PDE理論と技法の知恵を利用して、一般的に採用されているエンドツーエンドのニューラル演算子のトレーニングと評価のパイプラインを洗練する。
2次元NSEのための一般的なベンチマークの数値実験は、エンドツーエンド評価や従来の数値PDEソルバと比較して計算効率と精度の両方が大幅に向上した。
論文 参考訳(メタデータ) (2024-05-27T14:33:06Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - Enhancing Solutions for Complex PDEs: Introducing Complementary Convolution and Equivariant Attention in Fourier Neural Operators [17.91230192726962]
複雑なPDEを解くために,畳み込み-残留層と注意機構を備えた新しい階層型フーリエニューラル演算子を提案する。
提案手法はこれらのPDEベンチマークにおいて,特に高速な係数変動を特徴とする方程式に対して,優れた性能を実現する。
論文 参考訳(メタデータ) (2023-11-21T11:04:13Z) - D2NO: Efficient Handling of Heterogeneous Input Function Spaces with
Distributed Deep Neural Operators [7.119066725173193]
異種性を示す入力関数を扱うための新しい分散手法を提案する。
中央ニューラルネットワークは、すべての出力関数間で共有情報を処理するために使用される。
ニューラルネットワークが連続非線形作用素の普遍近似であることを示す。
論文 参考訳(メタデータ) (2023-10-29T03:29:59Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - Factorized Fourier Neural Operators [77.47313102926017]
Factorized Fourier Neural Operator (F-FNO) は偏微分方程式をシミュレートする学習法である。
我々は,数値解法よりも桁違いに高速に動作しながら,誤差率2%を維持していることを示す。
論文 参考訳(メタデータ) (2021-11-27T03:34:13Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Learning Frequency Domain Approximation for Binary Neural Networks [68.79904499480025]
フーリエ周波数領域における符号関数の勾配を正弦関数の組み合わせを用いて推定し,BNNの訓練を行う。
いくつかのベンチマークデータセットとニューラルネットワークの実験により、この手法で学習したバイナリネットワークが最先端の精度を達成することが示されている。
論文 参考訳(メタデータ) (2021-03-01T08:25:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。