論文の概要: Hyena Neural Operator for Partial Differential Equations
- arxiv url: http://arxiv.org/abs/2306.16524v2
- Date: Wed, 20 Sep 2023 19:13:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-22 19:03:11.878630
- Title: Hyena Neural Operator for Partial Differential Equations
- Title(参考訳): 部分微分方程式に対するハイエナニューラル演算子
- Authors: Saurabh Patil, Zijie Li, Amir Barati Farimani
- Abstract要約: ディープラーニングの最近の進歩は、ニューラル演算子の使用を含む偏微分方程式を解くための新しいアプローチをもたらした。
この研究は、多層パーセプトロンによってパラメータ化される長い畳み込みフィルタを使用するHyenaと呼ばれるニューラル演算子を利用する。
この結果から,ハイエナは偏微分方程式解演算器の効率的かつ高精度なモデルとして機能することが示唆された。
- 参考スコア(独自算出の注目度): 9.438207505148947
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Numerically solving partial differential equations typically requires fine
discretization to resolve necessary spatiotemporal scales, which can be
computationally expensive. Recent advances in deep learning have provided a new
approach to solving partial differential equations that involves the use of
neural operators. Neural operators are neural network architectures that learn
mappings between function spaces and have the capability to solve partial
differential equations based on data. This study utilizes a novel neural
operator called Hyena, which employs a long convolutional filter that is
parameterized by a multilayer perceptron. The Hyena operator is an operation
that enjoys sub-quadratic complexity and state space model to parameterize long
convolution that enjoys a global receptive field. This mechanism enhances the
model's comprehension of the input's context and enables data-dependent weight
for different partial differential equations instances. To measure how
effective the layers are in solving partial differential equations, we conduct
experiments on Diffusion-Reaction equation and Navier Stokes equation. Our
findings indicate Hyena Neural operator can serve as an efficient and accurate
model for learning partial differential equations solution operator. The data
and code used can be found at:
https://github.com/Saupatil07/Hyena-Neural-Operator
- Abstract(参考訳): 偏微分方程式の数値解法は一般に計算コストのかかる時空間スケールを解くために細かな離散化を必要とする。
ディープラーニングの最近の進歩は、ニューラル演算子の使用を含む偏微分方程式を解く新しいアプローチをもたらした。
ニューラルネットワークは、関数空間間のマッピングを学び、データに基づいて偏微分方程式を解く能力を持つニューラルネットワークアーキテクチャである。
本研究は,多層パーセプトロンによりパラメータ化される長い畳み込みフィルタを用いた,ハイエナと呼ばれるニューラル演算子を用いる。
ハイエナ作用素(hyena operator)は、大域的な受容場を楽しむ長い畳み込みをパラメータ化するために、準二次複雑性と状態空間モデルを楽しむ演算である。
このメカニズムは入力のコンテキストに対するモデルの理解を高め、異なる偏微分方程式のインスタンスに対するデータ依存重みを可能にする。
偏微分方程式の解法における層の効果を測定するため,拡散反応方程式とナビエ・ストークス方程式の実験を行った。
ヒエナニューラル作用素は偏微分方程式解演算子を学習するための効率的かつ正確なモデルとして機能することを示す。
使用したデータとコードは、https://github.com/Saupatil07/Hyena-Neural-Operator.comで見ることができる。
関連論文リスト
- Learning Partial Differential Equations with Deep Parallel Neural Operator [11.121415128908566]
新たな手法は、出力間のマッピングを近似する手段として演算子を学ぶことである。
物理科学の実践的な問題では、偏微分方程式の数値解は複雑である。
偏微分方程式の解法を効率よく正確に解くために,DPNO(Deep parallel operator model)を提案する。
論文 参考訳(メタデータ) (2024-09-30T06:04:04Z) - Dilated convolution neural operator for multiscale partial differential equations [11.093527996062058]
本稿では,多スケール偏微分方程式に対するDilated Convolutional Neural Operator (DCNO)を提案する。
DCNOアーキテクチャは、低計算コストを維持しながら、高周波と低周波の両方の特徴を効果的にキャプチャする。
我々は,DCNOが精度と計算コストの最適なバランスをとることを示し,マルチスケール演算子学習に有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-07-16T08:17:02Z) - Linearization Turns Neural Operators into Function-Valued Gaussian Processes [23.85470417458593]
ニューラル作用素におけるベイズの不確かさを近似する新しい枠組みを導入する。
我々の手法は関数型プログラミングからカリー化の概念の確率論的類似体と解釈できる。
我々は、異なるタイプの偏微分方程式への応用を通して、我々のアプローチの有効性を示す。
論文 参考訳(メタデータ) (2024-06-07T16:43:54Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - PICL: Physics Informed Contrastive Learning for Partial Differential Equations [7.136205674624813]
我々は,複数の支配方程式にまたがるニューラル演算子一般化を同時に改善する,新しいコントラスト事前学習フレームワークを開発する。
物理インフォームドシステムの進化と潜在空間モデル出力の組み合わせは、入力データに固定され、我々の距離関数で使用される。
物理インフォームドコントラストプレトレーニングにより,1次元および2次元熱,バーガーズ,線形対流方程式に対する固定フューチャーおよび自己回帰ロールアウトタスクにおけるフーリエニューラル演算子の精度が向上することがわかった。
論文 参考訳(メタデータ) (2024-01-29T17:32:22Z) - Neural Laplace: Learning diverse classes of differential equations in
the Laplace domain [86.52703093858631]
本稿では,これらすべてを含む多種多様な微分方程式(DE)を学習するための統一的な枠組みを提案する。
時間領域の力学をモデル化する代わりに、ラプラス領域でモデル化する。
The experiment, Neural Laplace shows excellent performance in modelling and extrapolating the trajectories of various class of DEs。
論文 参考訳(メタデータ) (2022-06-10T02:14:59Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Meta-Solver for Neural Ordinary Differential Equations [77.8918415523446]
本研究では,ソルバ空間の変動がニューラルODEの性能を向上する方法について検討する。
解法パラメータ化の正しい選択は, 敵の攻撃に対するロバスト性の観点から, 神経odesモデルに大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2021-03-15T17:26:34Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。