論文の概要: Neural Integral Equations
- arxiv url: http://arxiv.org/abs/2209.15190v4
- Date: Thu, 18 May 2023 22:45:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-22 19:42:56.806419
- Title: Neural Integral Equations
- Title(参考訳): 神経積分方程式
- Authors: Emanuele Zappala, Antonio Henrique de Oliveira Fonseca, Josue Ortega
Caro and David van Dijk
- Abstract要約: 本稿では、未知の積分演算子をIEソルバからデータから学習する手法であるNeural Integral Equations (NIE)を紹介する。
また、意図的ニューラル積分方程式(ANIE)を導入し、積分を自己認識に置き換え、拡張性、キャパシティを改善し、解釈可能なモデルをもたらす。
- 参考スコア(独自算出の注目度): 2.485182034310304
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Integral equations (IEs) are equations that model spatiotemporal systems with
non-local interactions. They have found important applications throughout
theoretical and applied sciences, including in physics, chemistry, biology, and
engineering. While efficient algorithms exist for solving given IEs, no method
exists that can learn an IE and its associated dynamics from data alone. In
this paper, we introduce Neural Integral Equations (NIE), a method that learns
an unknown integral operator from data through an IE solver. We also introduce
Attentional Neural Integral Equations (ANIE), where the integral is replaced by
self-attention, which improves scalability, capacity, and results in an
interpretable model. We demonstrate that (A)NIE outperforms other methods in
both speed and accuracy on several benchmark tasks in ODE, PDE, and IE systems
of synthetic and real-world data.
- Abstract(参考訳): 積分方程式 (IE) は非局所相互作用を持つ時空間系をモデル化する方程式である。
彼らは物理学、化学、生物学、工学など理論および応用科学において重要な応用を見出した。
与えられたIEを解くための効率的なアルゴリズムはあるが、IEとその関連するダイナミクスをデータだけで学ぶ方法はない。
本稿では,未知の積分演算子をIEソルバを通じてデータから学習する手法であるNeural Integral Equations (NIE)を紹介する。
また,意図的ニューラル積分方程式(ANIE)を導入し,その積分を自己認識に置き換えることで,拡張性,キャパシティ,解釈可能なモデルを実現する。
A)NIEは、ODE、PDE、IEシステムにおける複数のベンチマークタスクにおいて、合成および実世界のデータの速度と精度において、他の手法よりも優れていることを示す。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - PICL: Physics Informed Contrastive Learning for Partial Differential Equations [7.136205674624813]
我々は,複数の支配方程式にまたがるニューラル演算子一般化を同時に改善する,新しいコントラスト事前学習フレームワークを開発する。
物理インフォームドシステムの進化と潜在空間モデル出力の組み合わせは、入力データに固定され、我々の距離関数で使用される。
物理インフォームドコントラストプレトレーニングにより,1次元および2次元熱,バーガーズ,線形対流方程式に対する固定フューチャーおよび自己回帰ロールアウトタスクにおけるフーリエニューラル演算子の精度が向上することがわかった。
論文 参考訳(メタデータ) (2024-01-29T17:32:22Z) - Spectral methods for Neural Integral Equations [0.6993026261767287]
本稿では,スペクトル法に基づくニューラル積分方程式の枠組みを提案する。
モデルの近似能力に関する様々な理論的保証を示す。
得られたモデルの有効性を示す数値実験を行う。
論文 参考訳(メタデータ) (2023-12-09T19:42:36Z) - Learning nonlinear integral operators via Recurrent Neural Networks and
its application in solving Integro-Differential Equations [4.011446845089061]
非線形積分微分方程式(IDE)に現れる非線形積分作用素を学習し、表現する。
非線形積分作用素のLSTM-RNN表現により、非線形積分微分方程式の系を通常の微分方程式の系に変換することができる。
量子多体系に対するダイソン方程式を効果的に解く方法について述べる。
論文 参考訳(メタデータ) (2023-10-13T22:57:46Z) - CoNO: Complex Neural Operator for Continuous Dynamical Systems [10.326780211731263]
複素分数フーリエ領域の積分核をパラメータ化する複素ニューラル演算子(CoNO)を導入する。
このモデルは, 1つの複素分数フーリエ変換を用いて, 基礎となる偏微分方程式を効果的に捕捉することを示す。
論文 参考訳(メタデータ) (2023-10-03T14:38:12Z) - Neural Operators for Accelerating Scientific Simulations and Design [85.89660065887956]
Neural Operatorsとして知られるAIフレームワークは、継続的ドメインで定義された関数間のマッピングを学習するための原則的なフレームワークを提供する。
ニューラルオペレータは、計算流体力学、天気予報、物質モデリングなど、多くのアプリケーションで既存のシミュレータを拡張または置き換えることができる。
論文 参考訳(メタデータ) (2023-09-27T00:12:07Z) - On Robust Numerical Solver for ODE via Self-Attention Mechanism [82.95493796476767]
我々は,内在性雑音障害を緩和し,AIによって強化された数値解法を,データサイズを小さくする訓練について検討する。
まず,教師付き学習における雑音を制御するための自己認識機構の能力を解析し,さらに微分方程式の数値解に付加的な自己認識機構を導入し,簡便かつ有効な数値解法であるAttrを提案する。
論文 参考訳(メタデータ) (2023-02-05T01:39:21Z) - Semi-supervised Learning of Partial Differential Operators and Dynamical
Flows [68.77595310155365]
本稿では,超ネットワーク解法とフーリエニューラル演算子アーキテクチャを組み合わせた新しい手法を提案する。
本手法は, 1次元, 2次元, 3次元の非線形流体を含む様々な時間発展PDEを用いて実験を行った。
その結果、新しい手法は、監督点の時点における学習精度を向上し、任意の中間時間にその解を補間できることを示した。
論文 参考訳(メタデータ) (2022-07-28T19:59:14Z) - Neural Integro-Differential Equations [2.001149416674759]
積分微分方程式 (IDE) は、積分成分と微分成分の両方を構成する微分方程式の一般化である。
NIDEは、ニューラルネットワークを使用してIDEの通常のコンポーネントと統合コンポーネントをモデル化するフレームワークである。
NIDEは力学をマルコフ成分と非マルコフ成分に分解できることを示す。
論文 参考訳(メタデータ) (2022-06-28T20:39:35Z) - Neural Laplace: Learning diverse classes of differential equations in
the Laplace domain [86.52703093858631]
本稿では,これらすべてを含む多種多様な微分方程式(DE)を学習するための統一的な枠組みを提案する。
時間領域の力学をモデル化する代わりに、ラプラス領域でモデル化する。
The experiment, Neural Laplace shows excellent performance in modelling and extrapolating the trajectories of various class of DEs。
論文 参考訳(メタデータ) (2022-06-10T02:14:59Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。