論文の概要: Spectral methods for Neural Integral Equations
- arxiv url: http://arxiv.org/abs/2312.05654v2
- Date: Wed, 27 Dec 2023 04:50:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 21:37:19.609152
- Title: Spectral methods for Neural Integral Equations
- Title(参考訳): 神経積分方程式のスペクトル法
- Authors: Emanuele Zappala
- Abstract要約: 本稿では,スペクトル法に基づくニューラル積分方程式の枠組みを提案する。
モデルの近似能力に関する様々な理論的保証を示す。
得られたモデルの有効性を示す数値実験を行う。
- 参考スコア(独自算出の注目度): 0.6993026261767287
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural integral equations are deep learning models based on the theory of
integral equations, where the model consists of an integral operator and the
corresponding equation (of the second kind) which is learned through an
optimization procedure. This approach allows to leverage the nonlocal
properties of integral operators in machine learning, but it is computationally
expensive. In this article, we introduce a framework for neural integral
equations based on spectral methods that allows us to learn an operator in the
spectral domain, resulting in a cheaper computational cost, as well as in high
interpolation accuracy. We study the properties of our methods and show various
theoretical guarantees regarding the approximation capabilities of the model,
and convergence to solutions of the numerical methods. We provide numerical
experiments to demonstrate the practical effectiveness of the resulting model.
- Abstract(参考訳): 神経積分方程式 (neural integral equation) は、積分方程式の理論に基づく深層学習モデルであり、このモデルが積分作用素と、最適化手順によって学習される対応する(第2種類の)方程式からなる。
このアプローチでは、機械学習における積分演算子の非局所的性質を活用できるが、計算コストは高い。
本稿では,スペクトル領域の演算子を学習し,計算コストの低減と補間精度の向上を実現するための,スペクトル法に基づくニューラル積分方程式の枠組みを提案する。
本手法の特性について検討し,モデルの近似能力,および数値解への収束に関して,様々な理論的保証を示す。
得られたモデルの有効性を示す数値実験を行う。
関連論文リスト
- PICL: Physics Informed Contrastive Learning for Partial Differential
Equations [8.430481660019451]
一般化されたコントラスト的損失を利用した新しいコントラスト的事前学習フレームワークを開発した。
物理インフォームドコントラストプレトレーニングは、固定未来タスクにおけるフーリエニューラル演算子の精度と一般化の両方を改善する。
論文 参考訳(メタデータ) (2024-01-29T17:32:22Z) - Discovering Interpretable Physical Models using Symbolic Regression and
Discrete Exterior Calculus [55.2480439325792]
本稿では,記号回帰(SR)と離散指数計算(DEC)を組み合わせて物理モデルの自動発見を行うフレームワークを提案する。
DECは、SRの物理問題への最先端の応用を越えている、場の理論の離散的な類似に対して、ビルディングブロックを提供する。
実験データから連続体物理の3つのモデルを再発見し,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-10-10T13:23:05Z) - Learning Unnormalized Statistical Models via Compositional Optimization [73.30514599338407]
実データと人工雑音のロジスティックな損失として目的を定式化することにより, ノイズコントラスト推定(NCE)を提案する。
本稿では,非正規化モデルの負の対数類似度を最適化するための直接的アプローチについて検討する。
論文 参考訳(メタデータ) (2023-06-13T01:18:16Z) - An Optimization-based Deep Equilibrium Model for Hyperspectral Image
Deconvolution with Convergence Guarantees [71.57324258813675]
本稿では,ハイパースペクトル画像のデコンボリューション問題に対処する新しい手法を提案する。
新しい最適化問題を定式化し、学習可能な正規化器をニューラルネットワークの形で活用する。
導出した反復解法は、Deep Equilibriumフレームワーク内の不動点計算問題として表現される。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - AutoIP: A United Framework to Integrate Physics into Gaussian Processes [15.108333340471034]
あらゆる微分方程式をガウス過程に統合できる枠組みを提案する。
本手法は,シミュレーションと実世界の応用の両方において,バニラGPの改善を示す。
論文 参考訳(メタデータ) (2022-02-24T19:02:14Z) - Approximate Latent Force Model Inference [1.3927943269211591]
潜在力モデルは、動的システムにおける推論のための純粋にデータ駆動ツールの解釈可能な代替手段を提供する。
ニューラルネットワークのアプローチは、モデルを数千のインスタンスにスケールし、高速で分散的な計算を可能にします。
論文 参考訳(メタデータ) (2021-09-24T09:55:00Z) - Personalized Algorithm Generation: A Case Study in Meta-Learning ODE
Integrators [6.457555233038933]
科学計算における数値アルゴリズムのメタラーニングに関する研究
初期値問題の解法を自動的に学習する機械学習手法を開発した。
論文 参考訳(メタデータ) (2021-05-04T05:42:33Z) - Symbolically Solving Partial Differential Equations using Deep Learning [5.1964883240501605]
本稿では、微分方程式の正確な解や近似解を生成するニューラルネットワーク手法について述べる。
他のニューラルネットワークとは異なり、我々のシステムは直接解釈できるシンボリック表現を返す。
論文 参考訳(メタデータ) (2020-11-12T22:16:03Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z) - Interpolation Technique to Speed Up Gradients Propagation in Neural ODEs [71.26657499537366]
本稿では,ニューラルネットワークモデルにおける勾配の効率的な近似法を提案する。
我々は、分類、密度推定、推論近似タスクにおいて、ニューラルODEをトレーニングするリバースダイナミック手法と比較する。
論文 参考訳(メタデータ) (2020-03-11T13:15:57Z) - SLEIPNIR: Deterministic and Provably Accurate Feature Expansion for
Gaussian Process Regression with Derivatives [86.01677297601624]
本稿では,2次フーリエ特徴に基づく導関数によるGP回帰のスケーリング手法を提案する。
我々は、近似されたカーネルと近似された後部の両方に適用される決定論的、非漸近的、指数関数的に高速な崩壊誤差境界を証明した。
論文 参考訳(メタデータ) (2020-03-05T14:33:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。