論文の概要: Operator-learning-inspired Modeling of Neural Ordinary Differential
Equations
- arxiv url: http://arxiv.org/abs/2312.10274v1
- Date: Sat, 16 Dec 2023 00:29:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 17:38:15.976581
- Title: Operator-learning-inspired Modeling of Neural Ordinary Differential
Equations
- Title(参考訳): 演算子学習によるニューラル正規微分方程式のモデル化
- Authors: Woojin Cho, Seunghyeon Cho, Hyundong Jin, Jinsung Jeon, Kookjin Lee,
Sanghyun Hong, Dongeun Lee, Jonghyun Choi, Noseong Park
- Abstract要約: 本稿では,時間微分項を定義するニューラル演算子に基づく手法を提案する。
一般下流タスクを用いた実験では,提案手法は既存手法よりも大幅に優れていた。
- 参考スコア(独自算出の注目度): 38.17903151426809
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural ordinary differential equations (NODEs), one of the most influential
works of the differential equation-based deep learning, are to continuously
generalize residual networks and opened a new field. They are currently
utilized for various downstream tasks, e.g., image classification, time series
classification, image generation, etc. Its key part is how to model the
time-derivative of the hidden state, denoted dh(t)/dt. People have habitually
used conventional neural network architectures, e.g., fully-connected layers
followed by non-linear activations. In this paper, however, we present a neural
operator-based method to define the time-derivative term. Neural operators were
initially proposed to model the differential operator of partial differential
equations (PDEs). Since the time-derivative of NODEs can be understood as a
special type of the differential operator, our proposed method, called branched
Fourier neural operator (BFNO), makes sense. In our experiments with general
downstream tasks, our method significantly outperforms existing methods.
- Abstract(参考訳): 微分方程式に基づくディープラーニングの最も影響力のある研究の1つであるニューラル常微分方程式(NODE)は、残留ネットワークを連続的に一般化し、新しい場を開くことである。
現在は、画像分類、時系列分類、画像生成など、さまざまな下流タスクに使用されている。
その鍵となる部分は、dh(t)/dtと表記される隠れた状態の時間導出をモデル化する方法である。
人々は従来のニューラルネットワークアーキテクチャ、例えば完全接続層と非線形のアクティベーションを習慣的に使用してきた。
本稿では,時間-導出項を定義するためのニューラル演算子に基づく手法を提案する。
神経演算子は、偏微分方程式(pdes)の微分作用素をモデル化するために最初に提案された。
ノードの時間導出は微分作用素の特殊型として理解することができるので,本手法は分岐フーリエニューラル演算子 (bfno) と呼ばれる。
一般下流タスクを用いた実験では,提案手法は既存手法よりも大幅に優れていた。
関連論文リスト
- Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - Approximating Numerical Fluxes Using Fourier Neural Operators for Hyperbolic Conservation Laws [7.438389089520601]
物理インフォームドニューラルネットワーク(PINN)やニューラル演算子などのニューラルネットワークベースの手法は、堅牢性と一般化の欠陥を示す。
本研究では,従来の数値フラックスをニューラル演算子に置き換えることによる双曲的保存則に着目した。
提案手法は従来の数値スキームとFNOの長所を組み合わせたもので,いくつかの点で標準FNO法よりも優れている。
論文 参考訳(メタデータ) (2024-01-03T15:16:25Z) - PMNN:Physical Model-driven Neural Network for solving time-fractional
differential equations [17.66402435033991]
時間差分方程式を解くために, 革新的物理モデル駆動ニューラルネットワーク (PMNN) 法を提案する。
ディープニューラルネットワーク(DNN)と分数微分の近似を効果的に組み合わせる。
論文 参考訳(メタデータ) (2023-10-07T12:43:32Z) - Semi-supervised Learning of Partial Differential Operators and Dynamical
Flows [68.77595310155365]
本稿では,超ネットワーク解法とフーリエニューラル演算子アーキテクチャを組み合わせた新しい手法を提案する。
本手法は, 1次元, 2次元, 3次元の非線形流体を含む様々な時間発展PDEを用いて実験を行った。
その結果、新しい手法は、監督点の時点における学習精度を向上し、任意の中間時間にその解を補間できることを示した。
論文 参考訳(メタデータ) (2022-07-28T19:59:14Z) - Neural Laplace: Learning diverse classes of differential equations in
the Laplace domain [86.52703093858631]
本稿では,これらすべてを含む多種多様な微分方程式(DE)を学習するための統一的な枠組みを提案する。
時間領域の力学をモデル化する代わりに、ラプラス領域でモデル化する。
The experiment, Neural Laplace shows excellent performance in modelling and extrapolating the trajectories of various class of DEs。
論文 参考訳(メタデータ) (2022-06-10T02:14:59Z) - Pseudo-Differential Neural Operator: Generalized Fourier Neural Operator
for Learning Solution Operators of Partial Differential Equations [14.43135909469058]
本研究では,FNOにおけるフーリエ積分作用素を解析・一般化するための新しいテキスト型微分積分演算子(PDIO)を提案する。
提案モデルの有効性をDarcyフローとNavier-Stokes方程式を用いて実験的に検証した。
論文 参考訳(メタデータ) (2022-01-28T07:22:32Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。