論文の概要: Climate Modeling with Neural Diffusion Equations
- arxiv url: http://arxiv.org/abs/2111.06011v1
- Date: Thu, 11 Nov 2021 01:48:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-12 13:30:08.294958
- Title: Climate Modeling with Neural Diffusion Equations
- Title(参考訳): ニューラル拡散方程式を用いた気候モデリング
- Authors: Jeehyun Hwang, Jeongwhan Choi, Hwangyong Choi, Kookjin Lee, Dongeun
Lee, Noseong Park
- Abstract要約: ニューラル常微分方程式(NODE)と拡散方程式に基づく新しい気候モデルの設計を行う。
我々の手法は、既存のベースラインを非自明なマージンで一貫して上回る。
- 参考スコア(独自算出の注目度): 3.8521112392276
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Owing to the remarkable development of deep learning technology, there have
been a series of efforts to build deep learning-based climate models. Whereas
most of them utilize recurrent neural networks and/or graph neural networks, we
design a novel climate model based on the two concepts, the neural ordinary
differential equation (NODE) and the diffusion equation. Many physical
processes involving a Brownian motion of particles can be described by the
diffusion equation and as a result, it is widely used for modeling climate. On
the other hand, neural ordinary differential equations (NODEs) are to learn a
latent governing equation of ODE from data. In our presented method, we combine
them into a single framework and propose a concept, called neural diffusion
equation (NDE). Our NDE, equipped with the diffusion equation and one more
additional neural network to model inherent uncertainty, can learn an
appropriate latent governing equation that best describes a given climate
dataset. In our experiments with two real-world and one synthetic datasets and
eleven baselines, our method consistently outperforms existing baselines by
non-trivial margins.
- Abstract(参考訳): 深層学習技術の顕著な発展により、深層学習に基づく気候モデルを構築するための一連の取り組みがあった。
これらの多くはリカレントニューラルネットワークやグラフニューラルネットワークを使用しているが、ニューラル常微分方程式(NODE)と拡散方程式という2つの概念に基づく新しい気候モデルを構築している。
粒子のブラウン運動を含む多くの物理過程は拡散方程式によって記述することができ、その結果、気候のモデル化に広く用いられている。
一方、ニューラル常微分方程式(NODE)は、データからODEの潜在的な支配方程式を学習することである。
提案手法では,これらを一つの枠組みに統合し,ニューラル拡散方程式(NDE)という概念を提案する。
我々のNDEは、拡散方程式と、不確実性をモデル化するためのもう1つの追加のニューラルネットワークを備えており、与えられた気候データセットを最もよく記述した、適切な潜在的統治方程式を学習することができる。
2つの実世界と1つの合成データセットと11のベースラインを用いた実験では、非自明なマージンで既存のベースラインを一貫して上回ります。
関連論文リスト
- Diffusion models as probabilistic neural operators for recovering unobserved states of dynamical systems [49.2319247825857]
拡散に基づく生成モデルは、ニューラル演算子に好適な多くの特性を示す。
本稿では,複数のタスクに適応可能な単一モデルを,トレーニング中のタスク間で交互に学習することを提案する。
論文 参考訳(メタデータ) (2024-05-11T21:23:55Z) - Uncertainty and Structure in Neural Ordinary Differential Equations [28.12033356095061]
ラプラス近似のような基礎的で軽量なベイズ深層学習技術がニューラルネットワークに適用可能であることを示す。
我々は、最近提案された2つのニューラルODEフレームワークにおいて、機械的知識と不確実性量子化がどのように相互作用するかを考察する。
論文 参考訳(メタデータ) (2023-05-22T17:50:42Z) - Learning Neural Constitutive Laws From Motion Observations for
Generalizable PDE Dynamics [97.38308257547186]
多くのNNアプローチは、支配的PDEと物質モデルの両方を暗黙的にモデル化するエンドツーエンドモデルを学ぶ。
PDEの管理はよく知られており、学習よりも明示的に実施されるべきである、と私たちは主張する。
そこで我々は,ネットワークアーキテクチャを利用したニューラル構成則(Neural Constitutive Laws,NCLaw)と呼ばれる新しいフレームワークを導入する。
論文 参考訳(メタデータ) (2023-04-27T17:42:24Z) - Neural Laplace: Learning diverse classes of differential equations in
the Laplace domain [86.52703093858631]
本稿では,これらすべてを含む多種多様な微分方程式(DE)を学習するための統一的な枠組みを提案する。
時間領域の力学をモデル化する代わりに、ラプラス領域でモデル化する。
The experiment, Neural Laplace shows excellent performance in modelling and extrapolating the trajectories of various class of DEs。
論文 参考訳(メタデータ) (2022-06-10T02:14:59Z) - Learning differential equations from data [0.0]
近年,データ量の多さから,データから微分方程式モデルを学習するためのデータ駆動手法の探索が活発に行われている。
本稿では,複数の隠蔽層と異なるニューラルネットワーク幅を用いて,データからODEを学習することで,フォワード・オイラーに基づくニューラルネットワークモデルを提案し,その性能を検証した。
論文 参考訳(メタデータ) (2022-05-23T17:36:28Z) - Physics Informed RNN-DCT Networks for Time-Dependent Partial
Differential Equations [62.81701992551728]
時間依存偏微分方程式を解くための物理インフォームド・フレームワークを提案する。
我々のモデルは離散コサイン変換を用いて空間的および反復的なニューラルネットワークを符号化する。
ナヴィエ・ストークス方程式に対するテイラー・グリーン渦解の実験結果を示す。
論文 参考訳(メタデータ) (2022-02-24T20:46:52Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - On Neural Differential Equations [13.503274710499971]
特に、ニューラル微分方程式(NDE)は、ニューラルネットワークと微分方程式が同じコインの両側であることを示す。
NDEは生成問題、動的システム、時系列を扱うのに適している。
NDEは高容量関数近似、モデル空間への強い先行性、不規則なデータを扱う能力、メモリ効率、そして両サイドで利用可能な豊富な理論を提供する。
論文 参考訳(メタデータ) (2022-02-04T23:32:29Z) - NeuralPDE: Modelling Dynamical Systems from Data [0.44259821861543996]
本稿では、畳み込みニューラルネットワーク(CNN)と微分可能なODEソルバを組み合わせて動的システムをモデル化するモデルであるNeuralPDEを提案する。
標準PDEソルバで使用されるラインの手法は、CNNが任意のPDEダイナミクスをパラメトリズする自然な選択となる畳み込みを用いて表現できることを示す。
我々のモデルは、PDEの管理に関する事前の知識を必要とせずに、あらゆるデータに適用することができる。
論文 参考訳(メタデータ) (2021-11-15T10:59:52Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。