論文の概要: Data-driven super-parameterization using deep learning: Experimentation
with multi-scale Lorenz 96 systems and transfer-learning
- arxiv url: http://arxiv.org/abs/2002.11167v1
- Date: Tue, 25 Feb 2020 20:43:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 22:21:38.093478
- Title: Data-driven super-parameterization using deep learning: Experimentation
with multi-scale Lorenz 96 systems and transfer-learning
- Title(参考訳): 深層学習を用いたデータ駆動型超パラメータ化:マルチスケールロレンツ96システムによる実験と伝達学習
- Authors: Ashesh Chattopadhyay, Adam Subel, Pedram Hassanzadeh
- Abstract要約: 気象・気候のモデリングを安価に行うためのデータ駆動型SP(DD-SP)を提案する。
同じ計算コストで、DD-SPはLRを大幅に上回り、特にスケール分離が欠如している場合、DD-Pよりも優れている。
DD-SPはSPよりもずっと安いが、その精度は長期統計を再現するのと同じであり、しばしば短期予測に匹敵する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To make weather/climate modeling computationally affordable, small-scale
processes are usually represented in terms of the large-scale,
explicitly-resolved processes using physics-based or semi-empirical
parameterization schemes. Another approach, computationally more demanding but
often more accurate, is super-parameterization (SP), which involves integrating
the equations of small-scale processes on high-resolution grids embedded within
the low-resolution grids of large-scale processes. Recently, studies have used
machine learning (ML) to develop data-driven parameterization (DD-P) schemes.
Here, we propose a new approach, data-driven SP (DD-SP), in which the equations
of the small-scale processes are integrated data-drivenly using ML methods such
as recurrent neural networks. Employing multi-scale Lorenz 96 systems as
testbed, we compare the cost and accuracy (in terms of both short-term
prediction and long-term statistics) of parameterized low-resolution (LR), SP,
DD-P, and DD-SP models. We show that with the same computational cost, DD-SP
substantially outperforms LR, and is better than DD-P, particularly when scale
separation is lacking. DD-SP is much cheaper than SP, yet its accuracy is the
same in reproducing long-term statistics and often comparable in short-term
forecasting. We also investigate generalization, finding that when models
trained on data from one system are applied to a system with different forcing
(e.g., more chaotic), the models often do not generalize, particularly when the
short-term prediction accuracy is examined. But we show that transfer-learning,
which involves re-training the data-driven model with a small amount of data
from the new system, significantly improves generalization. Potential
applications of DD-SP and transfer-learning in climate/weather modeling and the
expected challenges are discussed.
- Abstract(参考訳): 気象・気候のモデリングを計算に手頃な価格で行うために、小規模のプロセスは通常、物理学に基づくもしくは半経験的パラメータ化スキームを用いて、大規模で明示的な解決プロセスの観点で表現される。
もうひとつのアプローチは超パラメータ化(SP)であり、大規模プロセスの低解像度グリッド内に埋め込まれた高解像度グリッド上に小さなプロセスの方程式を統合することである。
近年,機械学習を用いてデータ駆動パラメータ化(DD-P)手法を開発した。
そこで本研究では,小規模プロセスの方程式をリカレントニューラルネットワークなどのml法を用いてデータ駆動的に統合する,データ駆動型sp(dd-sp)という新しい手法を提案する。
マルチスケールのlorenz 96システムをテストベッドとして使用し,パラメータ化低解像度(lr),sp,dd-p,dd-spモデルのコストと精度(短期予測と長期統計)を比較した。
同じ計算コストで、DD-SPはLRを大幅に上回り、特にスケール分離が不十分な場合、DD-Pよりも優れていることを示す。
DD-SPはSPよりもずっと安いが、その精度は長期統計を再現するのと同じであり、しばしば短期予測に匹敵する。
また,一つのシステムからデータに基づいてトレーニングされたモデルが,異なる強制力(例えばカオス性)を持つシステムに適用された場合,特に短期予測精度が検証された場合には,モデルが一般化しないことが多いことを発見した。
しかし、新しいシステムから少量のデータでデータ駆動モデルを再学習するトランスファー学習は、一般化を大幅に改善することを示す。
気候・気象モデリングにおけるDD-SPとトランスファーラーニングの可能性とその課題について論じる。
関連論文リスト
- A Bayesian Approach to Data Point Selection [24.98069363998565]
データポイントの選択(DPS)は、ディープラーニングにおいて重要なトピックになりつつある。
既存のDPSへのアプローチは、主にバイレベル最適化(BLO)の定式化に基づいている。
DPSに対する新しいベイズ的アプローチを提案する。
論文 参考訳(メタデータ) (2024-11-06T09:04:13Z) - Computation-Aware Gaussian Processes: Model Selection And Linear-Time Inference [55.150117654242706]
我々は、1.8万のデータポイントでトレーニングされた計算対応GPのモデル選択が、1つのGPU上で数時間以内に可能であることを示す。
この研究の結果、ガウス過程は、不確実性を定量化する能力を著しく妥協することなく、大規模なデータセットで訓練することができる。
論文 参考訳(メタデータ) (2024-11-01T21:11:48Z) - Parallel and Limited Data Voice Conversion Using Stochastic Variational
Deep Kernel Learning [2.5782420501870296]
本稿では,限られたデータを扱う音声変換手法を提案する。
変分深層学習(SVDKL)に基づく。
非滑らかでより複雑な関数を推定することができる。
論文 参考訳(メタデータ) (2023-09-08T16:32:47Z) - FaDIn: Fast Discretized Inference for Hawkes Processes with General
Parametric Kernels [82.53569355337586]
この研究は、有限なサポートを持つ一般パラメトリックカーネルを用いた時間点プロセス推論の効率的な解を提供する。
脳磁図(MEG)により記録された脳信号からの刺激誘発パターンの発生をモデル化し,その有効性を評価する。
その結果,提案手法により,最先端技術よりもパターン遅延の推定精度が向上することが示唆された。
論文 参考訳(メタデータ) (2022-10-10T12:35:02Z) - Neural parameter calibration for large-scale multi-agent models [0.7734726150561089]
本稿では,ニューラルネットワークを用いてパラメータの精度の高い確率密度を求める手法を提案する。
2つの組み合わせは、非常に大きなシステムであっても、モデルパラメータの密度を素早く見積もることができる強力なツールを作成する。
論文 参考訳(メタデータ) (2022-09-27T17:36:26Z) - Semi-Parametric Inducing Point Networks and Neural Processes [15.948270454686197]
半パラメトリック誘導点ネットワーク(SPIN)は、推論時間におけるトレーニングセットを計算効率よくクエリすることができる。
SPINは、ポイントメソッドにインスパイアされたデータポイント間のクロスアテンションメカニズムを通じて、線形複雑性を実現する。
実験では,SPINはメモリ要件を低減し,様々なメタラーニングタスクの精度を向上し,重要な実用的問題である遺伝子型計算における最先端性能を向上させる。
論文 参考訳(メタデータ) (2022-05-24T01:42:46Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z) - Transformer Hawkes Process [79.16290557505211]
本稿では,長期的依存関係を捕捉する自己認識機構を利用したTransformer Hawkes Process (THP) モデルを提案する。
THPは、有意なマージンによる可能性と事象予測の精度の両方の観点から、既存のモデルより優れている。
本稿では、THPが関係情報を組み込む際に、複数の点過程を学習する際の予測性能の改善を実現する具体例を示す。
論文 参考訳(メタデータ) (2020-02-21T13:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。