論文の概要: On the modern deep learning approaches for precipitation downscaling
- arxiv url: http://arxiv.org/abs/2207.00808v1
- Date: Sat, 2 Jul 2022 11:57:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-07-05 16:19:10.916672
- Title: On the modern deep learning approaches for precipitation downscaling
- Title(参考訳): 降水ダウンスケーリングの現代的深層学習手法について
- Authors: Bipin Kumar, Kaustubh Atey, Bhupendra Bahadur Singh, Rajib
Chattopadhyay, Nachiket Acharya, Manmeet Singh, Ravi S. Nanjundiah, and
Suryachandra A. Rao
- Abstract要約: インド気象局(IMD)の降水量の推定のために,DLに基づくダウンスケーリングを実施している。
異なるDL手法の有効性を検証するために,4種類のダウンスケール法を適用し,その性能評価を行った。
その結果,SR-GANは降水データダウンスケーリングの最良の方法であることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Learning (DL) based downscaling has become a popular tool in earth
sciences recently. Increasingly, different DL approaches are being adopted to
downscale coarser precipitation data and generate more accurate and reliable
estimates at local (~few km or even smaller) scales. Despite several studies
adopting dynamical or statistical downscaling of precipitation, the accuracy is
limited by the availability of ground truth. A key challenge to gauge the
accuracy of such methods is to compare the downscaled data to point-scale
observations which are often unavailable at such small scales. In this work, we
carry out the DL-based downscaling to estimate the local precipitation data
from the India Meteorological Department (IMD), which was created by
approximating the value from station location to a grid point. To test the
efficacy of different DL approaches, we apply four different methods of
downscaling and evaluate their performance. The considered approaches are (i)
Deep Statistical Downscaling (DeepSD), augmented Convolutional Long Short Term
Memory (ConvLSTM), fully convolutional network (U-NET), and Super-Resolution
Generative Adversarial Network (SR-GAN). A custom VGG network, used in the
SR-GAN, is developed in this work using precipitation data. The results
indicate that SR-GAN is the best method for precipitation data downscaling. The
downscaled data is validated with precipitation values at IMD station. This DL
method offers a promising alternative to statistical downscaling.
- Abstract(参考訳): 深層学習(DL)に基づくダウンスケーリングは、地球科学で最近人気となっている。
様々なDLアプローチが、ダウンスケールの粗い降水データに採用され、より正確で信頼性の高い地域規模(約2km以上)で推定される。
降水の動的または統計的ダウンスケールを採用するいくつかの研究にもかかわらず、精度は地上真理の可用性によって制限されている。
このような手法の精度を評価する上で重要な課題は、ダウンスケールのデータと、そのような小さなスケールでは利用できないポイントスケールの観測を比較することである。
そこで本研究では,インド気象局(imd)からの局地降雨データを推定するために,駅位置からグリッドポイントまでの値を近似して算出したdlに基づくダウンスケールを実施した。
異なるDL手法の有効性を検証するために,4種類のダウンスケール法を適用し,その性能評価を行った。
i)deep statistical downscaling (deepsd)、 augmented convolutional long short term memory (convlstm)、full convolutional network (u-net)、super- resolution generative adversarial network (sr-gan)である。
SR-GANで使用されるカスタムVGGネットワークは、降水データを用いて開発されている。
その結果,SR-GANは降水データダウンスケーリングの最良の方法であることが示唆された。
ダウンスケールデータはimdステーションの降雨量で検証される。
このDL法は統計的ダウンスケーリングに代わる有望な代替手段を提供する。
関連論文リスト
- RainScaleGAN: a Conditional Generative Adversarial Network for Rainfall Downscaling [0.0]
降水ダウンスケーリングのための条件付き深層畳み込み生成適応ネットワーク(GAN)であるRainScaleGANを紹介する。
RainScaleGANの機能は、降水データセットの空間解像度を人工的に劣化させる完全モデル設定でテストされる。
開発したモデルでは,本研究で確認された降水量減少手法の1つに優れていた。
論文 参考訳(メタデータ) (2025-03-17T15:54:20Z) - Comparison of machine learning algorithms for merging gridded satellite
and earth-observed precipitation data [7.434517639563671]
我々は,グローバル・ヒストリカル・クリマトロジー・ネットワークの月次降水データ,バージョン2。
その結果,2乗誤差スコアリング関数が最も正確であることが示唆された。
論文 参考訳(メタデータ) (2022-12-17T09:39:39Z) - Minimizing the Accumulated Trajectory Error to Improve Dataset
Distillation [151.70234052015948]
本稿では,フラットな軌道を求める最適化アルゴリズムを提案する。
合成データに基づいてトレーニングされた重みは、平坦な軌道への正規化を伴う累積誤差摂動に対して頑健であることを示す。
本手法はFTD (Flat Trajectory Distillation) と呼ばれ, 勾配整合法の性能を最大4.7%向上させる。
論文 参考訳(メタデータ) (2022-11-20T15:49:11Z) - DL4DS -- Deep Learning for empirical DownScaling [0.0]
本稿では,グリッド化された地球科学データを深層ニューラルネットワークでダウンスケールする,さまざまな最先端および斬新なアルゴリズムを実装したピソンライブラリであるDL4DSを提案する。
地中海西部の大気質CAMSデータに対するDL4DSの能力について紹介する。
論文 参考訳(メタデータ) (2022-05-07T11:24:43Z) - HYDRA: Hypergradient Data Relevance Analysis for Interpreting Deep
Neural Networks [51.143054943431665]
本稿では、深層ニューラルネットワーク(DNN)による予測をトレーニングデータの効果として解釈する高次データ関連分析(HYDRA)を提案する。
HYDRAは、トレーニング軌跡全体を通して、テストデータポイントに対するトレーニングデータの貢献を評価する。
さらに,HyDRAは,データのコントリビューションを正確に推定し,ノイズのあるデータラベルを検出することで,影響関数よりも優れていることを定量的に示す。
論文 参考訳(メタデータ) (2021-02-04T10:00:13Z) - Attentional-Biased Stochastic Gradient Descent [74.49926199036481]
深層学習におけるデータ不均衡やラベルノイズ問題に対処するための証明可能な手法(ABSGD)を提案する。
本手法は運動量SGDの簡易な修正であり,各試料に個別の重み付けを行う。
ABSGDは追加コストなしで他の堅牢な損失と組み合わせられるほど柔軟である。
論文 参考訳(メタデータ) (2020-12-13T03:41:52Z) - Deep-learning based down-scaling of summer monsoon rainfall data over
Indian region [0.0]
動的および統計的ダウンスケーリングモデルは、大域にわたって高解像度のグリッドデータを取得するためにしばしば使用される。
深層学習(DL)に基づく手法は,地域気候予報およびリアルタイム降雨観測データにおいて,降雨データを空間分解能の高い方法でダウンスケールする上で,効率的なソリューションを提供する。
本研究では,超高分解能畳み込みニューラルネットワーク(SRCNN)法から得られた3つの深層学習アルゴリズムを用いて,夏季モンスーンシーズンの4倍の高分解能降雨量データを生成する。
論文 参考訳(メタデータ) (2020-11-23T10:24:17Z) - Dynamically Sampled Nonlocal Gradients for Stronger Adversarial Attacks [3.055601224691843]
深層ニューラルネットワークの脆弱性は、小さな、さらには知覚不能な摂動にも影響し、ディープラーニング研究の中心的なトピックとなっている。
脆弱性防御機構として動的に動的に非局所グラディエント蛍光(DSNGD)を提案する。
DSNGDベースの攻撃は平均35%高速であり、勾配降下型攻撃よりも0.9%から27.1%高い成功率を示した。
論文 参考訳(メタデータ) (2020-11-05T08:55:24Z) - ClimAlign: Unsupervised statistical downscaling of climate variables via
normalizing flows [0.7734726150561086]
変分推論の正規化における最近の研究の適応を用いた、教師なし、生成的ダウンスケーリングの新しい手法であるClimAlignを提案する。
提案手法は,高分解能および低分解能空間場上の関節分布からの条件および非条件サンプリングを同時に行うとともに,既存の教師付きダウンスケーリング手法に匹敵する予測性能を実現する。
論文 参考訳(メタデータ) (2020-08-11T13:01:53Z) - Variable Skipping for Autoregressive Range Density Estimation [84.60428050170687]
深部自己回帰モデルを用いた距離密度推定を高速化する手法である可変スキップについて述べる。
可変スキップは、10-100$timesの効率向上をもたらすことを示す。
論文 参考訳(メタデータ) (2020-07-10T19:01:40Z) - JHU-CROWD++: Large-Scale Crowd Counting Dataset and A Benchmark Method [92.15895515035795]
我々は、"4,372"イメージと"1.51万"アノテーションを含む、新しい大規模非制約クラウドカウントデータセット(JHU-CROWD++)を導入する。
本稿では, 残差誤差推定により, 群集密度マップを段階的に生成する新しい群集カウントネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-07T14:59:35Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。