論文の概要: AtmoDist: Self-supervised Representation Learning for Atmospheric
Dynamics
- arxiv url: http://arxiv.org/abs/2202.01897v1
- Date: Wed, 2 Feb 2022 14:49:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 04:08:31.890671
- Title: AtmoDist: Self-supervised Representation Learning for Atmospheric
Dynamics
- Title(参考訳): AtmoDist:大気力学のための自己教師型表現学習
- Authors: Sebastian Hoffmann and Christian Lessig
- Abstract要約: 本研究では,多種多様な大気データセットの分類的損失を定義する自己教師型学習タスクを提案する。
我々は、大気圏間の時間的距離を予測するための、単純かつ複雑なタスクでニューラルネットワークを訓練する。
本研究では、ERA5の再解析から得られた表現に基づいて、大気状態に対するデータ駆動距離メートル法を導入することにより、これを実証する。
- 参考スコア(独自算出の注目度): 4.873362301533825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Representation learning has proven to be a powerful methodology in a wide
variety of machine learning applications. For atmospheric dynamics, however, it
has so far not been considered, arguably due to the lack of large-scale,
labeled datasets that could be used for training. In this work, we show that
the difficulty is benign and introduce a self-supervised learning task that
defines a categorical loss for a wide variety of unlabeled atmospheric
datasets. Specifically, we train a neural network on the simple yet intricate
task of predicting the temporal distance between atmospheric fields, e.g. the
components of the wind field, from distinct but nearby times. Despite this
simplicity, a neural network will provide good predictions only when it
develops an internal representation that captures intrinsic aspects of
atmospheric dynamics. We demonstrate this by introducing a data-driven distance
metric for atmospheric states based on representations learned from ERA5
reanalysis. When employ as a loss function for downscaling, this Atmodist
distance leads to downscaled fields that match the true statistics more closely
than the previous state-of-the-art based on an l2-loss and whose local behavior
is more realistic. Since it is derived from observational data, AtmoDist also
provides a novel perspective on atmospheric predictability.
- Abstract(参考訳): 表現学習は、幅広い機械学習アプリケーションにおいて強力な方法論であることが証明されている。
しかし、大気力学については、おそらく訓練に使用できる大規模なラベル付きデータセットが不足しているため、これまで検討されていない。
本研究では,この難易度が良性であることを示し,多種多様な大気データセットの分類的損失を定義する自己教師型学習タスクを導入する。
具体的には、風場の構成要素などの大気場間の時間的距離を、異なるが近くの時間から予測する単純な複雑なタスクでニューラルネットワークを訓練する。
この単純さにもかかわらず、ニューラルネットワークは、大気力学の本質的な側面を捉える内部表現を開発する場合にのみ、優れた予測を提供する。
era5の再分析から得られた表現に基づいて、大気状態のデータ駆動距離メトリックを導入することで、これを実証する。
ダウンスケーリングの損失関数として採用すると、このアモディスト距離は、l2-lossに基づいて真の統計値とより密接に一致し、局所的な振る舞いがより現実的になるダウンスケールフィールドへとつながる。
これは観測データに由来するため、大気の予測可能性に関する新しい視点も提供する。
関連論文リスト
- Generative Data Assimilation of Sparse Weather Station Observations at Kilometer Scales [5.453657018459705]
そこで本研究では,現実的に複雑な1kmスケールの気象条件下でのスコアベースデータ同化の実現可能性を示す。
40の気象観測所からの観測を取り入れることで、左の観測所で10%低いRMSEが達成される。
ますます野心的な地域国家ジェネレータと、In situ、地上ベース、衛星リモートセンシングデータストリームの集合を組み合わす拡張を探求する時期だ。
論文 参考訳(メタデータ) (2024-06-19T10:28:11Z) - Generalizing Weather Forecast to Fine-grained Temporal Scales via Physics-AI Hybrid Modeling [55.13352174687475]
本稿では,天気予報をより微細なテンポラルスケールに一般化する物理AIハイブリッドモデル(WeatherGFT)を提案する。
具体的には、小さな時間スケールで物理進化をシミュレートするために、慎重に設計されたPDEカーネルを用いる。
我々は、異なるリードタイムでのモデルの一般化を促進するためのリードタイムアウェアトレーニングフレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-22T16:21:02Z) - AtmoRep: A stochastic model of atmosphere dynamics using large scale
representation learning [1.677718351174347]
本研究では,大気力学のタスク非依存型コンピュータモデルであるAtmoRepを提案する。
AtmoRepは、幅広いアプリケーションに熟練した結果を提供することができる。
我々の研究は、大規模ニューラルネットワークが大気力学の巧妙でタスクに依存しないモデルを提供できることを証明している。
論文 参考訳(メタデータ) (2023-08-25T10:02:26Z) - Inverse Dynamics Pretraining Learns Good Representations for Multitask
Imitation [66.86987509942607]
このようなパラダイムを模倣学習でどのように行うべきかを評価する。
本稿では,事前学習コーパスがマルチタスクのデモンストレーションから成り立つ環境について考察する。
逆動力学モデリングはこの設定に適していると主張する。
論文 参考訳(メタデータ) (2023-05-26T14:40:46Z) - Temporal Subsampling Diminishes Small Spatial Scales in Recurrent Neural
Network Emulators of Geophysical Turbulence [0.0]
しばしば見過ごされる処理ステップがエミュレータの予測品質にどのように影響するかを検討する。
1)空間ベクトル自己回帰(NVAR)の形式、(2)エコー状態ネットワーク(ESN)の形式。
いずれの場合も、トレーニングデータのサブサンプリングは、数値拡散に類似した小さなスケールでのバイアスの増加につながる。
論文 参考訳(メタデータ) (2023-04-28T21:34:53Z) - Uncovering the Missing Pattern: Unified Framework Towards Trajectory
Imputation and Prediction [60.60223171143206]
軌道予測は、観測されたシーケンスから実体運動や人間の行動を理解する上で重要な作業である。
現在の方法では、観測されたシーケンスが完了したと仮定し、欠落した値の可能性を無視する。
本稿では,グラフに基づく条件変動リカレントニューラルネットワーク (GC-VRNN) の統一フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-28T14:27:27Z) - ClimaX: A foundation model for weather and climate [51.208269971019504]
ClimaXは気象と気候科学のディープラーニングモデルである。
気候データセットの自己教師型学習目標で事前トレーニングすることができる。
気候や気候の様々な問題に対処するために、微調整が可能である。
論文 参考訳(メタデータ) (2023-01-24T23:19:01Z) - Palm up: Playing in the Latent Manifold for Unsupervised Pretraining [31.92145741769497]
本稿では,多種多様なデータセットを使用しながら探索行動を示すアルゴリズムを提案する。
私たちのキーとなるアイデアは、静的データセットに事前トレーニングされた深層生成モデルを活用し、潜在空間に動的モデルを導入することです。
次に、教師なし強化学習アルゴリズムを用いて、この環境を探索し、収集したデータに基づいて教師なし表現学習を行う。
論文 参考訳(メタデータ) (2022-10-19T22:26:12Z) - Pre-training via Denoising for Molecular Property Prediction [53.409242538744444]
本稿では,3次元分子構造の大規模データセットを平衡に利用した事前学習手法について述べる。
近年のノイズレギュラー化の進展に触発されて, 事前学習の目的は, 雑音の除去に基づくものである。
論文 参考訳(メタデータ) (2022-05-31T22:28:34Z) - Towards Representation Learning for Atmospheric Dynamics [6.274453963224799]
本研究では,大気力学に特化して設計された新しい自己教師型表現学習手法を提案する。
私たちのアプローチは、AtmoDistと呼ばれ、単純で補助的なタスクでニューラルネットワークをトレーニングします。
我々は、AtmoDistを用いて、GANに基づく渦性と発散の超解像の計量を定義することでこれを実証する。
論文 参考訳(メタデータ) (2021-09-19T07:43:30Z) - Laplacian Denoising Autoencoder [114.21219514831343]
本稿では,新しいタイプの自動符号化器を用いてデータ表現を学習することを提案する。
勾配領域における潜伏クリーンデータを破損させて雑音入力データを生成する。
いくつかのビジュアルベンチマークの実験では、提案されたアプローチでより良い表現が学べることが示されている。
論文 参考訳(メタデータ) (2020-03-30T16:52:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。