論文の概要: Can we integrate spatial verification methods into neural-network loss
functions for atmospheric science?
- arxiv url: http://arxiv.org/abs/2203.11141v1
- Date: Mon, 21 Mar 2022 17:18:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 16:14:03.483906
- Title: Can we integrate spatial verification methods into neural-network loss
functions for atmospheric science?
- Title(参考訳): 大気科学のための空間的検証手法をニューラルネットワーク損失関数に統合できるか?
- Authors: Ryan Lagerquist and Imme Ebert-Uphoff
- Abstract要約: 大気科学におけるニューラルネットワーク(NN)は、ほぼ常にピクセル単位の損失関数を最適化するために訓練されている。
これにより、トレーニング中のモデル検証とトレーニング後のモデル検証の切り離しが確立される。
本研究では,空間的に拡張された損失関数(SELF)を開発し,雷雨の発生を予測する実世界の問題に対するそれらの利用を実証する。
- 参考スコア(独自算出の注目度): 0.030458514384586396
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the last decade, much work in atmospheric science has focused on spatial
verification (SV) methods for gridded prediction, which overcome serious
disadvantages of pixelwise verification. However, neural networks (NN) in
atmospheric science are almost always trained to optimize pixelwise loss
functions, even when ultimately assessed with SV methods. This establishes a
disconnect between model verification during vs. after training. To address
this issue, we develop spatially enhanced loss functions (SELF) and demonstrate
their use for a real-world problem: predicting the occurrence of thunderstorms
(henceforth, "convection") with NNs. In each SELF we use either a neighbourhood
filter, which highlights convection at scales larger than a threshold, or a
spectral filter (employing Fourier or wavelet decomposition), which is more
flexible and highlights convection at scales between two thresholds. We use
these filters to spatially enhance common verification scores, such as the
Brier score. We train each NN with a different SELF and compare their
performance at many scales of convection, from discrete storm cells to tropical
cyclones. Among our many findings are that (a) for a low (high) risk threshold,
the ideal SELF focuses on small (large) scales; (b) models trained with a
pixelwise loss function perform surprisingly well; (c) however, models trained
with a spectral filter produce better-calibrated probabilities than a pixelwise
model. We provide a general guide to using SELFs, including technical
challenges and the final Python code, as well as demonstrating their use for
the convection problem. To our knowledge this is the most in-depth guide to
SELFs in the geosciences.
- Abstract(参考訳): 過去10年間、大気科学における多くの研究は、格子状の予測のための空間的検証(SV)手法に焦点を当ててきた。
しかしながら、大気科学におけるニューラルネットワーク(NN)は、SV法で最終的に評価された場合でも、ほぼ常にピクセル単位の損失関数を最適化するよう訓練されている。
これにより、トレーニング中のモデル検証とトレーニング後のモデルの分離が確立される。
この問題に対処するため,我々は空間的に拡張された損失関数(SELF)を開発し,実世界の課題として,NNによる雷雨(以下「対流」)の発生を予測する。
各自己では、しきい値よりも大きなスケールで対流を強調する近傍フィルターか、より柔軟で2つのしきい値の間のスケールで対流を強調するスペクトルフィルタ(フーリエ分解またはウェーブレット分解)のいずれかを使う。
これらのフィルタを用いて、Brierスコアなどの共通検証スコアを空間的に拡張する。
各nnを異なる自己で訓練し,個々のストームセルから熱帯サイクロンまで,多数の対流スケールで性能を比較する。
私たちの多くの発見の中には
(a)低い(高い)リスクしきい値の場合、理想の自己は、小さい(大きな)スケールに集中する。
(b)画素分割損失関数で訓練されたモデルは、驚くほどよく機能する。
c) スペクトルフィルタで学習したモデルでは,ピクセルワイズモデルよりも精度が向上した。
技術的課題や最終的なPythonコードを含むSELFの使用に関する一般的なガイドや,対流問題に対する使用例を示す。
我々の知る限り、これは地球科学におけるSELFの詳細なガイドである。
関連論文リスト
- Fourier Amplitude and Correlation Loss: Beyond Using L2 Loss for Skillful Precipitation Nowcasting [11.931403313504754]
2つの新しい損失項からなる新しいフーリエ振幅と相関損失(FACL)を提案する。
2つの損失項は、時間的予測問題に対するMSEや重み付きMSEのような従来の$L$損失を置き換えるために協力する。
本手法は,画素単位の精度と構造的類似性に小さなトレードオフを伴って,知覚的指標と気象学のスキルスコアを改善する。
論文 参考訳(メタデータ) (2024-10-30T16:12:56Z) - NeRF-Det++: Incorporating Semantic Cues and Perspective-aware Depth
Supervision for Indoor Multi-View 3D Detection [72.0098999512727]
NeRF-Detは、NeRFを用いた屋内マルチビュー3次元検出において、表現学習の強化による優れた性能を実現している。
セマンティックエンハンスメント(セマンティックエンハンスメント)、パースペクティブ・アウェア・サンプリング(パースペクティブ・アウェア・サンプリング)、および順序深度監視を含む3つのソリューションを提案する。
結果として得られたアルゴリズムであるNeRF-Det++は、ScanNetV2とAR KITScenesデータセットで魅力的なパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-02-22T11:48:06Z) - As large as it gets: Learning infinitely large Filters via Neural Implicit Functions in the Fourier Domain [22.512062422338914]
画像分類のためのニューラルネットワークの最近の研究は、空間的文脈を増大させる傾向が強い。
本稿では,畳み込みニューラルネットワークの有効フィルタサイズを研究するためのモジュールを提案する。
提案するネットワークは非常に大きな畳み込みカーネルを学習できるが、学習されたフィルタは十分に局所化されており、実際は比較的小さい。
論文 参考訳(メタデータ) (2023-07-19T14:21:11Z) - Adaptive Self-supervision Algorithms for Physics-informed Neural
Networks [59.822151945132525]
物理情報ニューラルネットワーク(PINN)は、損失関数のソフト制約として問題領域からの物理的知識を取り入れている。
これらのモデルの訓練性に及ぼす座標点の位置の影響について検討した。
モデルがより高い誤りを犯している領域に対して、より多くのコロケーションポイントを段階的に割り当てる適応的コロケーション方式を提案する。
論文 参考訳(メタデータ) (2022-07-08T18:17:06Z) - Energy networks for state estimation with random sensors using sparse
labels [0.0]
本稿では,スパースラベルから学習可能な暗黙の最適化層と物理に基づく損失関数を用いた手法を提案する。
この手法に基づいて、空間における離散的および連続的な予測のための2つのモデルを示す。
論文 参考訳(メタデータ) (2022-03-12T15:15:38Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Implementing a foveal-pit inspired filter in a Spiking Convolutional
Neural Network: a preliminary study [0.0]
我々は,網膜卵管刺激によるガウスフィルタとランク順符号化の差異を取り入れたスポーキング畳み込みニューラルネットワーク(SCNN)を提示した。
このモデルは、Nengoライブラリーで実装されているように、スパイキングニューロンで動作するように適応されたバックプロパゲーションアルゴリズムの変種を用いて訓練される。
ネットワークは最大90%の精度で達成され、損失はクロスエントロピー関数を用いて計算される。
論文 参考訳(メタデータ) (2021-05-29T15:28:30Z) - Graph Neural Networks with Adaptive Frequency Response Filter [55.626174910206046]
適応周波数応答フィルタを用いたグラフニューラルネットワークフレームワークAdaGNNを開発した。
提案手法の有効性を,様々なベンチマークデータセット上で実証的に検証した。
論文 参考訳(メタデータ) (2021-04-26T19:31:21Z) - Self-Regression Learning for Blind Hyperspectral Image Fusion Without
Label [11.291055330647977]
ハイパースペクトル画像(HSI)を再構築した自己回帰学習法を提案し,観察モデルを推定する。
特に,hsiを復元するinvertible neural network (inn) と,観測モデルを推定する2つの完全連結ネットワーク (fcn) を採用している。
我々のモデルは、合成データと実世界のデータセットの両方で実験で最先端の手法を上回ることができる。
論文 参考訳(メタデータ) (2021-03-31T04:48:21Z) - Shaping Deep Feature Space towards Gaussian Mixture for Visual
Classification [74.48695037007306]
視覚分類のためのディープニューラルネットワークのためのガウス混合損失関数(GM)を提案する。
分類マージンと可能性正規化により、GM損失は高い分類性能と特徴分布の正確なモデリングの両方を促進する。
提案したモデルは、追加のトレーニング可能なパラメータを使わずに、簡単かつ効率的に実装できる。
論文 参考訳(メタデータ) (2020-11-18T03:32:27Z) - Applications of Koopman Mode Analysis to Neural Networks [52.77024349608834]
我々は,ニューラルネットワークのトレーニング過程を,高次元の重み空間に作用する力学系と考える。
アーキテクチャに必要なレイヤ数を決定するために、Koopmanスペクトルをどのように利用できるかを示す。
また、Koopmanモードを使えば、ネットワークを選択的にプーンしてトレーニング手順を高速化できることを示す。
論文 参考訳(メタデータ) (2020-06-21T11:00:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。