論文の概要: Learning Variational Data Assimilation Models and Solvers
- arxiv url: http://arxiv.org/abs/2007.12941v1
- Date: Sat, 25 Jul 2020 14:28:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 01:30:41.357033
- Title: Learning Variational Data Assimilation Models and Solvers
- Title(参考訳): 変分データ同化モデルの学習と解法
- Authors: Ronan Fablet, Bertrand Chapron, Lucas. Drumetz, Etienne Memin, Olivier
Pannekoucke, Francois Rousseau
- Abstract要約: データ同化のためのエンドツーエンドニューラルネットワークアーキテクチャを導入する。
提案するエンドツーエンド学習アーキテクチャの重要な特徴は、教師なし戦略と教師なし戦略の両方を用いてNNモデルをトレーニングできることである。
- 参考スコア(独自算出の注目度): 34.22350850350653
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses variational data assimilation from a learning point of
view. Data assimilation aims to reconstruct the time evolution of some state
given a series of observations, possibly noisy and irregularly-sampled. Using
automatic differentiation tools embedded in deep learning frameworks, we
introduce end-to-end neural network architectures for data assimilation. It
comprises two key components: a variational model and a gradient-based solver
both implemented as neural networks. A key feature of the proposed end-to-end
learning architecture is that we may train the NN models using both supervised
and unsupervised strategies. Our numerical experiments on Lorenz-63 and
Lorenz-96 systems report significant gain w.r.t. a classic gradient-based
minimization of the variational cost both in terms of reconstruction
performance and optimization complexity. Intriguingly, we also show that the
variational models issued from the true Lorenz-63 and Lorenz-96 ODE
representations may not lead to the best reconstruction performance. We believe
these results may open new research avenues for the specification of
assimilation models in geoscience.
- Abstract(参考訳): 本稿では,学習の観点からの変動データ同化について述べる。
データ同化(data assimilation)は、いくつかの状態の時間発展を再構築することを目的としている。
ディープラーニングフレームワークに組み込まれた自動微分ツールを用いて,データ同化のためのエンドツーエンドニューラルネットワークアーキテクチャを導入する。
ニューラルネットワークとして実装された変分モデルと勾配に基づく解法という,2つの重要なコンポーネントで構成されている。
提案するエンドツーエンド学習アーキテクチャの重要な特徴は、教師なし戦略と教師なし戦略の両方を用いてNNモデルをトレーニングできることである。
Lorenz-63 と Lorenz-96 の数値実験では、復元性能と最適化複雑性の両面から、古典的な勾配に基づく変動コストの最小化を報告している。
興味深いことに、真の Lorenz-63 と Lorenz-96 ODE 表現から発行される変分モデルが、最高の再構成性能に繋がらないことも示している。
これらの結果は、地球科学における同化モデルの仕様化に向けた新たな研究の道を開くかもしれない。
関連論文リスト
- Generalized Factor Neural Network Model for High-dimensional Regression [50.554377879576066]
複素・非線形・雑音に隠れた潜在低次元構造を持つ高次元データセットをモデル化する課題に取り組む。
我々のアプローチは、非パラメトリック回帰、因子モデル、高次元回帰のためのニューラルネットワークの概念のシームレスな統合を可能にする。
論文 参考訳(メタデータ) (2025-02-16T23:13:55Z) - Architecture-Aware Learning Curve Extrapolation via Graph Ordinary Differential Equation [33.63030304318472]
本稿では,学習曲線を連続的に予測するアーキテクチャを考慮したニューラル微分方程式モデルを提案する。
我々のモデルは、純粋な時系列モデリングとCNNベースの学習曲線の両方に対して、最先端の学習曲線法および補間アプローチより優れている。
論文 参考訳(メタデータ) (2024-12-20T04:28:02Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
ニューラルネットワークのような予測器のための新しいトレーニング原理であるLFP(Layer-wise Feedback Propagation)を提案する。
LFPは、与えられたタスクの解決へのそれぞれの貢献に基づいて、個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分を補強し,有害な部分を弱めるという欲求的アプローチを実現する。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Iterative self-transfer learning: A general methodology for response
time-history prediction based on small dataset [0.0]
本研究では,小さなデータセットに基づいてニューラルネットワークを学習するための反復的自己伝達学習手法を提案する。
提案手法は,小さなデータセットに対して,ほぼ一桁の精度でモデル性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T18:48:04Z) - Toward Physically Plausible Data-Driven Models: A Novel Neural Network
Approach to Symbolic Regression [2.7071541526963805]
本稿では,ニューラルネットワークに基づく記号回帰手法を提案する。
非常に小さなトレーニングデータセットとシステムに関する事前知識に基づいて、物理的に妥当なモデルを構築する。
本研究では,TurtleBot 2移動ロボット,磁気操作システム,2つの抵抗の等価抵抗,アンチロックブレーキシステムの長手力の4つの試験システムに対するアプローチを実験的に評価した。
論文 参考訳(メタデータ) (2023-02-01T22:05:04Z) - A predictive physics-aware hybrid reduced order model for reacting flows [65.73506571113623]
反応流問題の解法として,新しいハイブリッド型予測次数モデル (ROM) を提案する。
自由度は、数千の時間的点から、対応する時間的係数を持ついくつかのPODモードへと減少する。
時間係数を予測するために、2つの異なるディープラーニングアーキテクチャがテストされている。
論文 参考訳(メタデータ) (2023-01-24T08:39:20Z) - Sparse Flows: Pruning Continuous-depth Models [107.98191032466544]
生成モデルにおいて,プルーニングによりニューラルネットワークの一般化が向上することを示す。
また、プルーニングは、元のネットワークに比べて最大98%少ないパラメータで、精度を損なうことなく、最小かつ効率的なニューラルODE表現を見出すことを示した。
論文 参考訳(メタデータ) (2021-06-24T01:40:17Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Self-Learning for Received Signal Strength Map Reconstruction with
Neural Architecture Search [63.39818029362661]
ニューラルアーキテクチャサーチ(NAS)と受信信号強度(RSS)マップ再構築のための自己学習に基づくモデルを提案する。
このアプローチは、まず最適なNNアーキテクチャを見つけ、与えられた(RSS)マップの地上実測値に対して同時に推論モデルを訓練する。
実験結果から,この第2モデルの信号予測は,非学習に基づく最先端技術や,アーキテクチャ探索を伴わないNNモデルよりも優れていた。
論文 参考訳(メタデータ) (2021-05-17T12:19:22Z) - Sparsely constrained neural networks for model discovery of PDEs [0.0]
本稿では,任意のスパース回帰手法を用いて,ディープラーニングに基づくサロゲートのスパースパターンを決定するモジュラーフレームワークを提案する。
異なるネットワークアーキテクチャと疎度推定器がモデル発見精度と収束性を,いくつかのベンチマーク例でどのように改善するかを示す。
論文 参考訳(メタデータ) (2020-11-09T11:02:40Z) - Causality-aware counterfactual confounding adjustment for feature
representations learned by deep models [14.554818659491644]
因果モデリングは機械学習(ML)における多くの課題に対する潜在的な解決策として認識されている。
深層ニューラルネットワーク(DNN)モデルによって学習された特徴表現を分解するために、最近提案された対実的アプローチが依然として使われている方法について説明する。
論文 参考訳(メタデータ) (2020-04-20T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。