論文の概要: Tensor-Var: Efficient Four-Dimensional Variational Data Assimilation
- arxiv url: http://arxiv.org/abs/2501.13312v3
- Date: Fri, 13 Jun 2025 00:46:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 15:41:31.022902
- Title: Tensor-Var: Efficient Four-Dimensional Variational Data Assimilation
- Title(参考訳): Tensor-Var: 効率的な4次元変動データ同化
- Authors: Yiming Yang, Xiaoyuan Cheng, Daniel Giles, Sibo Cheng, Yi He, Xiao Xue, Boli Chen, Yukun Hu,
- Abstract要約: 4次元変分同化(4D-Var)は複雑な非線形系において高い計算コストに直面し、不完全な状態-観測写像に依存する。
深層学習(DL)は、より表現力のある近似器を提供する一方、DLモデルを4D-Varに統合することは、それらの非線形性と同化結果における理論的保証の欠如により困難である。
本稿では,カーネル条件付き平均埋め込み(CME)を4D-Varと統合して非線形力学を線形化し,学習した特徴空間における凸最適化を実現する新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 30.63086465547801
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Variational data assimilation estimates the dynamical system states by minimizing a cost function that fits the numerical models with the observational data. Although four-dimensional variational assimilation (4D-Var) is widely used, it faces high computational costs in complex nonlinear systems and depends on imperfect state-observation mappings. Deep learning (DL) offers more expressive approximators, while integrating DL models into 4D-Var is challenging due to their nonlinearities and lack of theoretical guarantees in assimilation results. In this paper, we propose Tensor-Var, a novel framework that integrates kernel conditional mean embedding (CME) with 4D-Var to linearize nonlinear dynamics, achieving convex optimization in a learned feature space. Moreover, our method provides a new perspective for solving 4D-Var in a linear way, offering theoretical guarantees of consistent assimilation results between the original and feature spaces. To handle large-scale problems, we propose a method to learn deep features using neural networks within the Tensor-Var framework. Experiments on chaotic systems and global weather prediction with real-time observations show that Tensor-Var outperforms conventional and DL hybrid 4D-Var baselines in accuracy while achieving a 10- to 20-fold speed improvement.
- Abstract(参考訳): 変動データ同化は、数値モデルと観測データに適合するコスト関数を最小化することにより、力学系の状態を推定する。
4次元変分同化(4D-Var)は広く用いられているが、複雑な非線形系では計算コストが高く、不完全な状態-観測写像に依存する。
深層学習(DL)は、より表現力のある近似器を提供する一方、DLモデルを4D-Varに統合することは、それらの非線形性と同化結果における理論的保証の欠如により困難である。
本稿では,カーネル条件付き平均埋め込み(CME)と4D-Varを統合し,非線形力学を線形化し,学習した特徴空間における凸最適化を実現する新しいフレームワークであるTensor-Varを提案する。
さらに,本手法は 4D-Var を線形に解くための新たな視点を提供し,元の空間と特徴空間の同化結果の理論的保証を提供する。
大規模問題に対処するため,我々はTensor-Varフレームワーク内でニューラルネットワークを用いて深い特徴を学習する手法を提案する。
カオスシステムとリアルタイム観測による世界天気予報実験により,テンソル-Varは10倍から20倍の速度向上を達成しつつ,従来のDLハイブリッド4D-Varベースラインよりも精度良く動作することが示された。
関連論文リスト
- Geometry aware inference of steady state PDEs using Equivariant Neural Fields representations [0.0]
定常部分微分方程式を予測するエンコーダデコーダである enf2enf を導入する。
提案手法は、リアルタイム推論とゼロショット超解像をサポートし、低分解能メッシュの効率的なトレーニングを可能にする。
論文 参考訳(メタデータ) (2025-04-24T08:30:32Z) - Optimality and Adaptivity of Deep Neural Features for Instrumental Variable Regression [57.40108516085593]
ディープ・フィーチャー・インスツルメンタル・変数(DFIV)回帰(Deep Feature instrumental variable)は、ディープ・ニューラルネットワークによって学習されたデータ適応的特徴を用いたIV回帰に対する非パラメトリックなアプローチである。
DFIVアルゴリズムは,目的構造関数がベソフ空間にある場合,最小最適学習率を実現する。
論文 参考訳(メタデータ) (2025-01-09T01:22:22Z) - Learning Controlled Stochastic Differential Equations [61.82896036131116]
本研究では,非一様拡散を伴う連続多次元非線形微分方程式のドリフト係数と拡散係数の両方を推定する新しい手法を提案する。
我々は、(L2)、(Linfty)の有限サンプル境界や、係数の正則性に適応する学習率を持つリスクメトリクスを含む、強力な理論的保証を提供する。
当社のメソッドはオープンソースPythonライブラリとして利用可能です。
論文 参考訳(メタデータ) (2024-11-04T11:09:58Z) - 3D Equivariant Pose Regression via Direct Wigner-D Harmonics Prediction [50.07071392673984]
既存の方法は、角度や四元数を用いて空間領域でパラメータ化された3次元回転を学習する。
本稿では,3次元回転回帰のためのWigner-D係数を直接予測する周波数領域アプローチを提案する。
提案手法は, ModelNet10-SO(3) や PASCAL3D+ などのベンチマーク上での最先端結果を実現する。
論文 参考訳(メタデータ) (2024-11-01T12:50:38Z) - Adaptive debiased SGD in high-dimensional GLMs with streaming data [4.704144189806667]
我々は、高次元一般化線形モデルにおいて、オンライン推論に新しいアプローチを導入する。
本手法はシングルパスモードで動作し,時間と空間の複雑さを著しく低減する。
提案手法は,ADL (Approximated Debiased Lasso) と呼ばれ,有界な個人確率条件の必要性を緩和するだけでなく,数値性能も著しく向上することを示した。
論文 参考訳(メタデータ) (2024-05-28T15:36:48Z) - Enhancing Low-Order Discontinuous Galerkin Methods with Neural Ordinary Differential Equations for Compressible Navier--Stokes Equations [0.1578515540930834]
圧縮可能なNavier-Stokes方程式を解くためのエンドツーエンドの微分可能なフレームワークを提案する。
この統合アプローチは、微分可能不連続なガレルキン解法とニューラルネットワークのソース項を組み合わせる。
提案するフレームワークの性能を2つの例で示す。
論文 参考訳(メタデータ) (2023-10-29T04:26:23Z) - Dynamic Kernel-Based Adaptive Spatial Aggregation for Learned Image
Compression [63.56922682378755]
本稿では,空間アグリゲーション機能の拡張に焦点をあて,動的カーネルベースの変換符号化を提案する。
提案したアダプティブアグリゲーションはカーネルオフセットを生成し、コンテント条件付き範囲の有効な情報をキャプチャして変換を支援する。
実験により,本手法は,最先端の学習手法と比較して,3つのベンチマークにおいて高い速度歪み性能が得られることを示した。
論文 参考訳(メタデータ) (2023-08-17T01:34:51Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Generalised Latent Assimilation in Heterogeneous Reduced Spaces with
Machine Learning Surrogate Models [10.410970649045943]
我々は,低次サロゲートモデルと新しいデータ同化手法を組み合わせたシステムを開発した。
一般化された潜在同化は、低次モデリングによって提供される効率とデータ同化の精度の両方の恩恵を受けることができる。
論文 参考訳(メタデータ) (2022-04-07T15:13:12Z) - Observation Error Covariance Specification in Dynamical Systems for Data
assimilation using Recurrent Neural Networks [0.5330240017302621]
長期記憶(LSTM)リカレントニューラルネットワーク(RNN)に基づくデータ駆動型アプローチを提案する。
提案手法では,事前の誤差分布に関する知識や仮定は不要である。
提案手法を,DI01とD05という2つの最先端共分散チューニングアルゴリズムと比較した。
論文 参考訳(メタデータ) (2021-11-11T20:23:00Z) - Efficient Semi-Implicit Variational Inference [65.07058307271329]
効率的でスケーラブルな半単純外挿 (SIVI) を提案する。
本手法はSIVIの証拠を低勾配値の厳密な推測にマッピングする。
論文 参考訳(メタデータ) (2021-01-15T11:39:09Z) - SODEN: A Scalable Continuous-Time Survival Model through Ordinary
Differential Equation Networks [14.564168076456822]
本稿では、ニューラルネットワークとスケーラブルな最適化アルゴリズムを用いた生存分析のためのフレキシブルモデルを提案する。
提案手法の有効性を,既存の最先端ディープラーニングサバイバル分析モデルと比較した。
論文 参考訳(メタデータ) (2020-08-19T19:11:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。