論文の概要: Conditional Lagrangian Wasserstein Flow for Time Series Imputation
- arxiv url: http://arxiv.org/abs/2410.07550v2
- Date: Wed, 07 May 2025 04:26:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:35.740525
- Title: Conditional Lagrangian Wasserstein Flow for Time Series Imputation
- Title(参考訳): 時系列インプットのための条件付きラグランジアンワッサースタイン流
- Authors: Weizhu Qian, Dalin Zhang, Yan Zhao, Yunyao Cheng,
- Abstract要約: 条件付きラグランジアン・ワッサースタイン流は時系列計算の新しい方法である。
対応する運動エネルギーを最小化することで速度を学習する。
モデルの性能を高めるために,タスク固有ポテンシャル関数の勾配を推定する。
- 参考スコア(独自算出の注目度): 3.583527519172841
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time series imputation is important for numerous real-world applications. To overcome the limitations of diffusion model-based imputation methods, e.g., slow convergence in inference, we propose a novel method for time series imputation in this work, called Conditional Lagrangian Wasserstein Flow (CLWF). Following the principle of least action in Lagrangian mechanics, we learn the velocity by minimizing the corresponding kinetic energy. Moreover, to enhance the model's performance, we estimate the gradient of a task-specific potential function using a time-dependent denoising autoencoder and integrate it into the base estimator to reduce the sampling variance. Finally, the proposed method demonstrates competitive performance compared to other state-of-the-art imputation approaches.
- Abstract(参考訳): 時系列計算は多くの実世界のアプリケーションにとって重要である。
本研究では,拡散モデルに基づく計算法の限界,例えば推論の収束の遅さを克服するために,条件付きラグランジアン・ワッサースタイン流(CLWF)と呼ばれる時系列計算の新しい手法を提案する。
ラグランジュ力学における最小作用の原理に従い、対応する運動エネルギーを最小化することで速度を学ぶ。
さらに,モデルの性能を向上させるため,時間依存型自動符号化器を用いてタスク固有ポテンシャル関数の勾配を推定し,ベース推定器に統合してサンプリング分散を低減する。
最後に、提案手法は、他の最先端の計算手法と比較して、競合性能を示す。
関連論文リスト
- Neural Flow Samplers with Shortcut Models [19.81513273510523]
流れに基づくサンプルは連続性方程式を満たす速度場を学習してサンプルを生成する。
重要サンプリングは近似を提供するが、高い分散に悩まされる。
論文 参考訳(メタデータ) (2025-02-11T07:55:41Z) - Semi-Implicit Functional Gradient Flow [30.32233517392456]
近似系として摂動粒子を用いる関数勾配ParVI法を提案する。
対応する関数勾配流は、スコアマッチングによって推定できるが、強い理論的収束を保証する。
論文 参考訳(メタデータ) (2024-10-23T15:00:30Z) - Dynamical Measure Transport and Neural PDE Solvers for Sampling [77.38204731939273]
本研究では, 対象物へのトラクタブル密度関数の移動として, 確率密度からサンプリングする作業に取り組む。
物理インフォームドニューラルネットワーク(PINN)を用いて各偏微分方程式(PDE)の解を近似する。
PINNはシミュレーションと離散化のない最適化を可能にし、非常に効率的に訓練することができる。
論文 参考訳(メタデータ) (2024-07-10T17:39:50Z) - Improving Consistency Models with Generator-Induced Flows [16.049476783301724]
一貫性モデルは、ニューラルネットワークの単一前方通過におけるスコアベース拡散の多段階サンプリングを模倣する。
それらは、一貫性の蒸留と一貫性のトレーニングの2つの方法を学ぶことができる。
本稿では,現在訓練されているモデルから得られた雑音データを対応する出力へ転送する新しい流れを提案する。
論文 参考訳(メタデータ) (2024-06-13T20:22:38Z) - Space-Time Diffusion Bridge [0.4527270266697462]
実確率分布から独立かつ同一に分布する新しい合成サンプルを生成する方法を提案する。
時空間次元にまたがる時空間混合戦略を用いる。
数値実験による時空拡散法の有効性を検証した。
論文 参考訳(メタデータ) (2024-02-13T23:26:11Z) - A prior regularized full waveform inversion using generative diffusion
models [0.5156484100374059]
フルウェーブフォームインバージョン(FWI)は高分解能地下モデル推定を提供する可能性がある。
観測の限界、例えば、地域雑音、限られたショットや受信機、帯域制限データなどにより、FWIで所望の高解像度モデルを得るのは難しい。
生成拡散モデルにより正規化されたFWIの新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-06-22T10:10:34Z) - ShiftDDPMs: Exploring Conditional Diffusion Models by Shifting Diffusion
Trajectories [144.03939123870416]
本稿では,前処理に条件を導入することで,新しい条件拡散モデルを提案する。
いくつかのシフト規則に基づいて各条件に対して排他的拡散軌跡を割り当てるために、余剰潜在空間を用いる。
我々は textbfShiftDDPMs と呼ぶメソッドを定式化し、既存のメソッドの統一的な視点を提供する。
論文 参考訳(メタデータ) (2023-02-05T12:48:21Z) - Fast Sampling of Diffusion Models via Operator Learning [74.37531458470086]
我々は,拡散モデルのサンプリング過程を高速化するために,確率フロー微分方程式の効率的な解法であるニューラル演算子を用いる。
シーケンシャルな性質を持つ他の高速サンプリング手法と比較して、並列復号法を最初に提案する。
本稿では,CIFAR-10では3.78、ImageNet-64では7.83の最先端FIDを1モデル評価環境で達成することを示す。
論文 参考訳(メタデータ) (2022-11-24T07:30:27Z) - Sampling with Mollified Interaction Energy Descent [57.00583139477843]
モーフィファイド相互作用エネルギー降下(MIED)と呼ばれる新しい最適化に基づくサンプリング手法を提案する。
MIEDは、モル化相互作用エネルギー(MIE)と呼ばれる確率測度に関する新しいクラスのエネルギーを最小化する
我々は,制約のないサンプリング問題に対して,我々のアルゴリズムがSVGDのような既存の粒子ベースアルゴリズムと同等に動作することを示す。
論文 参考訳(メタデータ) (2022-10-24T16:54:18Z) - Building Normalizing Flows with Stochastic Interpolants [11.22149158986164]
一対の基底分布と対象分布の間の連続時間正規化フローに基づく単純な2次モデルを提案する。
この流れの速度場は、基地と目標の間を有限時間で補間する時間依存分布の確率電流から推定される。
論文 参考訳(メタデータ) (2022-09-30T16:30:31Z) - How Much is Enough? A Study on Diffusion Times in Score-based Generative
Models [76.76860707897413]
現在のベストプラクティスは、フォワードダイナミクスが既知の単純なノイズ分布に十分に近づくことを確実にするために大きなTを提唱している。
本稿では, 理想とシミュレーションされたフォワードダイナミクスのギャップを埋めるために補助モデルを用いて, 標準的な逆拡散過程を導出する方法について述べる。
論文 参考訳(メタデータ) (2022-06-10T15:09:46Z) - A Near-Optimal Gradient Flow for Learning Neural Energy-Based Models [93.24030378630175]
学習エネルギーベースモデル(EBM)の勾配流を最適化する新しい数値スキームを提案する。
フォッカー・プランク方程式から大域相対エントロピーの2階ワッサーシュタイン勾配流を導出する。
既存のスキームと比較して、ワッサーシュタイン勾配流は実データ密度を近似するより滑らかで近似的な数値スキームである。
論文 参考訳(メタデータ) (2019-10-31T02:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。