論文の概要: Dynamical Diffusion: Learning Temporal Dynamics with Diffusion Models
- arxiv url: http://arxiv.org/abs/2503.00951v1
- Date: Sun, 02 Mar 2025 16:10:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:22:18.316406
- Title: Dynamical Diffusion: Learning Temporal Dynamics with Diffusion Models
- Title(参考訳): 動的拡散:拡散モデルを用いた時間的ダイナミクスの学習
- Authors: Xingzhuo Guo, Yu Zhang, Baixu Chen, Haoran Xu, Jianmin Wang, Mingsheng Long,
- Abstract要約: 動的拡散(DyDiff, Dynamical Diffusion)は, 時間的に意識された前と逆のプロセスを含む理論的に健全なフレームワークである。
科学的時間的予測、ビデオ予測、時系列予測に関する実験は、動的拡散が時間的予測タスクのパフォーマンスを一貫して改善することを示した。
- 参考スコア(独自算出の注目度): 71.63194926457119
- License:
- Abstract: Diffusion models have emerged as powerful generative frameworks by progressively adding noise to data through a forward process and then reversing this process to generate realistic samples. While these models have achieved strong performance across various tasks and modalities, their application to temporal predictive learning remains underexplored. Existing approaches treat predictive learning as a conditional generation problem, but often fail to fully exploit the temporal dynamics inherent in the data, leading to challenges in generating temporally coherent sequences. To address this, we introduce Dynamical Diffusion (DyDiff), a theoretically sound framework that incorporates temporally aware forward and reverse processes. Dynamical Diffusion explicitly models temporal transitions at each diffusion step, establishing dependencies on preceding states to better capture temporal dynamics. Through the reparameterization trick, Dynamical Diffusion achieves efficient training and inference similar to any standard diffusion model. Extensive experiments across scientific spatiotemporal forecasting, video prediction, and time series forecasting demonstrate that Dynamical Diffusion consistently improves performance in temporal predictive tasks, filling a crucial gap in existing methodologies. Code is available at this repository: https://github.com/thuml/dynamical-diffusion.
- Abstract(参考訳): 拡散モデルは、フォワードプロセスを通じてデータにノイズを徐々に追加し、このプロセスを逆転して現実的なサンプルを生成することによって、強力な生成フレームワークとして現れてきた。
これらのモデルは様々なタスクやモダリティにまたがって高い性能を達成しているが、時間的予測学習への応用はいまだ検討されていない。
既存のアプローチでは、予測学習を条件付き生成問題として扱うが、データに固有の時間的ダイナミクスを完全に活用できない場合が多く、時間的コヒーレントなシーケンスを生成する上での課題となっている。
そこで本稿では,時間的に意識された前と逆のプロセスを含む理論的に健全なフレームワークであるDynamical Diffusion(DyDiff)を紹介する。
動的拡散(Dynamical Diffusion)は、各拡散段階における時間遷移を明示的にモデル化し、時間的ダイナミクスをよりよく捉えるために、先行状態への依存を確立する。
リパラメータ化のトリックを通じて、動的拡散は任意の標準拡散モデルと同様の効率的なトレーニングと推論を達成する。
科学的時空間予測、ビデオ予測、時系列予測の広範な実験は、動的拡散が時間的予測タスクのパフォーマンスを一貫して改善し、既存の方法論における決定的なギャップを埋めることを示した。
コードは、このリポジトリで入手できる。
関連論文リスト
- Auto-Regressive Moving Diffusion Models for Time Series Forecasting [2.3814052021083354]
時系列予測(TSF)は,様々な領域において不可欠であり,近年の拡散型TSFモデルの進歩は大きな可能性を示唆している。
本稿では,連続的な拡散に基づくTSFを実現するために,新しい自己回帰移動拡散(ARMD)モデルを提案する。
本稿では,未来系列を初期状態として,歴史系列を最終状態として,拡散過程を再解釈する。
論文 参考訳(メタデータ) (2024-12-12T14:51:48Z) - ACDiT: Interpolating Autoregressive Conditional Modeling and Diffusion Transformer [95.80384464922147]
連続的な視覚生成には、フルシーケンスの拡散に基づくアプローチが必要である。
本稿では,自己回帰的ブロックワイド条件拡散変換器ACDiTを提案する。
本稿では,拡散目標を訓練しながら,視覚理解タスクにACDiTをシームレスに使用できることを実証する。
論文 参考訳(メタデータ) (2024-12-10T18:13:20Z) - ODEStream: A Buffer-Free Online Learning Framework with ODE-based Adaptor for Streaming Time Series Forecasting [11.261457967759688]
ODEStreamはバッファフリーの継続的学習フレームワークで、データに時間的依存関係を統合する時間的分離レイヤを備えている。
提案手法は,履歴データの動的および分布が時間とともにどのように変化するかを学ぶことに焦点を当て,ストリーミングシーケンスの直接処理を容易にする。
ベンチマーク実世界のデータセットによる評価は、ODEStreamが最先端のオンライン学習とストリーミング分析のベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2024-11-11T22:36:33Z) - Energy-Based Diffusion Language Models for Text Generation [126.23425882687195]
エネルギーベース拡散言語モデル(Energy-based Diffusion Language Model, EDLM)は、拡散ステップごとに全シーケンスレベルで動作するエネルギーベースモデルである。
我々のフレームワークは、既存の拡散モデルよりも1.3$times$のサンプリングスピードアップを提供する。
論文 参考訳(メタデータ) (2024-10-28T17:25:56Z) - Unfolding Time: Generative Modeling for Turbulent Flows in 4D [49.843505326598596]
本研究では,4次元生成拡散モデルと物理インフォームドガイダンスを導入し,現実的な流れ状態列の生成を可能にする。
提案手法は, 乱流多様体からのサブシーケンス全体のサンプリングに有効であることが示唆された。
この進展は、乱流の時間的進化を分析するために生成モデリングを適用するための扉を開く。
論文 参考訳(メタデータ) (2024-06-17T10:21:01Z) - Rolling Diffusion Models [24.25050460124981]
Rolling Diffusionは、スライディングウィンドウのデノゲーションプロセスを使用する新しいアプローチである。
拡散過程は、後続の列に現れるフレームにより多くのノイズを割り当てることで、時間の経過とともに徐々に悪化する。
テンポラルダイナミクスが複雑である場合、ローリング拡散は標準拡散よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-02-12T08:16:10Z) - Instructed Diffuser with Temporal Condition Guidance for Offline
Reinforcement Learning [71.24316734338501]
テンポラリ・コンポラブル・ディフューザ(TCD)を用いた実効時間条件拡散モデルを提案する。
TCDは、相互作用シーケンスから時間情報を抽出し、時間条件で生成を明示的にガイドする。
提案手法は,従来のSOTAベースラインと比較して最高の性能を達成または一致させる。
論文 参考訳(メタデータ) (2023-06-08T02:12:26Z) - DYffusion: A Dynamics-informed Diffusion Model for Spatiotemporal
Forecasting [18.86526240105348]
本稿では,確率的予測のための拡散モデルを効率的に訓練する手法を提案する。
我々は,標準拡散モデルの前方および逆過程を模倣する時間条件補間器と予測器ネットワークを訓練する。
本手法は, 海面温度, ナビエ-ストークス流, および湧水系の複雑な力学の確率論的予測を競合的に行う。
論文 参考訳(メタデータ) (2023-06-03T02:46:31Z) - Neural Continuous-Discrete State Space Models for Irregularly-Sampled
Time Series [18.885471782270375]
NCDSSMは補助変数を用いて力学からの認識をアンタングルし、補助変数のみに償却推論を必要とする。
本稿では、潜在力学の3つのフレキシブルパラメータ化と、推論中の動的状態の辺りを生かした効率的な学習目標を提案する。
複数のベンチマークデータセットの実証結果は、既存のモデルよりもNCDSSMの計算性能と予測性能が改善されたことを示している。
論文 参考訳(メタデータ) (2023-01-26T18:45:04Z) - How Much is Enough? A Study on Diffusion Times in Score-based Generative
Models [76.76860707897413]
現在のベストプラクティスは、フォワードダイナミクスが既知の単純なノイズ分布に十分に近づくことを確実にするために大きなTを提唱している。
本稿では, 理想とシミュレーションされたフォワードダイナミクスのギャップを埋めるために補助モデルを用いて, 標準的な逆拡散過程を導出する方法について述べる。
論文 参考訳(メタデータ) (2022-06-10T15:09:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。