論文の概要: Vision-Enhanced Time Series Forecasting via Latent Diffusion Models
- arxiv url: http://arxiv.org/abs/2502.14887v1
- Date: Sun, 16 Feb 2025 14:15:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-24 23:44:09.956553
- Title: Vision-Enhanced Time Series Forecasting via Latent Diffusion Models
- Title(参考訳): 潜時拡散モデルによる視覚強調時系列予測
- Authors: Weilin Ruan, Siru Zhong, Haomin Wen, Yuxuan Liang,
- Abstract要約: LDM4TSは視覚強調時系列予測のための遅延拡散モデルの強力な画像再構成機能を利用する新しいフレームワークである。
時系列を多視点視覚表現に変換するための補完的変換手法を最初に用いた。
- 参考スコア(独自算出の注目度): 12.54316645614762
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models have recently emerged as powerful frameworks for generating high-quality images. While recent studies have explored their application to time series forecasting, these approaches face significant challenges in cross-modal modeling and transforming visual information effectively to capture temporal patterns. In this paper, we propose LDM4TS, a novel framework that leverages the powerful image reconstruction capabilities of latent diffusion models for vision-enhanced time series forecasting. Instead of introducing external visual data, we are the first to use complementary transformation techniques to convert time series into multi-view visual representations, allowing the model to exploit the rich feature extraction capabilities of the pre-trained vision encoder. Subsequently, these representations are reconstructed using a latent diffusion model with a cross-modal conditioning mechanism as well as a fusion module. Experimental results demonstrate that LDM4TS outperforms various specialized forecasting models for time series forecasting tasks.
- Abstract(参考訳): 拡散モデルは、最近、高品質な画像を生成するための強力なフレームワークとして登場した。
最近の研究は時系列予測への応用を探求しているが、これらの手法は時間的パターンを捉えるために視覚情報を効果的に変換するクロスモーダルモデリングにおいて重要な課題に直面している。
本稿では,視覚強調時系列予測のための遅延拡散モデルの強力な画像再構成機能を利用する,新しいフレームワーク LDM4TS を提案する。
外部視覚データを導入する代わりに,まず,時系列を多視点視覚表現に変換するための補完的変換技術を用いて,事前学習された視覚エンコーダのリッチな特徴抽出機能を利用する。
その後、これらの表現は、相互モード条件付機構と融合モジュールを備えた潜在拡散モデルを用いて再構成される。
実験結果から, LDM4TSは時系列予測タスクにおいて, 各種予測モデルよりも優れていた。
関連論文リスト
- Unified Multimodal Discrete Diffusion [78.48930545306654]
複数のモードをまたいだ理解と生成が可能なマルチモーダル生成モデルは、自己回帰(AR)アプローチによって支配される。
共同テキストと画像領域の統一的な生成形式としての離散拡散モデルについて検討する。
テキストと画像の共同理解・生成が可能なUnified Multimodal Discrete Diffusion (UniDisc) モデルを提案する。
論文 参考訳(メタデータ) (2025-03-26T17:59:51Z) - Harnessing Vision Models for Time Series Analysis: A Survey [72.09716244582684]
本研究は, 時系列解析におけるLLMよりも視覚モデルの方が優れていることを示す。
既存の方法の包括的かつ詳細な概要を提供し、詳細な分類学の双対的な見解を提供する。
このフレームワークに関わる前処理と後処理のステップにおける課題に対処する。
論文 参考訳(メタデータ) (2025-02-13T00:42:11Z) - Exploring Representation-Aligned Latent Space for Better Generation [86.45670422239317]
生成性能を改善するために,セマンティックな事前情報を統合するReaLSを導入する。
本研究では、ReaLSでトレーニングされたDETとSiTが、FID測定値の15%改善を実現することを示す。
拡張されたセマンティック潜在空間は、セグメンテーションや深さ推定のようなより知覚的な下流タスクを可能にする。
論文 参考訳(メタデータ) (2025-02-01T07:42:12Z) - Dual Diffusion for Unified Image Generation and Understanding [32.7554623473768]
マルチモーダル理解と生成のための大規模かつ完全なエンドツーエンド拡散モデルを提案する。
我々は、画像とテキストの条件付き確率を同時にトレーニングするクロスモーダル最大推定フレームワークを活用する。
我々のモデルは、最近の統合画像理解・生成モデルと比較して、競争性能が向上した。
論文 参考訳(メタデータ) (2024-12-31T05:49:00Z) - TimeLDM: Latent Diffusion Model for Unconditional Time Series Generation [2.4454605633840143]
時系列生成は意思決定システムにおいて重要な研究課題である。
最近のアプローチでは、時系列情報をモデル化するために、データ空間での学習に焦点を当てている。
高品質な時系列生成のための新しい遅延拡散モデルであるTimeLDMを提案する。
論文 参考訳(メタデータ) (2024-07-05T01:47:20Z) - Stochastic Diffusion: A Diffusion Probabilistic Model for Stochastic Time Series Forecasting [8.232475807691255]
本稿では,データ駆動型事前知識を各ステップで学習する新しい拡散(StochDiff)モデルを提案する。
学習された事前知識は、複雑な時間的ダイナミクスとデータ固有の不確実性を捉えるのに役立つ。
論文 参考訳(メタデータ) (2024-06-05T00:13:38Z) - 4Diffusion: Multi-view Video Diffusion Model for 4D Generation [55.82208863521353]
現在の4D生成法は, 高度な拡散生成モデルの助けを借りて, 有意義な有効性を実現している。
モノクロビデオから空間的・時間的に一貫した4Dコンテンツを生成することを目的とした,新しい4D生成パイプライン,すなわち4Diffusionを提案する。
論文 参考訳(メタデータ) (2024-05-31T08:18:39Z) - DEEM: Diffusion Models Serve as the Eyes of Large Language Models for Image Perception [66.88792390480343]
本稿では,拡散モデルの生成的フィードバックを利用して画像エンコーダのセマンティックな分布を整合させる,シンプルだが効果的なアプローチであるDEEMを提案する。
DEEMは、トレーニング可能なパラメータが少なく、事前学習データが少なく、ベースモデルのサイズが小さいことを利用して、モデル幻覚を軽減するために、強化された堅牢性と優れた能力を示す。
論文 参考訳(メタデータ) (2024-05-24T05:46:04Z) - Multi-modal Auto-regressive Modeling via Visual Words [96.25078866446053]
本稿では,視覚的特徴を大規模多モードモデルの語彙上の確率分布にマッピングする視覚トークンの概念を提案する。
さらに、LMM内の意味空間における視覚的特徴の分布と、視覚情報を表現するためにテキスト埋め込みを使用することの可能性について検討する。
論文 参考訳(メタデータ) (2024-03-12T14:58:52Z) - What Matters When Repurposing Diffusion Models for General Dense Perception Tasks? [49.84679952948808]
最近の研究は、高密度知覚タスクのためのT2I拡散モデルを簡単に調整することで有望な結果を示す。
拡散前処理における伝達効率と性能に影響を及ぼす重要な要因を徹底的に検討する。
我々の研究は、濃密な視覚認知タスクに特化した効果的な決定論的ワンステップ微調整パラダイムであるGenPerceptの開発において頂点に達した。
論文 参考訳(メタデータ) (2024-03-10T04:23:24Z) - The Rise of Diffusion Models in Time-Series Forecasting [5.808096811856718]
本報告では,拡散モデルに関する背景情報を網羅し,条件付け手法を詳述し,時系列予測における使用状況について検討する。
この分析は、11の特定の時系列実装、それらの背後にある直観と理論、異なるデータセットに対する有効性、および互いに比較する。
論文 参考訳(メタデータ) (2024-01-05T11:35:10Z) - Time Series Continuous Modeling for Imputation and Forecasting with Implicit Neural Representations [15.797295258800638]
本稿では,実世界のデータでしばしば発生する課題に対処するために,時系列計算と予測のための新しいモデリング手法を提案する。
本手法はシリーズの進化力学の連続時間依存モデルに依存する。
メタラーニングアルゴリズムによって駆動される変調機構は、観測されたタイムウインドウを超えて、見えないサンプルや外挿への適応を可能にする。
論文 参考訳(メタデータ) (2023-06-09T13:20:04Z) - Leveraging Image-based Generative Adversarial Networks for Time Series
Generation [4.541582055558865]
XIRP(Extended Intertemporal Return Plot)という時系列の2次元画像表現を提案する。
提案手法は, 時間間時系列のダイナミクスをスケール不変かつ可逆的に捉え, トレーニング時間を短縮し, サンプル品質を向上させる。
論文 参考訳(メタデータ) (2021-12-15T11:55:11Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。