論文の概要: A Diffusion Model for Regular Time Series Generation from Irregular Data with Completion and Masking
- arxiv url: http://arxiv.org/abs/2510.06699v1
- Date: Wed, 08 Oct 2025 06:47:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.337267
- Title: A Diffusion Model for Regular Time Series Generation from Irregular Data with Completion and Masking
- Title(参考訳): 完了とマスキングを伴う不規則データからの正規時系列生成の拡散モデル
- Authors: Gal Fadlon, Idan Arbiv, Nimrod Berman, Omri Azencot,
- Abstract要約: 時系列データは、医療、金融、科学の応用に不可欠である。
時系列変換器は不規則なシーケンスを完了し、自然の近傍を生成する。
マスキングを用いた視覚ベースの拡散モデルは、完了した値への依存を最小限に抑える。
- 参考スコア(独自算出の注目度): 14.384467317051834
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating realistic time series data is critical for applications in healthcare, finance, and science. However, irregular sampling and missing values present significant challenges. While prior methods address these irregularities, they often yield suboptimal results and incur high computational costs. Recent advances in regular time series generation, such as the diffusion-based ImagenTime model, demonstrate strong, fast, and scalable generative capabilities by transforming time series into image representations, making them a promising solution. However, extending ImagenTime to irregular sequences using simple masking introduces "unnatural" neighborhoods, where missing values replaced by zeros disrupt the learning process. To overcome this, we propose a novel two-step framework: first, a Time Series Transformer completes irregular sequences, creating natural neighborhoods; second, a vision-based diffusion model with masking minimizes dependence on the completed values. This approach leverages the strengths of both completion and masking, enabling robust and efficient generation of realistic time series. Our method achieves state-of-the-art performance, achieving a relative improvement in discriminative score by $70\%$ and in computational cost by $85\%$. Code is at https://github.com/azencot-group/ImagenI2R.
- Abstract(参考訳): 医療、金融、科学の分野では、現実的な時系列データの生成が不可欠である。
しかし、不規則なサンプリングと欠落は重要な課題である。
従来の手法はこれらの不規則性に対処するが、しばしば準最適結果をもたらし、高い計算コストを発生させる。
拡散に基づくImagenTimeモデルのような通常の時系列生成の最近の進歩は、時系列を画像表現に変換することによって、強く、高速で、スケーラブルな生成能力を示す。
しかし、単純なマスキングを用いてImagenTimeを不規則なシーケンスに拡張すると、「不自然な」地区が生まれ、ゼロに置き換えられた値が学習プロセスを妨害する。
この問題を解決するために,第1に,時系列変換器が不規則なシーケンスを完了し,自然近傍を創出する,第2に,マスキングを用いた視覚拡散モデルが完成値への依存を最小限に抑える,という新しい2段階の枠組みを提案する。
このアプローチは、完了とマスキングの両方の長所を活用し、現実的な時系列の堅牢かつ効率的な生成を可能にする。
本手法は最先端の性能を達成し,識別スコアを70 %$,計算コストを85 %$で相対的に向上させる。
コードはhttps://github.com/azencot-group/ImagenI2Rにある。
関連論文リスト
- TimeOmni-VL: Unified Models for Time Series Understanding and Generation [66.55423802406078]
Time Omni-VLは、時系列の理解と生成を統合するビジョン中心のフレームワークである。
Time Omni-VLは、高忠実度生成のための明示的な制御信号として時系列理解を利用する最初の方法である。
実験により、この統一されたアプローチは意味的理解と数値的精度の両方を著しく改善することを確認した。
論文 参考訳(メタデータ) (2026-02-19T07:50:11Z) - GriDiT: Factorized Grid-Based Diffusion for Efficient Long Image Sequence Generation [77.13582457917418]
サブサンプルフレームからなる格子画像にのみ依存する生成モデルを訓練する。
本研究では,Diffusion Transformer (DiT) の強い自己アテンション機構を用いて,フレーム間の相関関係を捉えることで,画像系列を生成することを学ぶ。
我々の手法は、データセット間で、品質および推論速度(少なくとも2倍の速さ)において、一貫してSoTAを上回ります。
論文 参考訳(メタデータ) (2025-12-24T16:46:04Z) - Utilizing Image Transforms and Diffusion Models for Generative Modeling of Short and Long Time Series [7.201938834736084]
可変長時系列の統一生成モデルを提案する。
遅延埋め込みや短時間フーリエ変換などの可逆変換を用いる。
提案手法は,強いベースラインに対して常に最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2024-10-25T13:06:18Z) - Fast constrained sampling in pre-trained diffusion models [80.99262780028015]
任意の制約下で高速で高品質な生成を可能にするアルゴリズムを提案する。
我々の手法は、最先端のトレーニングフリー推論手法に匹敵するか、超越した結果をもたらす。
論文 参考訳(メタデータ) (2024-10-24T14:52:38Z) - Graph Spatiotemporal Process for Multivariate Time Series Anomaly
Detection with Missing Values [67.76168547245237]
本稿では,グラフ時間過程と異常スコアラを用いて異常を検出するGST-Proという新しいフレームワークを提案する。
実験結果から,GST-Pro法は時系列データ中の異常を効果的に検出し,最先端の手法より優れていることがわかった。
論文 参考訳(メタデータ) (2024-01-11T10:10:16Z) - TS-Diffusion: Generating Highly Complex Time Series with Diffusion
Models [12.646560434352478]
我々は、サンプリング不規則性、欠如、大きな特徴時間次元を含む3つの共通の悪い性質を持つ時系列のクラスを考える。
このような複雑な時系列を処理するための一般モデルTS-Diffusionを導入する。
我々は、複数の時系列データセットについて広範な実験を行い、TS-Diffusionが従来の時系列と複雑な時系列の両方で優れた結果が得られることを示した。
論文 参考訳(メタデータ) (2023-11-06T17:52:08Z) - Time Series as Images: Vision Transformer for Irregularly Sampled Time
Series [32.99466250557855]
本稿では,不規則なサンプル時系列を線グラフ画像に変換することによって,新しい視点を提案する。
次に、画像分類と同様に、時系列分類に強力な事前学習型視覚変換器を利用する。
注目すべきは、その単純さにもかかわらず、私たちのアプローチは、いくつかの一般的な医療および人間の活動データセットに関する最先端の特殊アルゴリズムよりも優れていることです。
論文 参考訳(メタデータ) (2023-03-01T22:42:44Z) - TimeMAE: Self-Supervised Representations of Time Series with Decoupled
Masked Autoencoders [55.00904795497786]
トランスフォーマネットワークに基づく転送可能な時系列表現を学習するための,新しい自己教師型パラダイムであるTimeMAEを提案する。
TimeMAEは双方向符号化方式を用いて時系列の豊富な文脈表現を学習する。
新たに挿入されたマスク埋め込みによって生じる不一致を解消するため、分離されたオートエンコーダアーキテクチャを設計する。
論文 参考訳(メタデータ) (2023-03-01T08:33:16Z) - HyperTime: Implicit Neural Representation for Time Series [131.57172578210256]
暗黙の神経表現(INR)は、データの正確で解像度に依存しないエンコーディングを提供する強力なツールとして最近登場した。
本稿では、INRを用いて時系列の表現を分析し、再構成精度とトレーニング収束速度の点で異なるアクティベーション関数を比較した。
本稿では,INRを利用して時系列データセット全体の圧縮潜在表現を学習するハイパーネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-08-11T14:05:51Z) - Learning from Irregularly-Sampled Time Series: A Missing Data
Perspective [18.493394650508044]
不規則にサンプリングされた時系列は、医療を含む多くの領域で発生する。
連続だが観測されていない関数からサンプリングされた指数値対の列として、不規則にサンプリングされた時系列データをモデル化する。
本稿では,変分オートエンコーダと生成対向ネットワークに基づく学習手法を提案する。
論文 参考訳(メタデータ) (2020-08-17T20:01:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。