論文の概要: ANT: Adaptive Noise Schedule for Time Series Diffusion Models
- arxiv url: http://arxiv.org/abs/2410.14488v1
- Date: Fri, 18 Oct 2024 14:16:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-21 14:27:25.093402
- Title: ANT: Adaptive Noise Schedule for Time Series Diffusion Models
- Title(参考訳): ANT:時系列拡散モデルのための適応型ノイズスケジュール
- Authors: Seunghan Lee, Kibok Lee, Taeyoung Park,
- Abstract要約: 時系列拡散モデル(ANT)のための適応ノイズスケジュールを提案する。
非定常性を表す統計に基づいて、所定のTSデータセットの適切なノイズスケジュールを自動的に決定する。
我々は、様々なドメインのデータセットに基づいて、TS予測、精細化、生成を含む様々なタスクにまたがる手法を検証する。
- 参考スコア(独自算出の注目度): 5.752266579415516
- License:
- Abstract: Advances in diffusion models for generative artificial intelligence have recently propagated to the time series (TS) domain, demonstrating state-of-the-art performance on various tasks. However, prior works on TS diffusion models often borrow the framework of existing works proposed in other domains without considering the characteristics of TS data, leading to suboptimal performance. In this work, we propose Adaptive Noise schedule for Time series diffusion models (ANT), which automatically predetermines proper noise schedules for given TS datasets based on their statistics representing non-stationarity. Our intuition is that an optimal noise schedule should satisfy the following desiderata: 1) It linearly reduces the non-stationarity of TS data so that all diffusion steps are equally meaningful, 2) the data is corrupted to the random noise at the final step, and 3) the number of steps is sufficiently large. The proposed method is practical for use in that it eliminates the necessity of finding the optimal noise schedule with a small additional cost to compute the statistics for given datasets, which can be done offline before training. We validate the effectiveness of our method across various tasks, including TS forecasting, refinement, and generation, on datasets from diverse domains. Code is available at this repository: https://github.com/seunghan96/ANT.
- Abstract(参考訳): 生成人工知能のための拡散モデルの進歩は、最近時系列領域(TS)に伝播し、様々なタスクにおける最先端のパフォーマンスを実証している。
しかし、TS拡散モデルに関する先行研究は、TSデータの特徴を考慮せずに、他の領域で提案された既存の研究の枠組みを借用することが多く、最適以下の性能をもたらす。
本研究では,時間系列拡散モデル(ANT)の適応ノイズスケジュールを提案し,非定常性を表す統計に基づいて,所定のTSデータセットに対する適切なノイズスケジュールを自動的に決定する。
我々の直感では、最適なノイズスケジュールは以下のデシラタを満たすべきである。
1) TSデータの非定常性を線形に低減し、全ての拡散ステップが等しく意味を持つようにする。
2)データは最終段階のランダムノイズに劣化し、
3) ステップ数は十分に多い。
提案手法は,学習前にオフラインで行うことのできるデータセットの統計を計算するために,最小限のコストで最適なノイズスケジュールを見つける必要がなくなるため,実用的である。
様々な領域のデータセットに対して,TS予測,精細化,生成を含む様々なタスクにおいて,本手法の有効性を検証する。
コードは、このリポジトリで入手できる。
関連論文リスト
- Breaking Determinism: Fuzzy Modeling of Sequential Recommendation Using Discrete State Space Diffusion Model [66.91323540178739]
シークエンシャルレコメンデーション(SR)は、ユーザーが過去の行動に基づいて興味を持つかもしれない項目を予測することを目的としている。
我々はSRを新しい情報理論の観点から再検討し、逐次モデリング手法がユーザの行動のランダム性と予測不可能性を適切に把握できないことを発見した。
ファジィ情報処理理論に触発された本論文では,制限を克服し,ユーザの関心事の進化をよりよく捉えるために,ファジィなインタラクションシーケンスの組を導入する。
論文 参考訳(メタデータ) (2024-10-31T14:52:01Z) - Retrieval-Augmented Diffusion Models for Time Series Forecasting [19.251274915003265]
検索時間拡張拡散モデル(RATD)を提案する。
RATDは埋め込みベースの検索プロセスと参照誘導拡散モデルという2つの部分から構成される。
当社のアプローチでは,データベース内の意味のあるサンプルを活用することで,サンプリングを支援し,データセットの利用を最大化することが可能です。
論文 参考訳(メタデータ) (2024-10-24T13:14:39Z) - Meta-DiffuB: A Contextualized Sequence-to-Sequence Text Diffusion Model with Meta-Exploration [53.63593099509471]
本稿では,既存のS2S-拡散モデルの限界を克服するために,スケジューラ・エクスロイタS2S-拡散パラダイムを提案する。
我々はメタ探索を用いて、各文の文脈化ノイズをスケジューリングするための追加スケジューラモデルを訓練する。
我々のエクスプローラーモデルであるS2S-拡散モデルでは、スケジューラモデルによってスケジュールされたノイズを利用して更新と生成を行う。
論文 参考訳(メタデータ) (2024-10-17T04:06:02Z) - Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Diffusion Models With Learned Adaptive Noise [12.530583016267768]
画像間で異なる速度で雑音を印加する学習拡散過程を提案する。
MuLAN は CIFAR-10 と ImageNet の密度推定の最先端を新たに設定する。
論文 参考訳(メタデータ) (2023-12-20T18:00:16Z) - Predict, Refine, Synthesize: Self-Guiding Diffusion Models for
Probabilistic Time Series Forecasting [10.491628898499684]
時系列の非条件学習拡散モデルであるTSDiffを提案する。
提案する自己誘導機構により、補助的ネットワークやトレーニング手順の変更を必要とせず、推論中に下流タスクに対してTSDiffを条件付けることができる。
本研究では,予測,改良,合成データ生成という3つの時系列タスクにおいて,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-07-21T10:56:36Z) - Generative Time Series Forecasting with Diffusion, Denoise, and
Disentanglement [51.55157852647306]
時系列予測は多くのアプリケーションにおいて非常に重要な課題である。
実世界の時系列データが短時間に記録されることが一般的であり、これはディープモデルと限られたノイズのある時系列との間に大きなギャップをもたらす。
本稿では,生成モデルを用いた時系列予測問題に対処し,拡散,雑音,ゆがみを備えた双方向変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2023-01-08T12:20:46Z) - The Optimal Noise in Noise-Contrastive Learning Is Not What You Think [80.07065346699005]
この仮定から逸脱すると、実際により良い統計的推定結果が得られることが示される。
特に、最適な雑音分布は、データと異なり、また、別の家族からさえも異なる。
論文 参考訳(メタデータ) (2022-03-02T13:59:20Z) - Voice2Series: Reprogramming Acoustic Models for Time Series
Classification [65.94154001167608]
Voice2Seriesは、時系列分類のための音響モデルをプログラムする新しいエンドツーエンドアプローチである。
V2Sは20のタスクで性能が優れるか、最先端のメソッドと結びついているかを示し、平均精度を1.84%向上させる。
論文 参考訳(メタデータ) (2021-06-17T07:59:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。