論文の概要: DiffStyleTS: Diffusion Model for Style Transfer in Time Series
- arxiv url: http://arxiv.org/abs/2510.11335v1
- Date: Mon, 13 Oct 2025 12:30:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.357913
- Title: DiffStyleTS: Diffusion Model for Style Transfer in Time Series
- Title(参考訳): DiffStyleTS:時系列のスタイル伝達のための拡散モデル
- Authors: Mayank Nagda, Phil Ostheimer, Justus Arweiler, Indra Jungjohann, Jennifer Werner, Dennis Wagner, Aparna Muraleedharan, Pouya Jafari, Jochen Schmid, Fabian Jirasek, Jakob Burger, Michael Bortz, Hans Hasse, Stephan Mandt, Marius Kloft, Sophie Fellenz,
- Abstract要約: スタイル転送は、ある信号の内容と別の信号のスタイルを組み合わせる。
DiffTSSTは,時系列をコンテンツやスタイル表現に分解する拡散ベースのフレームワークである。
DiffTSSTが効果的なスタイル転送を実現することを質的かつ定量的に示す。
- 参考スコア(独自算出の注目度): 28.526803659030545
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Style transfer combines the content of one signal with the style of another. It supports applications such as data augmentation and scenario simulation, helping machine learning models generalize in data-scarce domains. While well developed in vision and language, style transfer methods for time series data remain limited. We introduce DiffTSST, a diffusion-based framework that disentangles a time series into content and style representations via convolutional encoders and recombines them through a self-supervised attention-based diffusion process. At inference, encoders extract content and style from two distinct series, enabling conditional generation of novel samples to achieve style transfer. We demonstrate both qualitatively and quantitatively that DiffTSST achieves effective style transfer. We further validate its real-world utility by showing that data augmentation with DiffTSST improves anomaly detection in data-scarce regimes.
- Abstract(参考訳): スタイル転送は、ある信号の内容と別の信号のスタイルを組み合わせる。
データ拡張やシナリオシミュレーションといったアプリケーションをサポートし、マシンラーニングモデルがデータスカースドメインを一般化するのを支援する。
視覚と言語はよく発達しているが、時系列データのスタイル転送方法は限られている。
DiffTSSTは、時系列をコンボリューショナルエンコーダを介してコンテンツやスタイル表現に分解し、自己監督型注意に基づく拡散プロセスを通じてそれらを再結合する拡散ベースのフレームワークである。
推論において、エンコーダは2つの異なるシリーズから内容とスタイルを抽出し、新しいサンプルを条件付き生成してスタイル転送を実現する。
DiffTSSTが効果的なスタイル転送を実現することを質的かつ定量的に示す。
我々は、DiffTSSTによるデータ拡張により、データスカース方式における異常検出が改善されることを示し、実世界の実用性をさらに検証する。
関連論文リスト
- OATS: Online Data Augmentation for Time Series Foundation Models [49.1394215208561]
時系列基礎モデル(TSFM)は時間分析の強力なパラダイムであり、しばしばデータ品質を向上させるために合成データ拡張によって強化される。
OATS (Online Data Augmentation for Time Series Foundation Models) は、異なるトレーニング手順に合わせて合成データを生成する基本戦略である。
論文 参考訳(メタデータ) (2026-01-26T23:51:03Z) - Generative Spatiotemporal Data Augmentation [12.849046721804797]
映像基盤モデルを用いて、画像データセットからリアルな3次元空間的・時間的変動を生成する。
合成ビデオクリップを補足データとして組み込むことで、低データ設定で一貫したパフォーマンス向上が得られる。
論文 参考訳(メタデータ) (2025-12-14T01:18:48Z) - UniDiff: A Unified Diffusion Framework for Multimodal Time Series Forecasting [90.47915032778366]
マルチモーダル時系列予測のための統合拡散フレームワークUniDiffを提案する。
コアには統一的で並列な融合モジュールがあり、単一のクロスアテンション機構がタイムスタンプからの構造化情報とテキストからのセマンティックコンテキストを統合する。
8つの領域にわたる実世界のベンチマークデータセットの実験は、提案したUniDiffモデルが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2025-12-08T05:36:14Z) - Multimodal Conditioned Diffusive Time Series Forecasting [16.72476672866356]
時系列予測(TSF)のためのマルチモーダル条件付き拡散モデルを提案する。
タイムスタンプとテキストを組み合わせて、異なるデータポイント間の時間的および意味的な相関を確立する。
実世界のベンチマークデータセットの実験では、提案したMCD-TSFモデルが最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2025-04-28T10:56:23Z) - UniVST: A Unified Framework for Training-free Localized Video Style Transfer [102.52552893495475]
本稿では拡散モデルに基づく局所化ビデオスタイル転送のための統一フレームワークUniVSTを提案する。
トレーニングを必要とせずに動作し、ビデオ全体にわたってスタイルを転送する既存の拡散方法に対して、明確なアドバンテージを提供する。
論文 参考訳(メタデータ) (2024-10-26T05:28:02Z) - TimeDART: A Diffusion Autoregressive Transformer for Self-Supervised Time Series Representation [6.047856576139978]
我々は,新しい自己教師型時系列事前学習フレームワークである textbfTimeDART を提案する。
TimeDARTは2つの強力な生成パラダイムを統合し、より伝達可能な表現を学ぶ。
時系列予測と分類のための公開データセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2024-10-08T06:08:33Z) - Distribution-Aware Data Expansion with Diffusion Models [55.979857976023695]
本研究では,分散型拡散モデルに基づくトレーニングフリーなデータ拡張フレームワークであるDistDiffを提案する。
DistDiffは、オリジナルデータのみにトレーニングされたモデルと比較して、さまざまなデータセットの精度を一貫して向上させる。
論文 参考訳(メタデータ) (2024-03-11T14:07:53Z) - HiCAST: Highly Customized Arbitrary Style Transfer with Adapter Enhanced
Diffusion Models [84.12784265734238]
Arbitrary Style Transfer (AST)の目標は、あるスタイル参照の芸術的特徴を所定の画像/ビデオに注入することである。
各種のセマンティックな手がかりに基づいてスタイリング結果を明示的にカスタマイズできるHiCASTを提案する。
新たな学習目標をビデオ拡散モデルトレーニングに活用し,フレーム間の時間的一貫性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-01-11T12:26:23Z) - Style Injection in Diffusion: A Training-free Approach for Adapting Large-scale Diffusion Models for Style Transfer [19.355744690301403]
本研究では,事前学習した大規模拡散モデルに基づく新たな芸術的スタイル伝達手法を提案する。
実験の結果,提案手法は従来の手法と拡散型方式の両方で最先端の手法を超越していることがわかった。
論文 参考訳(メタデータ) (2023-12-11T09:53:12Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。