論文の概要: DiffStyleTS: Diffusion Model for Style Transfer in Time Series
- arxiv url: http://arxiv.org/abs/2510.11335v1
- Date: Mon, 13 Oct 2025 12:30:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.357913
- Title: DiffStyleTS: Diffusion Model for Style Transfer in Time Series
- Title(参考訳): DiffStyleTS:時系列のスタイル伝達のための拡散モデル
- Authors: Mayank Nagda, Phil Ostheimer, Justus Arweiler, Indra Jungjohann, Jennifer Werner, Dennis Wagner, Aparna Muraleedharan, Pouya Jafari, Jochen Schmid, Fabian Jirasek, Jakob Burger, Michael Bortz, Hans Hasse, Stephan Mandt, Marius Kloft, Sophie Fellenz,
- Abstract要約: スタイル転送は、ある信号の内容と別の信号のスタイルを組み合わせる。
DiffTSSTは,時系列をコンテンツやスタイル表現に分解する拡散ベースのフレームワークである。
DiffTSSTが効果的なスタイル転送を実現することを質的かつ定量的に示す。
- 参考スコア(独自算出の注目度): 28.526803659030545
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Style transfer combines the content of one signal with the style of another. It supports applications such as data augmentation and scenario simulation, helping machine learning models generalize in data-scarce domains. While well developed in vision and language, style transfer methods for time series data remain limited. We introduce DiffTSST, a diffusion-based framework that disentangles a time series into content and style representations via convolutional encoders and recombines them through a self-supervised attention-based diffusion process. At inference, encoders extract content and style from two distinct series, enabling conditional generation of novel samples to achieve style transfer. We demonstrate both qualitatively and quantitatively that DiffTSST achieves effective style transfer. We further validate its real-world utility by showing that data augmentation with DiffTSST improves anomaly detection in data-scarce regimes.
- Abstract(参考訳): スタイル転送は、ある信号の内容と別の信号のスタイルを組み合わせる。
データ拡張やシナリオシミュレーションといったアプリケーションをサポートし、マシンラーニングモデルがデータスカースドメインを一般化するのを支援する。
視覚と言語はよく発達しているが、時系列データのスタイル転送方法は限られている。
DiffTSSTは、時系列をコンボリューショナルエンコーダを介してコンテンツやスタイル表現に分解し、自己監督型注意に基づく拡散プロセスを通じてそれらを再結合する拡散ベースのフレームワークである。
推論において、エンコーダは2つの異なるシリーズから内容とスタイルを抽出し、新しいサンプルを条件付き生成してスタイル転送を実現する。
DiffTSSTが効果的なスタイル転送を実現することを質的かつ定量的に示す。
我々は、DiffTSSTによるデータ拡張により、データスカース方式における異常検出が改善されることを示し、実世界の実用性をさらに検証する。
関連論文リスト
- Multimodal Conditioned Diffusive Time Series Forecasting [16.72476672866356]
時系列予測(TSF)のためのマルチモーダル条件付き拡散モデルを提案する。
タイムスタンプとテキストを組み合わせて、異なるデータポイント間の時間的および意味的な相関を確立する。
実世界のベンチマークデータセットの実験では、提案したMCD-TSFモデルが最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2025-04-28T10:56:23Z) - UniVST: A Unified Framework for Training-free Localized Video Style Transfer [102.52552893495475]
本稿では拡散モデルに基づく局所化ビデオスタイル転送のための統一フレームワークUniVSTを提案する。
トレーニングを必要とせずに動作し、ビデオ全体にわたってスタイルを転送する既存の拡散方法に対して、明確なアドバンテージを提供する。
論文 参考訳(メタデータ) (2024-10-26T05:28:02Z) - TimeDART: A Diffusion Autoregressive Transformer for Self-Supervised Time Series Representation [6.047856576139978]
我々は,新しい自己教師型時系列事前学習フレームワークである textbfTimeDART を提案する。
TimeDARTは2つの強力な生成パラダイムを統合し、より伝達可能な表現を学ぶ。
時系列予測と分類のための公開データセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2024-10-08T06:08:33Z) - Distribution-Aware Data Expansion with Diffusion Models [55.979857976023695]
本研究では,分散型拡散モデルに基づくトレーニングフリーなデータ拡張フレームワークであるDistDiffを提案する。
DistDiffは、オリジナルデータのみにトレーニングされたモデルと比較して、さまざまなデータセットの精度を一貫して向上させる。
論文 参考訳(メタデータ) (2024-03-11T14:07:53Z) - HiCAST: Highly Customized Arbitrary Style Transfer with Adapter Enhanced
Diffusion Models [84.12784265734238]
Arbitrary Style Transfer (AST)の目標は、あるスタイル参照の芸術的特徴を所定の画像/ビデオに注入することである。
各種のセマンティックな手がかりに基づいてスタイリング結果を明示的にカスタマイズできるHiCASTを提案する。
新たな学習目標をビデオ拡散モデルトレーニングに活用し,フレーム間の時間的一貫性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-01-11T12:26:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。