論文の概要: StyleTime: Style Transfer for Synthetic Time Series Generation
- arxiv url: http://arxiv.org/abs/2209.11306v1
- Date: Thu, 22 Sep 2022 20:42:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 16:58:56.912389
- Title: StyleTime: Style Transfer for Synthetic Time Series Generation
- Title(参考訳): StyleTime: 合成時系列生成のためのスタイル転送
- Authors: Yousef El-Laham, Svitlana Vyetrenko
- Abstract要約: 本稿では,時系列リアリズム特性に直接関係する時系列のスタイル化された特徴について紹介する。
本稿では,ある時系列の下位コンテンツ(トランド)と他の時系列のスタイル(分配特性)を組み合わせるために,明示的な特徴抽出手法を用いたスタイルタイムという新しいスタイリングアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 10.457423272041332
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural style transfer is a powerful computer vision technique that can
incorporate the artistic "style" of one image to the "content" of another. The
underlying theory behind the approach relies on the assumption that the style
of an image is represented by the Gram matrix of its features, which is
typically extracted from pre-trained convolutional neural networks (e.g.,
VGG-19). This idea does not straightforwardly extend to time series stylization
since notions of style for two-dimensional images are not analogous to notions
of style for one-dimensional time series. In this work, a novel formulation of
time series style transfer is proposed for the purpose of synthetic data
generation and enhancement. We introduce the concept of stylized features for
time series, which is directly related to the time series realism properties,
and propose a novel stylization algorithm, called StyleTime, that uses explicit
feature extraction techniques to combine the underlying content (trend) of one
time series with the style (distributional properties) of another. Further, we
discuss evaluation metrics, and compare our work to existing state-of-the-art
time series generation and augmentation schemes. To validate the effectiveness
of our methods, we use stylized synthetic data as a means for data augmentation
to improve the performance of recurrent neural network models on several
forecasting tasks.
- Abstract(参考訳): ニューラルスタイル転送は、ある画像の芸術的な「スタイル」を別の画像の「コンテンツ」に組み込むことができる強力なコンピュータビジョン技術である。
このアプローチの背後にある理論は、画像のスタイルがその特徴のグラム行列によって表されるという仮定に依存しており、通常は事前訓練された畳み込みニューラルネットワーク(例えばVGG-19)から抽出される。
2次元画像のスタイルの概念は1次元時系列のスタイルの概念と似ていないので、この考え方は直接時系列のスタイル化に拡張するものではない。
そこで本研究では,合成データ生成と拡張を目的とした時系列スタイル転送の新しい定式化を提案する。
本稿では,時系列リアリズム特性に直接関係する時系列のスタイル化機能の概念を導入し,特徴抽出手法を明示的特徴抽出手法を用いて,ある時系列の基盤となる内容(トレンド)を他の時系列のスタイル(分配特性)と組み合わせた新しいスタイル化アルゴリズムであるStyleTimeを提案する。
さらに,評価指標について検討し,既存の最先端の時系列生成と拡張スキームとの比較を行った。
提案手法の有効性を検証するため,データ拡張の手段としてスタイリング合成データを用い,複数の予測タスクにおける繰り返しニューラルネットワークモデルの性能向上を図る。
関連論文リスト
- ZePo: Zero-Shot Portrait Stylization with Faster Sampling [61.14140480095604]
本稿では,4つのサンプリングステップでコンテンツとスタイルの融合を実現する拡散モデルに基づく,インバージョンフリーなポートレートスタイリングフレームワークを提案する。
本稿では,一貫性機能における冗長な特徴をマージする機能統合戦略を提案し,注意制御の計算負荷を低減させる。
論文 参考訳(メタデータ) (2024-08-10T08:53:41Z) - HiCAST: Highly Customized Arbitrary Style Transfer with Adapter Enhanced
Diffusion Models [84.12784265734238]
Arbitrary Style Transfer (AST)の目標は、あるスタイル参照の芸術的特徴を所定の画像/ビデオに注入することである。
各種のセマンティックな手がかりに基づいてスタイリング結果を明示的にカスタマイズできるHiCASTを提案する。
新たな学習目標をビデオ拡散モデルトレーニングに活用し,フレーム間の時間的一貫性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-01-11T12:26:23Z) - Generative AI Model for Artistic Style Transfer Using Convolutional
Neural Networks [0.0]
芸術的なスタイルの転送は、ある画像の内容を別の芸術的なスタイルに融合させ、ユニークな視覚的な構成を作り出すことである。
本稿では,畳み込みニューラルネットワーク(CNN)を用いた新しいスタイル伝達手法の概要を概説する。
論文 参考訳(メタデータ) (2023-10-27T16:21:17Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - Learning Graph Neural Networks for Image Style Transfer [131.73237185888215]
最先端のパラメトリックおよび非パラメトリックなスタイル転送アプローチは、グローバルな統計アライメントによる局所的なスタイルパターンの歪んだり、パッチミスマッチによるアーティファクトを減らしたりする傾向にある。
本稿では,パラメトリック型と非パラメトリック型の両方のスタイライゼーションの欠如を緩和する,新しい半パラメトリック型ニューラルスタイルトランスファーフレームワークについて検討する。
論文 参考訳(メタデータ) (2022-07-24T07:41:31Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - STALP: Style Transfer with Auxiliary Limited Pairing [36.23393954839379]
本稿では,1対のソース画像と,そのスタイリング画像を用いた画像の例ベーススタイリング手法を提案する。
本研究では,対象画像に対するリアルタイムな意味論的スタイル転送が可能な画像翻訳ネットワークの訓練方法を示す。
論文 参考訳(メタデータ) (2021-10-20T11:38:41Z) - In the light of feature distributions: moment matching for Neural Style
Transfer [27.25600860698314]
スタイル転送は、ある画像のコンテンツを別の画像のグラフィカル/アーティスティックスタイルでレンダリングすることを目的としています。
この概念の現在の実装は、理論上、実用上重要な制限がある。
計算効率を保ちながら、希望するスタイルをより正確にマッチさせる新しいアプローチを提案します。
論文 参考訳(メタデータ) (2021-03-12T11:00:44Z) - Parameter-Free Style Projection for Arbitrary Style Transfer [64.06126075460722]
本稿では,パラメータフリー,高速,効果的なコンテンツスタイル変換のための特徴レベル変換手法であるStyle Projectionを提案する。
本稿では、任意の画像スタイルの転送にスタイル投影を利用するリアルタイムフィードフォワードモデルを提案する。
論文 参考訳(メタデータ) (2020-03-17T13:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。