論文の概要: Leveraging Image-based Generative Adversarial Networks for Time Series
Generation
- arxiv url: http://arxiv.org/abs/2112.08060v1
- Date: Wed, 15 Dec 2021 11:55:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 20:46:55.712776
- Title: Leveraging Image-based Generative Adversarial Networks for Time Series
Generation
- Title(参考訳): 時系列生成のための画像ベース生成広告ネットワークの活用
- Authors: Justin Hellermann, Stefan Lessmann
- Abstract要約: 本稿では,時系列生成における画像ベース生成対向ネットワークの利用を容易にするために,時間的回帰プロット表現を提案する。
IRPは、厳格な勾配ペナルティを持つ既製のワッサースタインGANを現実的な時系列のサンプリングに利用でき、特殊なRNNベースのGANよりも優れている。
- 参考スコア(独自算出の注目度): 4.9571232160914365
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative models synthesize image data with great success regarding sampling
quality, diversity and feature disentanglement. Generative models for time
series lack these benefits due to a missing representation, which captures
temporal dynamics and allows inversion for sampling. The paper proposes the
intertemporal return plot (IRP) representation to facilitate the use of
image-based generative adversarial networks for time series generation. The
representation proves effective in capturing time series characteristics and,
compared to alternative representations, benefits from invertibility and
scale-invariance. Empirical benchmarks confirm these features and demonstrate
that the IRP enables an off-the-shelf Wasserstein GAN with gradient penalty to
sample realistic time series, which outperform a specialized RNN-based GAN,
while simultaneously reducing model complexity.
- Abstract(参考訳): 生成モデルは、サンプリング品質、多様性、特徴の絡み合いに関して大きな成功を収めた画像データを合成する。
時系列生成モデルは、時間的ダイナミクスを捉え、サンプリングの反転を可能にする表現の欠如によるこれらの利点を欠いている。
本稿では,時系列生成における画像ベース生成対向ネットワークの利用を容易にするために,時間的回帰プロット(IRP)表現を提案する。
この表現は時系列特性のキャプチャに有効であり、他の表現と比較して可逆性とスケール不変性による利点が証明される。
実験的なベンチマークによってこれらの特徴が確認され、IRPが標準のワッサースタインGANに勾配のペナルティを付与し、特殊なRNNベースのGANより優れ、同時にモデルの複雑さを低減できることを示した。
関連論文リスト
- Time Step Generating: A Universal Synthesized Deepfake Image Detector [0.4488895231267077]
汎用合成画像検出器 Time Step Generating (TSG) を提案する。
TSGは、事前訓練されたモデルの再構築能力、特定のデータセット、サンプリングアルゴリズムに依存していない。
我々は,提案したTSGを大規模GenImageベンチマークで検証し,精度と一般化性の両方において大幅な改善を実現した。
論文 参考訳(メタデータ) (2024-11-17T09:39:50Z) - Stabilize the Latent Space for Image Autoregressive Modeling: A Unified Perspective [52.778766190479374]
遅延ベース画像生成モデルは、画像生成タスクにおいて顕著な成功を収めた。
同じ遅延空間を共有するにもかかわらず、自己回帰モデルは画像生成において LDM や MIM よりもかなり遅れている。
本稿では,画像生成モデルのための遅延空間を安定化する,単純だが効果的な離散画像トークン化手法を提案する。
論文 参考訳(メタデータ) (2024-10-16T12:13:17Z) - Sequential Posterior Sampling with Diffusion Models [15.028061496012924]
条件付き画像合成における逐次拡散後サンプリングの効率を向上させるため,遷移力学をモデル化する新しい手法を提案する。
本研究では,高フレームレート心エコー画像の現実的データセットに対するアプローチの有効性を実証する。
提案手法は,画像の拡散モデルとリアルタイム推論を必要とする他の領域における拡散モデルのリアルタイム適用の可能性を開く。
論文 参考訳(メタデータ) (2024-09-09T07:55:59Z) - PRformer: Pyramidal Recurrent Transformer for Multivariate Time Series Forecasting [82.03373838627606]
Transformerアーキテクチャにおける自己保持機構は、時系列予測において時間順序を符号化するために位置埋め込みを必要とする。
この位置埋め込みへの依存は、トランスフォーマーの時間的シーケンスを効果的に表現する能力を制限している、と我々は主張する。
本稿では,Prepreを標準的なTransformerエンコーダと統合し,様々な実世界のデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2024-08-20T01:56:07Z) - Efficient Visual State Space Model for Image Deblurring [83.57239834238035]
畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)は、画像復元において優れた性能を発揮している。
本稿では,画像のデブロアに対する簡易かつ効果的な視覚状態空間モデル(EVSSM)を提案する。
論文 参考訳(メタデータ) (2024-05-23T09:13:36Z) - Image Inpainting via Tractable Steering of Diffusion Models [54.13818673257381]
本稿では,トラクタブル確率モデル(TPM)の制約後部を正確に,かつ効率的に計算する能力を活用することを提案する。
具体的には、確率回路(PC)と呼ばれる表現型TPMのクラスを採用する。
提案手法は, 画像の全体的な品質とセマンティックコヒーレンスを, 計算オーバーヘッドを10%加えるだけで一貫的に改善できることを示す。
論文 参考訳(メタデータ) (2023-11-28T21:14:02Z) - TcGAN: Semantic-Aware and Structure-Preserved GANs with Individual
Vision Transformer for Fast Arbitrary One-Shot Image Generation [11.207512995742999]
画像の内部パッチから学習する生成的敵ネットワークを持つワンショット画像生成(OSG)は、世界中で注目を集めている。
本稿では,既存のワンショット画像生成手法の欠点を克服するために,個々の視覚変換器を用いた構造保存方式TcGANを提案する。
論文 参考訳(メタデータ) (2023-02-16T03:05:59Z) - Universal Generative Modeling in Dual-domain for Dynamic MR Imaging [22.915796840971396]
我々は,高度にアンダーサンプリングされた測定値の再構成を行うために,k-spaceとDu-al-Domainコラボレーティブユニバーサル生成モデル(DD-UGM)を提案する。
より正確には、画像領域とk空間領域の両方の先行成分を普遍的な生成モデルで抽出し、これらの先行成分を適応的に処理し、より高速に処理する。
論文 参考訳(メタデータ) (2022-12-15T03:04:48Z) - Auto-regressive Image Synthesis with Integrated Quantization [55.51231796778219]
本稿では,条件付き画像生成のための多目的フレームワークを提案する。
CNNの帰納バイアスと自己回帰の強力なシーケンスモデリングが組み込まれている。
提案手法は,最先端技術と比較して,優れた多彩な画像生成性能を実現する。
論文 参考訳(メタデータ) (2022-07-21T22:19:17Z) - High-Fidelity Synthesis with Disentangled Representation [60.19657080953252]
本稿では,不整合学習と高忠実度合成のためのID-GAN(Information-Distillation Generative Adrial Network)を提案する。
提案手法は, VAEモデルを用いて非交叉表現を学習し, 高忠実度合成のためのGAN生成器に追加のニュアンス変数で学習表現を蒸留する。
単純さにもかかわらず,提案手法は高効率であり,不整合表現を用いた最先端の手法に匹敵する画像生成品質を実現する。
論文 参考訳(メタデータ) (2020-01-13T14:39:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。