論文の概要: Hierarchical Patch VAE-GAN: Generating Diverse Videos from a Single
Sample
- arxiv url: http://arxiv.org/abs/2006.12226v3
- Date: Thu, 22 Oct 2020 11:38:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 05:20:57.427515
- Title: Hierarchical Patch VAE-GAN: Generating Diverse Videos from a Single
Sample
- Title(参考訳): 階層型パッチVAE-GAN:単一サンプルから映像を生成する
- Authors: Shir Gur, Sagie Benaim, Lior Wolf
- Abstract要約: 本稿では,新しいパッチベースの変分オートエンコーダ(VAE)を導入する。
粗いスケールでは、私たちのパッチVAEが使われ、サンプルの多様性が保証されます。
より微細なスケールでは、パッチGANが細部をレンダリングし、高品質なビデオを生成する。
- 参考スコア(独自算出の注目度): 107.76407209269236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the task of generating diverse and novel videos from a single
video sample. Recently, new hierarchical patch-GAN based approaches were
proposed for generating diverse images, given only a single sample at training
time. Moving to videos, these approaches fail to generate diverse samples, and
often collapse into generating samples similar to the training video. We
introduce a novel patch-based variational autoencoder (VAE) which allows for a
much greater diversity in generation. Using this tool, a new hierarchical video
generation scheme is constructed: at coarse scales, our patch-VAE is employed,
ensuring samples are of high diversity. Subsequently, at finer scales, a
patch-GAN renders the fine details, resulting in high quality videos. Our
experiments show that the proposed method produces diverse samples in both the
image domain, and the more challenging video domain.
- Abstract(参考訳): 一つのビデオサンプルから多様で斬新なビデオを生成する作業について考察する。
近年,訓練時間に1つのサンプルのみを与えられた多様な画像を生成するための新しい階層的パッチガン法が提案されている。
ビデオに移行しても、これらのアプローチは多様なサンプルの生成に失敗し、しばしばトレーニングビデオに似たサンプル生成に崩壊する。
本稿では,新しいパッチベース変分オートエンコーダ (vae) を導入することで,より多様な生成が可能となる。
このツールを使用して,新しい階層的ビデオ生成方式を構築した。粗いスケールでは,パッチベイが採用され,サンプルの多様性が保証される。
その後、より微細なスケールで、パッチGANが細部をレンダリングし、高品質なビデオを生成する。
提案手法は画像領域とより困難な映像領域の両方において多種多様なサンプルを生成することを示す。
関連論文リスト
- One Style is All you Need to Generate a Video [0.9558392439655012]
学習された正弦波基底の集合に基づく新しい時間発生器を提案する。
本手法は,画像の内容に依存しない様々な動作の動的表現を学習し,異なるアクター間で伝達することができる。
論文 参考訳(メタデータ) (2023-10-27T01:17:48Z) - VIDM: Video Implicit Diffusion Models [75.90225524502759]
拡散モデルは、高品質で多様な画像の集合を合成するための強力な生成方法として登場した。
本研究では,移動の効果を暗黙の条件でモデル化する拡散モデルに基づく映像生成手法を提案する。
我々は,空間トランケーションのサンプリング,ロバストネスペナルティ,位置群正規化などの複数の戦略を提案することにより,生成されたビデオの品質を向上させる。
論文 参考訳(メタデータ) (2022-12-01T02:58:46Z) - String-based Molecule Generation via Multi-decoder VAE [56.465033997245776]
可変オートエンコーダ(VAE)による文字列型分子生成の問題点について検討する。
本稿では,そのタスクに対するVAEの性能を改善するための,シンプルで効果的なアイデアを提案する。
実験では,提案するVAEモデルを用いて,領域外分布からサンプルを生成する。
論文 参考訳(メタデータ) (2022-08-23T03:56:30Z) - FewGAN: Generating from the Joint Distribution of a Few Images [95.6635227371479]
本稿では,新しい,高品質で多様な画像を生成するための生成モデルFewGANを紹介する。
FewGANは、第1の粗いスケールで量子化を適用した階層的なパッチGANであり、その後、より微細なスケールで残った完全畳み込みGANのピラミッドが続く。
大規模な実験では、FewGANは定量的にも定性的にも基線より優れていることが示されている。
論文 参考訳(メタデータ) (2022-07-18T07:11:28Z) - Learning to Generate Novel Scene Compositions from Single Images and
Videos [32.131955417610655]
One-Shot GANは、トレーニングセットから1つの画像または1つのビデオのサンプルを生成することを学ぶ。
本研究では,シーンレイアウトのリアリズムとは別個に内部コンテンツを判断するためのコンテンツとレイアウトブランチを備えた2分岐判別器を提案する。
論文 参考訳(メタデータ) (2021-05-12T17:59:45Z) - A Hierarchical Transformation-Discriminating Generative Model for Few
Shot Anomaly Detection [93.38607559281601]
各トレーニングイメージのマルチスケールパッチ分布をキャプチャする階層的生成モデルを開発した。
この異常スコアは、スケール及び画像領域にわたる正しい変換のパッチベースの投票を集約して得られる。
論文 参考訳(メタデータ) (2021-04-29T17:49:48Z) - Generating Novel Scene Compositions from Single Images and Videos [21.92417902229955]
SIV-GANは,1つのトレーニング画像や1つのビデオクリップから新たなシーン合成を生成できる無条件生成モデルである。
従来の単一画像 GAN と比較すると,より多彩で高品質な画像を生成する一方で,単一の画像設定に制限されない。
論文 参考訳(メタデータ) (2021-03-24T17:59:07Z) - Non-Adversarial Video Synthesis with Learned Priors [53.26777815740381]
我々は、参照入力フレームを使わずに、遅延雑音ベクトルからビデオを生成する問題に焦点をあてる。
本研究では,入力潜時空間,繰り返しニューラルネットワークの重み付け,非対角学習によるジェネレータを協調的に最適化する手法を開発した。
提案手法は,既存の最先端手法と比較して高品質なビデオを生成する。
論文 参考訳(メタデータ) (2020-03-21T02:57:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。