論文の概要: Training End-to-end Single Image Generators without GANs
- arxiv url: http://arxiv.org/abs/2004.06014v1
- Date: Tue, 7 Apr 2020 17:58:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 22:45:26.003865
- Title: Training End-to-end Single Image Generators without GANs
- Title(参考訳): GANのないエンドツーエンド単一画像生成装置の訓練
- Authors: Yael Vinker and Nir Zabari and Yedid Hoshen
- Abstract要約: AugurOneは、単一画像生成モデルをトレーニングするための新しいアプローチである。
提案手法は,入力画像の非アフィン強化を用いて,アップスケーリングニューラルネットワークを訓練する。
制御画像合成が可能なコンパクト潜在空間を共同で学習する。
- 参考スコア(独自算出の注目度): 27.393821783237186
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present AugurOne, a novel approach for training single image generative
models. Our approach trains an upscaling neural network using non-affine
augmentations of the (single) input image, particularly including non-rigid
thin plate spline image warps. The extensive augmentations significantly
increase the in-sample distribution for the upsampling network enabling the
upscaling of highly variable inputs. A compact latent space is jointly learned
allowing for controlled image synthesis. Differently from Single Image GAN, our
approach does not require GAN training and takes place in an end-to-end fashion
allowing fast and stable training. We experimentally evaluate our method and
show that it obtains compelling novel animations of single-image, as well as,
state-of-the-art performance on conditional generation tasks e.g.
paint-to-image and edges-to-image.
- Abstract(参考訳): 我々は,単一画像生成モデルをトレーニングするための新しいアプローチであるAugurOneを提案する。
我々のアプローチは、特に薄板スプライン画像ワープを含む、単一入力画像の非アフィン増強を用いて、アップスケーリングニューラルネットワークを訓練する。
拡張により、高可変入力のアップスケーリングを可能にするアップサンプリングネットワークのインサンプル分布が大幅に増大する。
制御画像合成が可能なコンパクト潜在空間を共同で学習する。
Single Image GANと異なり、我々のアプローチはGANトレーニングを必要とせず、高速で安定したトレーニングを可能にするエンドツーエンドで行われます。
提案手法を実験的に評価し,条件付き生成タスク,例えばペイント・ツー・イメージやエッジ・ツー・イメージにおける最先端のアニメーションが得られることを示す。
関連論文リスト
- You Only Sample Once: Taming One-Step Text-to-Image Synthesis by Self-Cooperative Diffusion GANs [13.133574069588896]
YOSOは、高速でスケーラブルで高忠実なワンステップ画像合成のための新しい生成モデルであり、高いトレーニング安定性とモードカバレッジを持つ。
提案手法は,一段階のモデルトレーニングをスクラッチから行うことができ,競争性能が向上することを示す。
特に、YOSO-PixArt-$alpha$は、512の解像度でトレーニングされた1ステップで画像を生成することができる。
論文 参考訳(メタデータ) (2024-03-19T17:34:27Z) - Hyper-VolTran: Fast and Generalizable One-Shot Image to 3D Object
Structure via HyperNetworks [53.67497327319569]
画像から3Dまでを1つの視点から解く新しいニューラルレンダリング手法を提案する。
提案手法では, 符号付き距離関数を表面表現として使用し, 幾何エンコードボリュームとハイパーネットワークスによる一般化可能な事前処理を取り入れた。
本実験は,一貫した結果と高速な生成による提案手法の利点を示す。
論文 参考訳(メタデータ) (2023-12-24T08:42:37Z) - CleftGAN: Adapting A Style-Based Generative Adversarial Network To
Create Images Depicting Cleft Lip Deformity [2.1647227058902336]
深層学習に基づく口唇生成装置を構築し, 口唇のファクシミリを高精細度に表現した, ほぼ無限の人工画像を生成する。
我々は、StyleGAN-ADAの異なるバージョンをテストするトランスファー学習プロトコルを実行した。
様々な裂裂の変形を描写した訓練画像は、回転、スケーリング、色調整、背景のぼやけを調整するために前処理された。
論文 参考訳(メタデータ) (2023-10-12T01:25:21Z) - TcGAN: Semantic-Aware and Structure-Preserved GANs with Individual
Vision Transformer for Fast Arbitrary One-Shot Image Generation [11.207512995742999]
画像の内部パッチから学習する生成的敵ネットワークを持つワンショット画像生成(OSG)は、世界中で注目を集めている。
本稿では,既存のワンショット画像生成手法の欠点を克服するために,個々の視覚変換器を用いた構造保存方式TcGANを提案する。
論文 参考訳(メタデータ) (2023-02-16T03:05:59Z) - FewGAN: Generating from the Joint Distribution of a Few Images [95.6635227371479]
本稿では,新しい,高品質で多様な画像を生成するための生成モデルFewGANを紹介する。
FewGANは、第1の粗いスケールで量子化を適用した階層的なパッチGANであり、その後、より微細なスケールで残った完全畳み込みGANのピラミッドが続く。
大規模な実験では、FewGANは定量的にも定性的にも基線より優れていることが示されている。
論文 参考訳(メタデータ) (2022-07-18T07:11:28Z) - DynaST: Dynamic Sparse Transformer for Exemplar-Guided Image Generation [56.514462874501675]
本稿では,動的スパースアテンションに基づくトランスフォーマーモデルを提案する。
このアプローチの核心は、ある位置がフォーカスすべき最適なトークン数の変化をカバーすることに特化した、新しいダイナミックアテンションユニットです。
3つの応用、ポーズ誘導型人物画像生成、エッジベース顔合成、歪みのない画像スタイル転送の実験により、DynaSTは局所的な詳細において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2022-07-13T11:12:03Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - Enhance Images as You Like with Unpaired Learning [8.104571453311442]
本稿では,低照度から高照度の画像空間における一対多の関係を学習するために,軽量な一経路条件生成対向ネットワーク(cGAN)を提案する。
我々のネットワークは、様々な参照画像上に設定された所定の入力条件から、拡張された画像の集合を生成することを学習する。
我々のモデルは、ノイズとクリーンなデータセットの完全な教師付き手法と同等に競合する視覚的および定量的な結果を得る。
論文 参考訳(メタデータ) (2021-10-04T03:00:44Z) - StEP: Style-based Encoder Pre-training for Multi-modal Image Synthesis [68.3787368024951]
マルチモーダルイメージ・ツー・イメージ(I2I)翻訳のための新しいアプローチを提案する。
我々は、出力領域の可変性をモデル化する潜伏埋め込みをジェネレータと共同で学習する。
具体的には、新しいプロキシタスクを用いて汎用的なスタイルエンコーダを事前訓練し、任意のドメインから低次元のスタイル潜在空間への画像の埋め込みを学習する。
論文 参考訳(メタデータ) (2021-04-14T19:58:24Z) - Encoding Robustness to Image Style via Adversarial Feature Perturbations [72.81911076841408]
我々は、画像画素ではなく特徴統計を直接摂動することで、頑健なモデルを生成することで、敵の訓練に適応する。
提案手法であるAdvBN(Adversarial Batch Normalization)は,トレーニング中に最悪の機能摂動を発生させる単一ネットワーク層である。
論文 参考訳(メタデータ) (2020-09-18T17:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。