論文の概要: Progressively Unfreezing Perceptual GAN
- arxiv url: http://arxiv.org/abs/2006.10250v1
- Date: Thu, 18 Jun 2020 03:12:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 14:19:31.828415
- Title: Progressively Unfreezing Perceptual GAN
- Title(参考訳): 徐々に凍結しない知覚的gan
- Authors: Jinxuan Sun, Yang Chen, Junyu Dong and Guoqiang Zhong
- Abstract要約: 画像生成にはGAN(Generative Adversarial Network)が広く用いられているが、生成した画像はテクスチャの詳細が欠如している。
本稿では,テクスチャの細かい画像を生成するための一般的なフレームワークであるProgressively Unfreezing Perceptual GAN(PUPGAN)を提案する。
- 参考スコア(独自算出の注目度): 28.330940021951438
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversarial networks (GANs) are widely used in image generation
tasks, yet the generated images are usually lack of texture details. In this
paper, we propose a general framework, called Progressively Unfreezing
Perceptual GAN (PUPGAN), which can generate images with fine texture details.
Particularly, we propose an adaptive perceptual discriminator with a
pre-trained perceptual feature extractor, which can efficiently measure the
discrepancy between multi-level features of the generated and real images. In
addition, we propose a progressively unfreezing scheme for the adaptive
perceptual discriminator, which ensures a smooth transfer process from a large
scale classification task to a specified image generation task. The qualitative
and quantitative experiments with comparison to the classical baselines on
three image generation tasks, i.e. single image super-resolution, paired
image-to-image translation and unpaired image-to-image translation demonstrate
the superiority of PUPGAN over the compared approaches.
- Abstract(参考訳): 画像生成にはGAN(Generative Adversarial Network)が広く用いられているが、生成した画像はテクスチャの詳細を欠いている。
本稿では、テクスチャの細かい画像を生成するための一般的なフレームワーク、Progressively Unfreezing Perceptual GAN(PUPGAN)を提案する。
特に,前訓練された知覚特徴抽出器を用いた適応的知覚判別器を提案する。
さらに,大規模分類タスクから特定画像生成タスクへのスムーズな転送プロセスを保証する適応的知覚判別器の段階的凍結スキームを提案する。
3つの画像生成タスク、すなわち1つの画像の超解像、ペア画像から画像への変換、非ペア画像から画像への変換の古典的なベースラインと比較した質的かつ定量的な実験は、比較したアプローチよりもpupganが優れていることを示している。
関連論文リスト
- Prompt Recovery for Image Generation Models: A Comparative Study of Discrete Optimizers [58.50071292008407]
本稿では,近年の離散最適化手法の突発的逆転問題に対する直接比較について述べる。
逆プロンプトと基底真理画像とのCLIP類似性に着目し, 逆プロンプトが生成する画像と基底真理画像との類似性について検討した。
論文 参考訳(メタデータ) (2024-08-12T21:35:59Z) - FreeCompose: Generic Zero-Shot Image Composition with Diffusion Prior [50.0535198082903]
我々は,複数の入力イメージを単一のコヒーレントなイメージに統合する,新しい画像合成手法を提案する。
本稿では, 大規模事前学習拡散モデルに内在する強力な生成的前駆体を利用して, 汎用画像合成を実現する可能性を示す。
論文 参考訳(メタデータ) (2024-07-06T03:35:43Z) - Attack Deterministic Conditional Image Generative Models for Diverse and
Controllable Generation [17.035117118768945]
本稿では,多様な制御可能な画像生成のためのプラグイン投影勾配降下法(PGD)を提案する。
鍵となる考え方は、入力条件に微小摂動を加えることで、事前訓練された決定論的生成モデルを攻撃することである。
我々の研究は、低レベルの視覚タスクに敵攻撃を適用するための扉を開く。
論文 参考訳(メタデータ) (2024-03-13T06:57:23Z) - Image Deblurring using GAN [0.0]
本研究は,GAN(Generative Adversarial Network)の画像処理への応用に焦点を当てた。
プロジェクトはGANモデルのインフローを定義し、GoPROデータセットでトレーニングする。
ネットワークは画像のシャープなピクセルを取得でき、平均29.3ピーク信号対雑音比(PSNR)と0.72構造類似度評価(SSIM)を実現している。
論文 参考訳(メタデータ) (2023-12-15T02:43:30Z) - Steered Diffusion: A Generalized Framework for Plug-and-Play Conditional
Image Synthesis [62.07413805483241]
Steered Diffusionは、無条件生成のために訓練された拡散モデルを用いたゼロショット条件画像生成のためのフレームワークである。
塗装,着色,テキスト誘導セマンティック編集,画像超解像などのタスクに対して,ステアリング拡散を用いた実験を行った。
論文 参考訳(メタデータ) (2023-09-30T02:03:22Z) - Wavelet-based Unsupervised Label-to-Image Translation [9.339522647331334]
本稿では、自己教師付きセグメンテーション損失と全画像ウェーブレットに基づく識別を併用した、SIS(USIS)のための新しいアン教師付きパラダイムを提案する。
3つの挑戦的なデータセットで方法論を検証し、ペアモデルとアンペアモデルのパフォーマンスギャップを橋渡しする能力を実証する。
論文 参考訳(メタデータ) (2023-05-16T17:48:44Z) - Few-shot Image Generation via Masked Discrimination [20.998032566820907]
少ないショット画像生成は、限られたデータで高品質で多彩な画像を生成することを目的としている。
現代のGANでは、ほんの数枚の画像で訓練された場合、過度な適合を避けることは困難である。
本研究は,マスク付き識別による少数ショットGAN適応を実現するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-10-27T06:02:22Z) - Semantic Image Synthesis via Diffusion Models [159.4285444680301]
Denoising Diffusion Probabilistic Models (DDPM) は様々な画像生成タスクにおいて顕著な成功を収めた。
セマンティック画像合成に関する最近の研究は、主に「GAN(Generative Adversarial Nets)」に追従している。
論文 参考訳(メタデータ) (2022-06-30T18:31:51Z) - IMAGINE: Image Synthesis by Image-Guided Model Inversion [79.4691654458141]
IMGE-Guided Model INvErsion (IMAGINE) と呼ばれるインバージョンベースの手法を導入し、高品質で多様な画像を生成します。
我々は,事前学習した分類器から画像意味論の知識を活用し,妥当な世代を実現する。
IMAGINEは,1)合成中の意味的特異性制約を同時に実施し,2)ジェネレータトレーニングなしでリアルな画像を生成し,3)生成過程を直感的に制御する。
論文 参考訳(メタデータ) (2021-04-13T02:00:24Z) - Generative Hierarchical Features from Synthesizing Images [65.66756821069124]
画像合成の学習は、広範囲のアプリケーションにまたがって一般化可能な顕著な階層的な視覚的特徴をもたらす可能性があることを示す。
生成的階層的特徴(Generative Hierarchical Feature, GH-Feat)と呼ばれるエンコーダが生成する視覚的特徴は、生成的タスクと識別的タスクの両方に強い伝達性を有する。
論文 参考訳(メタデータ) (2020-07-20T18:04:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。