論文の概要: StyleGAN2 Distillation for Feed-forward Image Manipulation
- arxiv url: http://arxiv.org/abs/2003.03581v2
- Date: Thu, 22 Oct 2020 14:07:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 19:59:28.137349
- Title: StyleGAN2 Distillation for Feed-forward Image Manipulation
- Title(参考訳): フィードフォワード画像操作のためのstylegan2蒸留
- Authors: Yuri Viazovetskyi, Vladimir Ivashkin, Evgeny Kashin
- Abstract要約: StyleGAN2は、現実的な画像を生成する最先端のネットワークである。
本稿では,StyleGAN2の特定の画像操作を,ペア方式で訓練した画像間ネットワークに蒸留する方法を提案する。
- 参考スコア(独自算出の注目度): 5.5080625617632
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: StyleGAN2 is a state-of-the-art network in generating realistic images.
Besides, it was explicitly trained to have disentangled directions in latent
space, which allows efficient image manipulation by varying latent factors.
Editing existing images requires embedding a given image into the latent space
of StyleGAN2. Latent code optimization via backpropagation is commonly used for
qualitative embedding of real world images, although it is prohibitively slow
for many applications. We propose a way to distill a particular image
manipulation of StyleGAN2 into image-to-image network trained in paired way.
The resulting pipeline is an alternative to existing GANs, trained on unpaired
data. We provide results of human faces' transformation: gender swap,
aging/rejuvenation, style transfer and image morphing. We show that the quality
of generation using our method is comparable to StyleGAN2 backpropagation and
current state-of-the-art methods in these particular tasks.
- Abstract(参考訳): StyleGAN2は、現実的な画像を生成する最先端のネットワークである。
さらに、遅延空間の方向を乱すように明示的に訓練され、様々な遅延因子による効率的な画像操作を可能にした。
既存のイメージを編集するには、あるイメージをStyleGAN2の潜在空間に埋め込む必要がある。
バックプロパゲーションによる潜在コード最適化は、実世界の画像の質的埋め込みに一般的に用いられるが、多くのアプリケーションでは制限的に遅い。
本稿では,StyleGAN2の特定の画像操作を,ペアで訓練した画像間ネットワークに蒸留する方法を提案する。
結果として得られるパイプラインは、未ペアデータに基づいてトレーニングされた既存のGANに代わるものだ。
我々は、性別スワップ、老化/回復、スタイル転送、イメージモーフィングといった人間の顔の変換結果を提供する。
本手法による生成品質は,これらのタスクにおけるstylegan2バックプロパゲーションと現在の最先端手法に匹敵する。
関連論文リスト
- D2Styler: Advancing Arbitrary Style Transfer with Discrete Diffusion Methods [2.468658581089448]
D$2$Styler (Discrete Diffusion Styler) と呼ばれる新しいフレームワークを提案する。
本手法では,アダプティブインスタンス正規化(AdaIN)機能を逆拡散過程のコンテキストガイドとして用いる。
実験により、D$2$Stylerは高品質なスタイル変換画像を生成することが示された。
論文 参考訳(メタデータ) (2024-08-07T05:47:06Z) - Portrait Diffusion: Training-free Face Stylization with
Chain-of-Painting [64.43760427752532]
顔のスタイリゼーション(face stylization)とは、顔の特定の肖像画スタイルへの変換を指す。
現在の手法では、ファインチューン事前訓練された生成モデルに対するサンプルベースの適応アプローチが必要とされる。
本稿では,ポートレートディフュージョン(Portrait Diffusion)という,トレーニング不要な顔スタイル化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-03T06:48:35Z) - Improving Diffusion-based Image Translation using Asymmetric Gradient
Guidance [51.188396199083336]
非対称勾配法の適用により拡散サンプリングの逆過程を導出する手法を提案する。
我々のモデルの適応性は、画像融合モデルと潜時拡散モデルの両方で実装できる。
実験により,本手法は画像翻訳タスクにおいて,様々な最先端モデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-06-07T12:56:56Z) - Gradient Adjusting Networks for Domain Inversion [82.72289618025084]
StyleGAN2はセマンティック編集をサポートする強力な画像生成エンジンであることが実証された。
本稿では,画像毎の最適化手法を提案する。この手法は,生成元の重みを局所的に編集できるように,StyleGAN2ジェネレータをチューニングする。
我々の実験は、この非常にアクティブな領域における最先端技術よりも大きなパフォーマンス差を示している。
論文 参考訳(メタデータ) (2023-02-22T14:47:57Z) - StyleT2F: Generating Human Faces from Textual Description Using
StyleGAN2 [0.0]
StyleT2Fは、テキストを使用してStyleGAN2の出力を制御する方法である。
提案手法は,必要な特徴を正しくキャプチャし,入力テキストと出力画像との整合性を示す。
論文 参考訳(メタデータ) (2022-04-17T04:51:30Z) - Saliency Constrained Arbitrary Image Style Transfer using SIFT and DCNN [22.57205921266602]
一般的なニューラルスタイルの転送方法を使用する場合、スタイル画像のテクスチャや色は通常、コンテンツ画像に不完全に転送される。
本稿では,その効果を低減・回避するための新しいサリエンシ制約手法を提案する。
実験により、ソースイメージの正当性マップは正しいマッチングを見つけ出し、アーティファクトを避けるのに役立つことが示された。
論文 参考訳(メタデータ) (2022-01-14T09:00:55Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z) - StyleCLIP: Text-Driven Manipulation of StyleGAN Imagery [71.1862388442953]
StyleGAN画像操作のためのテキストベースのインターフェースを開発しています。
まず,ユーザが提案するテキストプロンプトに応答して,CLIPに基づく損失を利用して入力潜時ベクトルを変更する最適化手法を提案する。
次に、与えられた入力画像に対してテキスト誘導の潜時操作ステップを推論し、より高速で安定したテキストベースの操作を可能にする潜時マッパーについて述べる。
論文 参考訳(メタデータ) (2021-03-31T17:51:25Z) - Conditional Image Generation and Manipulation for User-Specified Content [6.6081578501076494]
テキスト・画像生成と操作のための単一パイプラインを提案する。
パイプラインの前半では、テキストで条件付けされたモデルである textStyleGAN を導入しています。
パイプラインの第2部では、事前にトレーニングされたtextStyleGANの重みを利用して、セマンティックな顔画像操作を行います。
論文 参考訳(メタデータ) (2020-05-11T08:05:00Z) - Exploiting Deep Generative Prior for Versatile Image Restoration and
Manipulation [181.08127307338654]
本研究は, 大規模自然画像に基づいて学習したGAN(Generative Adversarial Network)により, 得られた画像の有効利用方法を示す。
深層生成前駆体(DGP)は、色、パッチ、解像度、様々な劣化した画像の欠落したセマンティクスを復元するための説得力のある結果を提供する。
論文 参考訳(メタデータ) (2020-03-30T17:45:07Z) - P$^2$-GAN: Efficient Style Transfer Using Single Style Image [2.703193151632043]
スタイル転送は、与えられた画像を別の芸術的なスタイルに再レンダリングできる便利な画像合成技術である。
Generative Adversarial Network(GAN)は、ローカルスタイルパターンの表現能力を向上するために、このタスクに対して広く採用されているフレームワークである。
本稿では,ワンスタイル画像からストロークスタイルを効率的に学習できる新しいPatch Permutation GAN(P$2$-GAN)ネットワークを提案する。
論文 参考訳(メタデータ) (2020-01-21T12:08:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。