論文の概要: Unsupervised Image-to-Image Translation via Pre-trained StyleGAN2
Network
- arxiv url: http://arxiv.org/abs/2010.05713v2
- Date: Tue, 27 Oct 2020 01:18:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 07:26:28.177498
- Title: Unsupervised Image-to-Image Translation via Pre-trained StyleGAN2
Network
- Title(参考訳): 事前学習型スタイルGAN2ネットワークによる教師なし画像変換
- Authors: Jialu Huang, Jing Liao, Sam Kwong
- Abstract要約: 本稿では,一連のモデル変換によって対象領域に新たなモデルを生成する新しいI2I翻訳手法を提案する。
潜在ベクトルを生成されたモデルに入力することで、ソースドメインとターゲットドメインの間でI2I翻訳を行うことができる。
- 参考スコア(独自算出の注目度): 73.5062435623908
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image-to-Image (I2I) translation is a heated topic in academia, and it also
has been applied in real-world industry for tasks like image synthesis,
super-resolution, and colorization. However, traditional I2I translation
methods train data in two or more domains together. This requires lots of
computation resources. Moreover, the results are of lower quality, and they
contain many more artifacts. The training process could be unstable when the
data in different domains are not balanced, and modal collapse is more likely
to happen. We proposed a new I2I translation method that generates a new model
in the target domain via a series of model transformations on a pre-trained
StyleGAN2 model in the source domain. After that, we proposed an inversion
method to achieve the conversion between an image and its latent vector. By
feeding the latent vector into the generated model, we can perform I2I
translation between the source domain and target domain. Both qualitative and
quantitative evaluations were conducted to prove that the proposed method can
achieve outstanding performance in terms of image quality, diversity and
semantic similarity to the input and reference images compared to
state-of-the-art works.
- Abstract(参考訳): 画像から画像への変換(i2i)はアカデミアではホットな話題であり、画像合成、超高解像度、カラー化といった実業界にも応用されている。
しかし、従来のi2i翻訳法は2つ以上のドメインでデータを訓練する。
これは多くの計算資源を必要とする。
さらに、結果は品質が低く、さらに多くのアーティファクトが含まれています。
異なるドメイン内のデータがバランスが取れない場合、トレーニングプロセスは不安定になり、モダル崩壊がより起こりやすい。
我々は、ソースドメインの事前学習されたStyleGAN2モデル上で、一連のモデル変換を通じてターゲットドメインの新しいモデルを生成する新しいI2I翻訳手法を提案する。
その後,画像とその潜在ベクトル間の変換を実現するための逆変換法を提案する。
潜在ベクトルを生成されたモデルに入力することで、ソースドメインとターゲットドメインの間でI2I翻訳を行うことができる。
画像の質,多様性,意味的類似性の両面において,提案手法が優れた性能を発揮することを実証するために,定性的および定量的な評価を行った。
関連論文リスト
- UVCGAN v2: An Improved Cycle-Consistent GAN for Unpaired Image-to-Image
Translation [10.689788782893096]
I2I (unpaired image-to-image) 翻訳技術は、完全に教師なしの方法で2つのデータ領域間のマッピングを求める。
DMはFrechet distance(FID)の観点からI2I翻訳ベンチマークの最先端を保っている
この研究は、最近のUVCGANモデルを改善し、モデルアーキテクチャとトレーニング手順の近代化に資する。
論文 参考訳(メタデータ) (2023-03-28T19:46:34Z) - Smooth image-to-image translations with latent space interpolations [64.8170758294427]
マルチドメインイメージ・トゥ・イメージ(I2I)変換は、ターゲットドメインのスタイルに応じてソースイメージを変換することができる。
我々の正規化技術は、最先端のI2I翻訳を大きなマージンで改善できることを示す。
論文 参考訳(メタデータ) (2022-10-03T11:57:30Z) - BBDM: Image-to-image Translation with Brownian Bridge Diffusion Models [50.39417112077254]
BBDM(Brownian Bridge Diffusion Model)に基づく画像から画像への変換手法を提案する。
我々の知る限りでは、画像から画像への変換のためのブラウン橋拡散プロセスを提案する最初の作品である。
論文 参考訳(メタデータ) (2022-05-16T13:47:02Z) - Multi-domain Unsupervised Image-to-Image Translation with Appearance
Adaptive Convolution [62.4972011636884]
本稿では,MDUIT(Multi-domain unsupervised image-to-image translation)フレームワークを提案する。
我々は、分解されたコンテンツ特徴と外観適応的畳み込みを利用して、画像をターゲットの外観に変換する。
提案手法は,最先端の手法と比較して,複数の領域で視覚的に多様かつ妥当な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-02-06T14:12:34Z) - Unaligned Image-to-Image Translation by Learning to Reweight [40.93678165567824]
教師なし画像から画像への変換は、トレーニングにペア画像を用いることなく、ソースからターゲットドメインへのマッピングを学習することを目的としている。
教師なしのイメージ翻訳に不可欠な仮定は、2つの領域が整列しているということである。
重要度再重み付けに基づく画像の選択を提案し,重み付けを学習し,同時に自動翻訳を行う手法を開発した。
論文 参考訳(メタデータ) (2021-09-24T04:08:22Z) - Fine-Tuning StyleGAN2 For Cartoon Face Generation [0.0]
本稿では,スタイルガン2事前学習モデルの微調整により,対象領域の画像を生成する新しい画像から画像への変換手法を提案する。
stylegan2モデルは、アンバランスデータセット上の教師なしI2I翻訳に適している。
論文 参考訳(メタデータ) (2021-06-22T14:00:10Z) - Smoothing the Disentangled Latent Style Space for Unsupervised
Image-to-Image Translation [56.55178339375146]
イメージ・ツー・イメージ(I2I)マルチドメイン翻訳モデルは通常、セマンティックな結果の品質を用いて評価される。
本稿では,翻訳ネットワークがスムーズでゆがみのあるラテントスタイル空間を学習するのに役立つ,3つの特定の損失に基づく新たなトレーニングプロトコルを提案する。
論文 参考訳(メタデータ) (2021-06-16T17:58:21Z) - Unpaired Image-to-Image Translation via Latent Energy Transport [61.62293304236371]
画像から画像への変換は、2つの視覚領域間の識別的ターゲットスタイルに変換しながら、ソースの内容を保存することを目的としている。
本稿では,この課題に対して,事前訓練されたオートエンコーダの潜在空間にエネルギーベースモデル(EBM)を配置することを提案する。
我々のモデルは1024$times$1024- resolution unpaired image translationに適用できる最初のモデルである。
論文 参考訳(メタデータ) (2020-12-01T17:18:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。