論文の概要: toon2real: Translating Cartoon Images to Realistic Images
- arxiv url: http://arxiv.org/abs/2102.01143v1
- Date: Mon, 1 Feb 2021 20:22:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-03 21:22:16.062265
- Title: toon2real: Translating Cartoon Images to Realistic Images
- Title(参考訳): toon2real:漫画画像をリアルな画像に翻訳する
- Authors: K. M. Arefeen Sultan, Mohammad Imrul Jubair, MD. Nahidul Islam, Sayed
Hossain Khan
- Abstract要約: このタスクを実行するためにいくつかの最先端モデルを適用するが、高品質な翻訳には失敗する。
本稿では,漫画領域からフォトリアリスティック領域への画像変換のためのCycleGANモデルに基づく手法を提案する。
実験の結果を実証し,提案手法が他の最先端技術であるUNITと比較して最も低いFrechet Inception Distanceスコアと優れた結果を得たことを示す。
- 参考スコア(独自算出の注目度): 1.4419517737536707
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In terms of Image-to-image translation, Generative Adversarial Networks
(GANs) has achieved great success even when it is used in the unsupervised
dataset. In this work, we aim to translate cartoon images to photo-realistic
images using GAN. We apply several state-of-the-art models to perform this
task; however, they fail to perform good quality translations. We observe that
the shallow difference between these two domains causes this issue. Based on
this idea, we propose a method based on CycleGAN model for image translation
from cartoon domain to photo-realistic domain. To make our model efficient, we
implemented Spectral Normalization which added stability in our model. We
demonstrate our experimental results and show that our proposed model has
achieved the lowest Frechet Inception Distance score and better results
compared to another state-of-the-art technique, UNIT.
- Abstract(参考訳): 画像から画像への変換に関しては、GAN(Generative Adversarial Networks)は教師なしデータセットでも大きな成功を収めている。
本研究では,GANを用いた漫画画像から写真実写画像への翻訳を目的とする。
このタスクを実行するためにいくつかの最先端モデルを適用するが、高品質な翻訳には失敗する。
これら2つのドメイン間の浅い差がこの問題を引き起こすのを観察する。
そこで本研究では,漫画領域からフォトリアリスティック領域への画像翻訳のためのCycleGANモデルに基づく手法を提案する。
モデルを効率よくするために、我々のモデルに安定性を加えたスペクトル正規化を実装した。
実験の結果を実証し,提案手法が他の最先端技術であるUNITと比較して最も低いFrechet Inception Distanceスコアと優れた結果を得たことを示す。
関連論文リスト
- SCONE-GAN: Semantic Contrastive learning-based Generative Adversarial
Network for an end-to-end image translation [18.93434486338439]
SCONE-GANはリアルで多様な風景画像を生成する学習に有効であることが示されている。
より現実的で多様な画像生成のために、スタイル参照画像を導入します。
画像から画像への変換と屋外画像のスタイリングのための提案アルゴリズムを検証した。
論文 参考訳(メタデータ) (2023-11-07T10:29:16Z) - Improving Diffusion-based Image Translation using Asymmetric Gradient
Guidance [51.188396199083336]
非対称勾配法の適用により拡散サンプリングの逆過程を導出する手法を提案する。
我々のモデルの適応性は、画像融合モデルと潜時拡散モデルの両方で実装できる。
実験により,本手法は画像翻訳タスクにおいて,様々な最先端モデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-06-07T12:56:56Z) - NeRFInvertor: High Fidelity NeRF-GAN Inversion for Single-shot Real
Image Animation [66.0838349951456]
Nerfベースの生成モデルは、一貫した3次元幾何で高品質な画像を生成する能力を示している。
本研究では,このNeRF-GANモデルを外科的に微調整し,実物体の高忠実度アニメーションを単一画像のみで実現するための普遍的手法を提案する。
論文 参考訳(メタデータ) (2022-11-30T18:36:45Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Fine-Tuning StyleGAN2 For Cartoon Face Generation [0.0]
本稿では,スタイルガン2事前学習モデルの微調整により,対象領域の画像を生成する新しい画像から画像への変換手法を提案する。
stylegan2モデルは、アンバランスデータセット上の教師なしI2I翻訳に適している。
論文 参考訳(メタデータ) (2021-06-22T14:00:10Z) - cGANs for Cartoon to Real-life Images [0.4724825031148411]
このプロジェクトは、漫画化された画像からなるデータセットに適用することによって、Pix2Pixモデルの堅牢性を評価することを目指している。
ネットワークを訓練して、漫画化された画像から実際の画像を生成することができるはずです。
論文 参考訳(メタデータ) (2021-01-24T20:26:31Z) - Unsupervised Image-to-Image Translation via Pre-trained StyleGAN2
Network [73.5062435623908]
本稿では,一連のモデル変換によって対象領域に新たなモデルを生成する新しいI2I翻訳手法を提案する。
潜在ベクトルを生成されたモデルに入力することで、ソースドメインとターゲットドメインの間でI2I翻訳を行うことができる。
論文 参考訳(メタデータ) (2020-10-12T13:51:40Z) - COCO-FUNIT: Few-Shot Unsupervised Image Translation with a Content
Conditioned Style Encoder [70.23358875904891]
教師なし画像画像変換は、与えられた領域内の画像と異なる領域内の類似画像とのマッピングを学習することを目的としている。
入力画像に条件付けされたサンプル画像のスタイル埋め込みを計算し、新しい数ショット画像変換モデルCOCO-FUNITを提案する。
本モデルは,コンテンツ損失問題に対処する上での有効性を示す。
論文 参考訳(メタデータ) (2020-07-15T02:01:14Z) - Domain Adaptation for Image Dehazing [72.15994735131835]
既存のほとんどの方法は、合成ヘイズ画像のデハージングモデルを訓練するが、ドメインシフトによる実際のヘイズ画像の一般化は困難である。
画像変換モジュールと2つの画像デハージングモジュールからなるドメイン適応パラダイムを提案する。
実世界の合成画像と実世界の画像の両方で実験結果から,我々のモデルは最先端の脱ハージングアルゴリズムに対して好適に機能することが示された。
論文 参考訳(メタデータ) (2020-05-10T13:54:56Z) - GANILLA: Generative Adversarial Networks for Image to Illustration
Translation [12.55972766570669]
現状のイメージ・ツー・イメージ翻訳モデルでは,スタイルとコンテンツのいずれかを変換することに成功したが,同時に両者を転送することはできなかった。
本稿では,この問題に対処する新しいジェネレータネットワークを提案し,その結果のネットワークがスタイルとコンテンツのバランスを良くすることを示す。
論文 参考訳(メタデータ) (2020-02-13T17:12:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。