論文の概要: GANILLA: Generative Adversarial Networks for Image to Illustration
Translation
- arxiv url: http://arxiv.org/abs/2002.05638v2
- Date: Fri, 14 Feb 2020 09:46:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 13:31:34.158478
- Title: GANILLA: Generative Adversarial Networks for Image to Illustration
Translation
- Title(参考訳): ganilla: 画像からイラストへの翻訳のための生成的広告ネットワーク
- Authors: Samet Hicsonmez, Nermin Samet, Emre Akbas, Pinar Duygulu
- Abstract要約: 現状のイメージ・ツー・イメージ翻訳モデルでは,スタイルとコンテンツのいずれかを変換することに成功したが,同時に両者を転送することはできなかった。
本稿では,この問題に対処する新しいジェネレータネットワークを提案し,その結果のネットワークがスタイルとコンテンツのバランスを良くすることを示す。
- 参考スコア(独自算出の注目度): 12.55972766570669
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we explore illustrations in children's books as a new domain
in unpaired image-to-image translation. We show that although the current
state-of-the-art image-to-image translation models successfully transfer either
the style or the content, they fail to transfer both at the same time. We
propose a new generator network to address this issue and show that the
resulting network strikes a better balance between style and content.
There are no well-defined or agreed-upon evaluation metrics for unpaired
image-to-image translation. So far, the success of image translation models has
been based on subjective, qualitative visual comparison on a limited number of
images. To address this problem, we propose a new framework for the
quantitative evaluation of image-to-illustration models, where both content and
style are taken into account using separate classifiers. In this new evaluation
framework, our proposed model performs better than the current state-of-the-art
models on the illustrations dataset. Our code and pretrained models can be
found at https://github.com/giddyyupp/ganilla.
- Abstract(参考訳): 本稿では,未完成のイメージ・ツー・イメージ翻訳の新たな領域として,児童書の挿絵を探求する。
現状の画像から画像への翻訳モデルは、スタイルとコンテンツの両方を転送することに成功したが、両者を同時に転送することはできなかった。
本稿では,この問題に対処する新しいジェネレータネットワークを提案し,その結果のネットワークがスタイルとコンテンツのバランスを良くすることを示す。
未ペア画像から画像への変換のための、明確に定義された、あるいは合意された評価指標は存在しない。
これまでのところ、画像翻訳モデルの成功は、限られた数の画像に対する主観的、定性的比較に基づいている。
この問題に対処するために,コンテンツとスタイルを別個の分類器を用いて考慮し,画像と画像の照合モデルの定量的評価を行うフレームワークを提案する。
この新しい評価フレームワークでは,提案モデルが現在のデータ集合の最先端モデルよりも優れた性能を発揮する。
私たちのコードと事前トレーニングされたモデルは、https://github.com/giddyyupp/ganillaで確認できます。
関連論文リスト
- Image Regeneration: Evaluating Text-to-Image Model via Generating Identical Image with Multimodal Large Language Models [54.052963634384945]
画像再生タスクを導入し,テキスト・ツー・イメージ・モデルの評価を行う。
我々はGPT4Vを用いて参照画像とT2Iモデルのテキスト入力のギャップを埋める。
また、生成した画像の品質を高めるために、ImageRepainterフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-14T13:52:43Z) - Unsupervised Image-to-Image Translation with Generative Prior [103.54337984566877]
教師なし画像画像変換は、ペアデータなしで2つの視覚領域間の翻訳を学習することを目的としている。
本稿では,GP-UNIT(Generative Prior-guided UN Image-to-image Translation)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-07T17:59:23Z) - Zero-Shot Image-to-Text Generation for Visual-Semantic Arithmetic [72.60554897161948]
最近のテキストと画像のマッチングモデルは、未修正画像と文の大きなコーパスに対してコントラスト学習を適用している。
本研究では、そのようなモデルを用いて、推論時に画像が与えられた記述テキストを生成する。
結果として得られたキャプションは、教師付きキャプション法によるキャプションよりもはるかに制限を受けない。
論文 参考訳(メタデータ) (2021-11-29T11:01:49Z) - Fine-Tuning StyleGAN2 For Cartoon Face Generation [0.0]
本稿では,スタイルガン2事前学習モデルの微調整により,対象領域の画像を生成する新しい画像から画像への変換手法を提案する。
stylegan2モデルは、アンバランスデータセット上の教師なしI2I翻訳に適している。
論文 参考訳(メタデータ) (2021-06-22T14:00:10Z) - toon2real: Translating Cartoon Images to Realistic Images [1.4419517737536707]
このタスクを実行するためにいくつかの最先端モデルを適用するが、高品質な翻訳には失敗する。
本稿では,漫画領域からフォトリアリスティック領域への画像変換のためのCycleGANモデルに基づく手法を提案する。
実験の結果を実証し,提案手法が他の最先端技術であるUNITと比較して最も低いFrechet Inception Distanceスコアと優れた結果を得たことを示す。
論文 参考訳(メタデータ) (2021-02-01T20:22:05Z) - Unsupervised Image-to-Image Translation via Pre-trained StyleGAN2
Network [73.5062435623908]
本稿では,一連のモデル変換によって対象領域に新たなモデルを生成する新しいI2I翻訳手法を提案する。
潜在ベクトルを生成されたモデルに入力することで、ソースドメインとターゲットドメインの間でI2I翻訳を行うことができる。
論文 参考訳(メタデータ) (2020-10-12T13:51:40Z) - Retrieval Guided Unsupervised Multi-domain Image-to-Image Translation [59.73535607392732]
画像から画像への変換は、ある視覚領域から別の領域へ画像を変換するマッピングを学ぶことを目的としている。
本稿では,画像から画像への変換作業を支援するための画像検索システムを提案する。
論文 参考訳(メタデータ) (2020-08-11T20:11:53Z) - COCO-FUNIT: Few-Shot Unsupervised Image Translation with a Content
Conditioned Style Encoder [70.23358875904891]
教師なし画像画像変換は、与えられた領域内の画像と異なる領域内の類似画像とのマッピングを学習することを目的としている。
入力画像に条件付けされたサンプル画像のスタイル埋め込みを計算し、新しい数ショット画像変換モデルCOCO-FUNITを提案する。
本モデルは,コンテンツ損失問題に対処する上での有効性を示す。
論文 参考訳(メタデータ) (2020-07-15T02:01:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。