論文の概要: cGANs for Cartoon to Real-life Images
- arxiv url: http://arxiv.org/abs/2101.09793v1
- Date: Sun, 24 Jan 2021 20:26:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-16 09:11:05.303135
- Title: cGANs for Cartoon to Real-life Images
- Title(参考訳): 実物画像へのカートゥーン用cGAN
- Authors: Pranjal Singh Rajput, Kanya Satis, Sonnya Dellarosa, Wenxuan Huang,
Obinna Agba
- Abstract要約: このプロジェクトは、漫画化された画像からなるデータセットに適用することによって、Pix2Pixモデルの堅牢性を評価することを目指している。
ネットワークを訓練して、漫画化された画像から実際の画像を生成することができるはずです。
- 参考スコア(独自算出の注目度): 0.4724825031148411
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The image-to-image translation is a learning task to establish a visual
mapping between an input and output image. The task has several variations
differentiated based on the purpose of the translation, such as synthetic to
real translation, photo to caricature translation, and many others. The problem
has been tackled using different approaches, either through traditional
computer vision methods, as well as deep learning approaches in recent trends.
One approach currently deemed popular and effective is using the conditional
generative adversarial network, also known shortly as cGAN. It is adapted to
perform image-to-image translation tasks with typically two networks: a
generator and a discriminator. This project aims to evaluate the robustness of
the Pix2Pix model by applying the Pix2Pix model to datasets consisting of
cartoonized images. Using the Pix2Pix model, it should be possible to train the
network to generate real-life images from the cartoonized images.
- Abstract(参考訳): 画像から画像への変換は、入力画像と出力画像の間の視覚マッピングを確立するための学習タスクです。
このタスクは、合成から現実への翻訳、写真から似顔絵への翻訳など、翻訳の目的によって異なるいくつかのバリエーションがある。
この問題は、従来のコンピュータビジョンの方法や、最近のトレンドにおけるディープラーニングのアプローチなど、さまざまなアプローチで取り組まれている。
現在普及し、有効な1つのアプローチはcGANとしてまたすぐに知られている条件付き生成のadversarialネットワークを使用することです。
典型的には2つのネットワーク(ジェネレータと判別器)で画像から画像への翻訳タスクを実行するように適合する。
このプロジェクトは、漫画化された画像からなるデータセットにPix2Pixモデルを適用することにより、Pix2Pixモデルの堅牢性を評価することを目的とする。
Pix2Pixモデルを使用すると、ネットワークを訓練して、漫画化された画像から実際の画像を生成することができます。
関連論文リスト
- SCONE-GAN: Semantic Contrastive learning-based Generative Adversarial
Network for an end-to-end image translation [18.93434486338439]
SCONE-GANはリアルで多様な風景画像を生成する学習に有効であることが示されている。
より現実的で多様な画像生成のために、スタイル参照画像を導入します。
画像から画像への変換と屋外画像のスタイリングのための提案アルゴリズムを検証した。
論文 参考訳(メタデータ) (2023-11-07T10:29:16Z) - Multi-domain Unsupervised Image-to-Image Translation with Appearance
Adaptive Convolution [62.4972011636884]
本稿では,MDUIT(Multi-domain unsupervised image-to-image translation)フレームワークを提案する。
我々は、分解されたコンテンツ特徴と外観適応的畳み込みを利用して、画像をターゲットの外観に変換する。
提案手法は,最先端の手法と比較して,複数の領域で視覚的に多様かつ妥当な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-02-06T14:12:34Z) - Font Completion and Manipulation by Cycling Between Multi-Modality
Representations [113.26243126754704]
中間表現としてグラフを用いた2次元グラフィックオブジェクトとしてフォントグリフの生成を探求する。
我々は、画像エンコーダと画像の間のグラフで、モダリティサイクルのイメージ・ツー・イメージ構造を定式化する。
本モデルでは,画像から画像までのベースラインと,それ以前のグリフ補完手法よりも改善された結果を生成する。
論文 参考訳(メタデータ) (2021-08-30T02:43:29Z) - StEP: Style-based Encoder Pre-training for Multi-modal Image Synthesis [68.3787368024951]
マルチモーダルイメージ・ツー・イメージ(I2I)翻訳のための新しいアプローチを提案する。
我々は、出力領域の可変性をモデル化する潜伏埋め込みをジェネレータと共同で学習する。
具体的には、新しいプロキシタスクを用いて汎用的なスタイルエンコーダを事前訓練し、任意のドメインから低次元のスタイル潜在空間への画像の埋め込みを学習する。
論文 参考訳(メタデータ) (2021-04-14T19:58:24Z) - toon2real: Translating Cartoon Images to Realistic Images [1.4419517737536707]
このタスクを実行するためにいくつかの最先端モデルを適用するが、高品質な翻訳には失敗する。
本稿では,漫画領域からフォトリアリスティック領域への画像変換のためのCycleGANモデルに基づく手法を提案する。
実験の結果を実証し,提案手法が他の最先端技術であるUNITと比較して最も低いFrechet Inception Distanceスコアと優れた結果を得たことを示す。
論文 参考訳(メタデータ) (2021-02-01T20:22:05Z) - Unpaired Image-to-Image Translation via Latent Energy Transport [61.62293304236371]
画像から画像への変換は、2つの視覚領域間の識別的ターゲットスタイルに変換しながら、ソースの内容を保存することを目的としている。
本稿では,この課題に対して,事前訓練されたオートエンコーダの潜在空間にエネルギーベースモデル(EBM)を配置することを提案する。
我々のモデルは1024$times$1024- resolution unpaired image translationに適用できる最初のモデルである。
論文 参考訳(メタデータ) (2020-12-01T17:18:58Z) - PREGAN: Pose Randomization and Estimation for Weakly Paired Image Style
Translation [11.623477199795037]
本稿では2つの画像のコンテンツがポーズの誤りと一致しているスタイル翻訳のための弱いペアリング設定を提案する。
PreGANは、シミュレーションデータと実世界の収集データの両方で検証され、有効性を示す。
論文 参考訳(メタデータ) (2020-10-31T16:11:11Z) - Unsupervised Image-to-Image Translation via Pre-trained StyleGAN2
Network [73.5062435623908]
本稿では,一連のモデル変換によって対象領域に新たなモデルを生成する新しいI2I翻訳手法を提案する。
潜在ベクトルを生成されたモデルに入力することで、ソースドメインとターゲットドメインの間でI2I翻訳を行うことができる。
論文 参考訳(メタデータ) (2020-10-12T13:51:40Z) - Generating Embroidery Patterns Using Image-to-Image Translation [2.055949720959582]
そこで本研究では,2つの機械学習手法を用いて刺刺画像から画像への変換を行う。
私たちのゴールは、ユーザのアップロードした画像から、刺青画像に似たプレビュー画像を生成することです。
実験結果から,これらの手法がユーザ画像の刺青バージョンを近似したプレビュー生成に成功していることが示された。
論文 参考訳(メタデータ) (2020-03-05T20:32:40Z) - Supervised and Unsupervised Learning of Parameterized Color Enhancement [112.88623543850224]
我々は、教師なし学習と教師なし学習の両方を用いて、画像翻訳タスクとしての色強調の問題に取り組む。
我々は,MIT-Adobe FiveKベンチマークにおいて,教師付き(ペアデータ)と教師なし(ペアデータ)の2つの画像強調手法と比較して,最先端の結果が得られた。
20世紀初頭の写真や暗黒ビデオフレームに応用することで,本手法の一般化能力を示す。
論文 参考訳(メタデータ) (2019-12-30T13:57:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。