論文の概要: cGANs for Cartoon to Real-life Images
- arxiv url: http://arxiv.org/abs/2101.09793v1
- Date: Sun, 24 Jan 2021 20:26:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-16 09:11:05.303135
- Title: cGANs for Cartoon to Real-life Images
- Title(参考訳): 実物画像へのカートゥーン用cGAN
- Authors: Pranjal Singh Rajput, Kanya Satis, Sonnya Dellarosa, Wenxuan Huang,
Obinna Agba
- Abstract要約: このプロジェクトは、漫画化された画像からなるデータセットに適用することによって、Pix2Pixモデルの堅牢性を評価することを目指している。
ネットワークを訓練して、漫画化された画像から実際の画像を生成することができるはずです。
- 参考スコア(独自算出の注目度): 0.4724825031148411
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The image-to-image translation is a learning task to establish a visual
mapping between an input and output image. The task has several variations
differentiated based on the purpose of the translation, such as synthetic to
real translation, photo to caricature translation, and many others. The problem
has been tackled using different approaches, either through traditional
computer vision methods, as well as deep learning approaches in recent trends.
One approach currently deemed popular and effective is using the conditional
generative adversarial network, also known shortly as cGAN. It is adapted to
perform image-to-image translation tasks with typically two networks: a
generator and a discriminator. This project aims to evaluate the robustness of
the Pix2Pix model by applying the Pix2Pix model to datasets consisting of
cartoonized images. Using the Pix2Pix model, it should be possible to train the
network to generate real-life images from the cartoonized images.
- Abstract(参考訳): 画像から画像への変換は、入力画像と出力画像の間の視覚マッピングを確立するための学習タスクです。
このタスクは、合成から現実への翻訳、写真から似顔絵への翻訳など、翻訳の目的によって異なるいくつかのバリエーションがある。
この問題は、従来のコンピュータビジョンの方法や、最近のトレンドにおけるディープラーニングのアプローチなど、さまざまなアプローチで取り組まれている。
現在普及し、有効な1つのアプローチはcGANとしてまたすぐに知られている条件付き生成のadversarialネットワークを使用することです。
典型的には2つのネットワーク(ジェネレータと判別器)で画像から画像への翻訳タスクを実行するように適合する。
このプロジェクトは、漫画化された画像からなるデータセットにPix2Pixモデルを適用することにより、Pix2Pixモデルの堅牢性を評価することを目的とする。
Pix2Pixモデルを使用すると、ネットワークを訓練して、漫画化された画像から実際の画像を生成することができます。
関連論文リスト
- Translatotron-V(ison): An End-to-End Model for In-Image Machine Translation [81.45400849638347]
In-image Machine Translation (IIMT) は、ソース言語のテキストを含む画像をターゲット言語の翻訳を含む画像に変換することを目的としている。
本稿では,4つのモジュールからなるエンドツーエンドIIMTモデルを提案する。
本モデルでは,70.9%のパラメータしか持たないカスケードモデルと比較して競争性能が向上し,画素レベルのエンド・ツー・エンドIIMTモデルよりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-07-03T08:15:39Z) - MUMU: Bootstrapping Multimodal Image Generation from Text-to-Image Data [50.94623170336122]
合成画像データと公開画像データのキャプション中の単語に対応する意味論的に意味のある画像作物を抽出し,マルチモーダルデータセットをブートストラップする。
我々のモデルMUMUは拡散復号器を備えた視覚言語モデルエンコーダで構成されており、単一の8xH100 GPUノードで訓練されている。
論文 参考訳(メタデータ) (2024-06-26T23:21:42Z) - Mapping New Realities: Ground Truth Image Creation with Pix2Pix Image-to-Image Translation [4.767259403145913]
本稿では,抽象地図画像から現実的な地上真実画像へ変換するPix2Pixの新たな応用について検討する。
本稿では,Pix2Pixモデルを用いた高忠実度データセットの生成について述べる。
論文 参考訳(メタデータ) (2024-04-30T05:11:32Z) - High-Resolution Image Translation Model Based on Grayscale Redefinition [3.6996084306161277]
本稿では,異なる領域間の画像翻訳のための革新的な手法を提案する。
高解像度画像翻訳タスクでは、グレースケール調整法を用いてピクセルレベルの変換を行う。
他のタスクでは、Pix2PixHDモデルを使い、粗大な生成装置、マルチスケールの判別器、画像翻訳性能を向上させるために損失の改善を行う。
論文 参考訳(メタデータ) (2024-03-26T12:21:47Z) - SCONE-GAN: Semantic Contrastive learning-based Generative Adversarial
Network for an end-to-end image translation [18.93434486338439]
SCONE-GANはリアルで多様な風景画像を生成する学習に有効であることが示されている。
より現実的で多様な画像生成のために、スタイル参照画像を導入します。
画像から画像への変換と屋外画像のスタイリングのための提案アルゴリズムを検証した。
論文 参考訳(メタデータ) (2023-11-07T10:29:16Z) - Multi-domain Unsupervised Image-to-Image Translation with Appearance
Adaptive Convolution [62.4972011636884]
本稿では,MDUIT(Multi-domain unsupervised image-to-image translation)フレームワークを提案する。
我々は、分解されたコンテンツ特徴と外観適応的畳み込みを利用して、画像をターゲットの外観に変換する。
提案手法は,最先端の手法と比較して,複数の領域で視覚的に多様かつ妥当な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-02-06T14:12:34Z) - Font Completion and Manipulation by Cycling Between Multi-Modality
Representations [113.26243126754704]
中間表現としてグラフを用いた2次元グラフィックオブジェクトとしてフォントグリフの生成を探求する。
我々は、画像エンコーダと画像の間のグラフで、モダリティサイクルのイメージ・ツー・イメージ構造を定式化する。
本モデルでは,画像から画像までのベースラインと,それ以前のグリフ補完手法よりも改善された結果を生成する。
論文 参考訳(メタデータ) (2021-08-30T02:43:29Z) - toon2real: Translating Cartoon Images to Realistic Images [1.4419517737536707]
このタスクを実行するためにいくつかの最先端モデルを適用するが、高品質な翻訳には失敗する。
本稿では,漫画領域からフォトリアリスティック領域への画像変換のためのCycleGANモデルに基づく手法を提案する。
実験の結果を実証し,提案手法が他の最先端技術であるUNITと比較して最も低いFrechet Inception Distanceスコアと優れた結果を得たことを示す。
論文 参考訳(メタデータ) (2021-02-01T20:22:05Z) - Unpaired Image-to-Image Translation via Latent Energy Transport [61.62293304236371]
画像から画像への変換は、2つの視覚領域間の識別的ターゲットスタイルに変換しながら、ソースの内容を保存することを目的としている。
本稿では,この課題に対して,事前訓練されたオートエンコーダの潜在空間にエネルギーベースモデル(EBM)を配置することを提案する。
我々のモデルは1024$times$1024- resolution unpaired image translationに適用できる最初のモデルである。
論文 参考訳(メタデータ) (2020-12-01T17:18:58Z) - Unsupervised Image-to-Image Translation via Pre-trained StyleGAN2
Network [73.5062435623908]
本稿では,一連のモデル変換によって対象領域に新たなモデルを生成する新しいI2I翻訳手法を提案する。
潜在ベクトルを生成されたモデルに入力することで、ソースドメインとターゲットドメインの間でI2I翻訳を行うことができる。
論文 参考訳(メタデータ) (2020-10-12T13:51:40Z) - Generating Embroidery Patterns Using Image-to-Image Translation [2.055949720959582]
そこで本研究では,2つの機械学習手法を用いて刺刺画像から画像への変換を行う。
私たちのゴールは、ユーザのアップロードした画像から、刺青画像に似たプレビュー画像を生成することです。
実験結果から,これらの手法がユーザ画像の刺青バージョンを近似したプレビュー生成に成功していることが示された。
論文 参考訳(メタデータ) (2020-03-05T20:32:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。