論文の概要: Semantically-aware Mask CycleGAN for Translating Artistic Portraits to
Photo-realistic Visualizations
- arxiv url: http://arxiv.org/abs/2306.06577v1
- Date: Sun, 11 Jun 2023 03:58:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 18:06:11.619509
- Title: Semantically-aware Mask CycleGAN for Translating Artistic Portraits to
Photo-realistic Visualizations
- Title(参考訳): 芸術作品の写実的可視化への意味論的対応型マスクサイクルGAN
- Authors: Zhuohao Yin
- Abstract要約: 芸術的な肖像画を視覚化に変換できるセマンティック・アウェアのマスクサイクルGANアーキテクチャを提案する。
このモデルは、識別者が意味的に偽のサンプルを隠蔽することで、現実的な人間の肖像画を生成することができる。
実験により、SMCycleGANはリアリズムを著しく増加させ、コンテンツ表現の損失を最小限に抑える画像を生成することが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image-to-image translation (I2I) is defined as a computer vision task where
the aim is to transfer images in a source domain to a target domain with
minimal loss or alteration of the content representations. Major progress has
been made since I2I was proposed with the invention of a variety of
revolutionary generative models. Among them, GAN-based models perform
exceptionally well as they are mostly tailor-made for specific domains or
tasks. However, few works proposed a tailor-made method for the artistic
domain. In this project, I propose the Semantic-aware Mask CycleGAN
(SMCycleGAN) architecture which can translate artistic portraits to
photo-realistic visualizations. This model can generate realistic human
portraits by feeding the discriminators semantically masked fake samples, thus
enforcing them to make discriminative decisions with partial information so
that the generators can be optimized to synthesize more realistic human
portraits instead of increasing the similarity of other irrelevant components,
such as the background. Experiments have shown that the SMCycleGAN generate
images with significantly increased realism and minimal loss of content
representations.
- Abstract(参考訳): 画像から画像への変換(I2I)は、コンテンツ表現の損失や変更を最小限に抑えて、ソースドメイン内の画像をターゲットドメインに転送するコンピュータビジョンタスクとして定義される。
I2Iが様々な革命的生成モデルの発明によって提案されて以来、大きな進歩があった。
その中でも、GANベースのモデルは非常によく機能し、主に特定のドメインやタスク用にカスタマイズされている。
しかし、美術分野の仕立て方を提案する作品はほとんどない。
本稿では,絵画を写実的視覚化に変換できるセマンティック・アウェア・マスクサイクルGAN (SMCycleGAN) アーキテクチャを提案する。
このモデルは、識別者が意味論的にマスキングされた偽のサンプルを供給することにより、現実的な人間の肖像画を生成することができるので、背景など無関係なコンポーネントの類似性を高めることなく、より現実的な人間の肖像画を合成できるように、部分的な情報で識別的決定を強制することができる。
実験により、SMCycleGANはリアリズムを著しく増加させ、コンテンツ表現の損失を最小限に抑える画像を生成することが示された。
関連論文リスト
- FashionR2R: Texture-preserving Rendered-to-Real Image Translation with Diffusion Models [14.596090302381647]
本稿では,レンダリングの制御に基づく拡散モデルから生成するパワーを利用して,レンダリング画像のフォトリアリズム向上について検討する。
ドメイン知識注入(Domain Knowledge Injection, DKI)と現実画像生成(Realistic Image Generation, RIG)という2つの段階から構成される。
論文 参考訳(メタデータ) (2024-10-18T12:48:22Z) - Unlocking Pre-trained Image Backbones for Semantic Image Synthesis [29.688029979801577]
本稿では,現実的な画像を生成するセマンティック画像合成のための新しい種類のGAN識別器を提案する。
DP-SIMSをダブした本モデルでは,ADE-20K,COCO-Stuff,Cityscapesの入力ラベルマップと画像品質と一貫性の両面から,最新の結果が得られる。
論文 参考訳(メタデータ) (2023-12-20T09:39:19Z) - Dual Pyramid Generative Adversarial Networks for Semantic Image
Synthesis [94.76988562653845]
セマンティック画像合成の目標は、セマンティックラベルマップからフォトリアリスティック画像を生成することである。
しかし、現在の最先端のアプローチは、さまざまなスケールで画像で現実的なオブジェクトを生成するのに依然として苦労している。
本研究では,空間適応型正規化ブロックの条件付けを各スケールで同時に学習するDual Pyramid Generative Adversarial Network (DP-GAN)を提案する。
論文 参考訳(メタデータ) (2022-10-08T18:45:44Z) - Explicitly Controllable 3D-Aware Portrait Generation [42.30481422714532]
ポーズ,アイデンティティ,表現,照明に関する意味的パラメータに基づいて,一貫した肖像画を生成する3次元肖像画生成ネットワークを提案する。
提案手法は,自然光の鮮明な表現によるリアルな肖像画を,自由視点で見る場合,先行技術よりも優れる。
論文 参考訳(メタデータ) (2022-09-12T17:40:08Z) - CtlGAN: Few-shot Artistic Portraits Generation with Contrastive Transfer
Learning [77.27821665339492]
CtlGANは、新しいコントラッシブ・トランスファー学習戦略を備えた、数発のアート・ポートレート生成モデルである。
ソースドメインで事前訓練したStyleGANを,対象の芸術領域に適応させる。
実面をZ+空間に埋め込んだ新しいエンコーダを提案し,適応型デコーダに対処するためのデュアルパストレーニング戦略を提案する。
論文 参考訳(メタデータ) (2022-03-16T13:28:17Z) - A Shared Representation for Photorealistic Driving Simulators [83.5985178314263]
本稿では、識別器アーキテクチャを再考することにより、生成画像の品質を向上させることを提案する。
シーンセグメンテーションマップや人体ポーズといったセマンティックインプットによって画像が生成されるという問題に焦点が当てられている。
我々は,意味的セグメンテーション,コンテンツ再構成,および粗い粒度の逆解析を行うのに十分な情報をエンコードする,共有潜在表現を学習することを目指している。
論文 参考訳(メタデータ) (2021-12-09T18:59:21Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Fully Context-Aware Image Inpainting with a Learned Semantic Pyramid [102.24539566851809]
画像中の任意の欠落する領域に対して、合理的で現実的なコンテンツを復元することは、重要な課題である。
最近の画像インパインティングモデルは鮮明な視覚的詳細を生成するために大きな進歩を遂げているが、それでもテクスチャのぼやけや構造的歪みにつながる可能性がある。
本研究では,画像中の局所的欠落コンテンツの回復に大きく貢献する,多スケールなセマンティック・セマンティック・ピラミッド・ネットワーク(SPN)を提案する。
論文 参考訳(メタデータ) (2021-12-08T04:33:33Z) - Inverting Generative Adversarial Renderer for Face Reconstruction [58.45125455811038]
本稿では,GAR(Generative Adversa Renderer)について紹介する。
GARは、グラフィックルールに頼るのではなく、複雑な現実世界のイメージをモデル化することを学ぶ。
本手法は,複数顔再構成における最先端性能を実現する。
論文 参考訳(メタデータ) (2021-05-06T04:16:06Z) - High Resolution Zero-Shot Domain Adaptation of Synthetically Rendered
Face Images [10.03187850132035]
本稿では,非フォトリアリスティックな合成画像と事前学習したStyleGAN2モデルの潜在ベクトルとをマッチングするアルゴリズムを提案する。
これまでのほとんどの研究とは対照的に、私たちは合成トレーニングデータを必要としない。
このアルゴリズムは、1Kの解像度で作業する最初のアルゴリズムであり、視覚リアリズムにおける大きな飛躍を表している。
論文 参考訳(メタデータ) (2020-06-26T15:00:04Z) - CONFIG: Controllable Neural Face Image Generation [10.443563719622645]
ConfigNetは、出力画像の個々の側面を意味のある方法で制御できる、ニューラルフェイスモデルである。
提案手法では,合成データを用いて遅延空間を従来のレンダリングパイプラインの入力に対応する要素に分解する。
論文 参考訳(メタデータ) (2020-05-06T09:19:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。