論文の概要: Total Generate: Cycle in Cycle Generative Adversarial Networks for
Generating Human Faces, Hands, Bodies, and Natural Scenes
- arxiv url: http://arxiv.org/abs/2106.10876v1
- Date: Mon, 21 Jun 2021 06:20:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-22 15:45:43.195877
- Title: Total Generate: Cycle in Cycle Generative Adversarial Networks for
Generating Human Faces, Hands, Bodies, and Natural Scenes
- Title(参考訳): 総生成:人間の顔、手、体、自然の場面を生成するためのサイクル生成敵ネットワークのサイクル
- Authors: Hao Tang, Nicu Sebe
- Abstract要約: C2GAN(Cycle in Cycle Generative Adversarial Network)は、人間の顔、手、体、自然のシーンのための自転車。
提案するC2GANは,入力画像データとガイダンスデータの相互利用を対話的に探索するクロスモーダルモデルである。
- 参考スコア(独自算出の注目度): 76.83075646527521
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel and unified Cycle in Cycle Generative Adversarial Network
(C2GAN) for generating human faces, hands, bodies, and natural scenes. Our
proposed C2GAN is a cross-modal model exploring the joint exploitation of the
input image data and guidance data in an interactive manner. C2GAN contains two
different generators, i.e., an image-generation generator and a
guidance-generation generator. Both generators are mutually connected and
trained in an end-to-end fashion and explicitly form three cycled subnets,
i.e., one image generation cycle and two guidance generation cycles. Each cycle
aims at reconstructing the input domain and simultaneously produces a useful
output involved in the generation of another cycle. In this way, the cycles
constrain each other implicitly providing complementary information from both
image and guidance modalities and bringing an extra supervision gradient across
the cycles, facilitating a more robust optimization of the whole model.
Extensive results on four guided image-to-image translation subtasks
demonstrate that the proposed C2GAN is effective in generating more realistic
images compared with state-of-the-art models. The code is available at
https://github.com/Ha0Tang/C2GAN.
- Abstract(参考訳): 本稿では,人間の顔,手,体,自然のシーンを生成するための,C2GAN(Cycle in Cycle Generative Adversarial Network)を提案する。
提案するC2GANは,入力画像データとガイダンスデータの相互利用を対話的に探索するクロスモーダルモデルである。
C2GANは2つの異なるジェネレータ、すなわち画像生成ジェネレータと誘導生成ジェネレータを含む。
両方のジェネレータは相互に接続され、エンドツーエンドの方法で訓練され、3つのサイクルサブネット、すなわち1つの画像生成サイクルと2つの誘導生成サイクルを明示的に形成する。
各サイクルは入力ドメインの再構築を目標とし、同時に他のサイクルの生成に関わる有用なアウトプットを生成する。
このように、サイクルは、画像とガイダンスの両方から補完的な情報を暗黙的に提供し、サイクル全体に追加の監督的勾配をもたらし、モデル全体のより堅牢な最適化を容易にする。
4つのガイド付き画像から画像への変換サブタスクの広範な結果から、提案したC2GANは最先端のモデルと比較してよりリアルな画像を生成するのに有効であることが示された。
コードはhttps://github.com/ha0tang/c2ganで入手できる。
関連論文リスト
- SeaDAG: Semi-autoregressive Diffusion for Conditional Directed Acyclic Graph Generation [83.52157311471693]
方向性非巡回グラフ(DAG)の条件生成のための半自己回帰拡散モデルSeaDAGを紹介する。
グローバルグラフ構造を欠いた従来の自己回帰生成とは異なり,本手法は拡散ステップ毎に完全なグラフ構造を保持する。
本研究では,現実的なDAGを生成する拡散モデルの能力を高めるために,条件損失を伴うグラフ条件学習を明示的に訓練する。
論文 参考訳(メタデータ) (2024-10-21T15:47:03Z) - Object-Centric Relational Representations for Image Generation [18.069747511100132]
本稿では,オブジェクト中心のリレーショナル表現に基づく条件画像生成手法を提案する。
このようなアーキテクチャバイアスには,生成過程の操作と条件付けを容易にする特性が伴うことを示す。
また,関係表現と組み合わせた画像の合成データセットからなる画像生成のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2023-03-26T11:17:17Z) - Cross-View Panorama Image Synthesis [68.35351563852335]
PanoGANは、新しい敵対的フィードバックGANフレームワークである。
PanoGANは、最先端のアプローチよりもより説得力のある、高品質なパノラマ画像生成を可能にする。
論文 参考訳(メタデータ) (2022-03-22T15:59:44Z) - Cycle-Consistent Inverse GAN for Text-to-Image Synthesis [101.97397967958722]
本稿では,テキスト・ツー・イメージ・ジェネレーションとテキスト・ガイドによる画像操作を行うために,Cycle-Consistent Inverse GANの統一フレームワークを提案する。
我々は、GANの反転モデルを学び、画像をGANの潜在空間に変換し、各画像の反転潜在符号を得る。
テキスト誘導最適化モジュールでは、反転潜在符号を最適化することにより、所望のセマンティック属性を持つ画像を生成する。
論文 参考訳(メタデータ) (2021-08-03T08:38:16Z) - Cycle-free CycleGAN using Invertible Generator for Unsupervised Low-Dose
CT Denoising [33.79188588182528]
CycleGANは低線量X線CT(CT)画像に対して高性能で高速なデノナイジングを提供する。
cycleganは2つのジェネレータと2つの識別器を必要とする。
本論文では,単一発生器と識別器から構成されるサイクルフリーのサイクルGANアーキテクチャについて述べる。
論文 参考訳(メタデータ) (2021-04-17T13:23:36Z) - Improved Image Generation via Sparse Modeling [27.66648389933265]
生成器は、Convolutional Sparse Coding (CSC) とそのMulti-Layeredバージョン (ML-CSC) 合成プロセスの発現として見ることができる。
この観測は、発電機内の適切な選択された活性化層にスパーシファイング正規化を明示的に強制することによって活用する。
論文 参考訳(メタデータ) (2021-04-01T13:52:40Z) - Guiding GANs: How to control non-conditional pre-trained GANs for
conditional image generation [69.10717733870575]
本稿では,汎用非条件GANを条件GANとして振る舞うための新しい方法を提案する。
提案手法は,非条件GANのジェネレータネットワークに供給される高次元ランダム入力を生成するために,エンコーダネットワークを混合するものである。
論文 参考訳(メタデータ) (2021-01-04T14:03:32Z) - XingGAN for Person Image Generation [149.54517767056382]
本稿では,人物画像生成タスクのための新しいジェネレーティブ・アドバイザリアル・ネットワーク(XingGAN)を提案する。
XingGANは、人物の外観と形状をモデル化する2世代ブランチで構成されている。
提案したXingGANは,客観的な定量的スコアと主観的視覚的現実性の観点から,最先端のパフォーマンスを向上することを示す。
論文 参考訳(メタデータ) (2020-07-17T23:40:22Z) - CDGAN: Cyclic Discriminative Generative Adversarial Networks for
Image-to-Image Transformation [17.205434613674104]
我々はCDGAN(Cyclic Discriminative Generative Adversarial Networks)と呼ばれる新しい画像間変換ネットワークを導入する。
提案したCDGANは、サイクル画像に新たな識別器ネットワークを組み込むことにより、高品質でリアルな画像を生成する。
定量および定性的な結果を解析し、最先端の手法と比較する。
論文 参考訳(メタデータ) (2020-01-15T05:12:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。