論文の概要: XingGAN for Person Image Generation
- arxiv url: http://arxiv.org/abs/2007.09278v1
- Date: Fri, 17 Jul 2020 23:40:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 13:38:07.974838
- Title: XingGAN for Person Image Generation
- Title(参考訳): 人物画像生成のためのXingGAN
- Authors: Hao Tang, Song Bai, Li Zhang, Philip H.S. Torr, Nicu Sebe
- Abstract要約: 本稿では,人物画像生成タスクのための新しいジェネレーティブ・アドバイザリアル・ネットワーク(XingGAN)を提案する。
XingGANは、人物の外観と形状をモデル化する2世代ブランチで構成されている。
提案したXingGANは,客観的な定量的スコアと主観的視覚的現実性の観点から,最先端のパフォーマンスを向上することを示す。
- 参考スコア(独自算出の注目度): 149.54517767056382
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel Generative Adversarial Network (XingGAN or CrossingGAN)
for person image generation tasks, i.e., translating the pose of a given person
to a desired one. The proposed Xing generator consists of two generation
branches that model the person's appearance and shape information,
respectively. Moreover, we propose two novel blocks to effectively transfer and
update the person's shape and appearance embeddings in a crossing way to
mutually improve each other, which has not been considered by any other
existing GAN-based image generation work. Extensive experiments on two
challenging datasets, i.e., Market-1501 and DeepFashion, demonstrate that the
proposed XingGAN advances the state-of-the-art performance both in terms of
objective quantitative scores and subjective visual realness. The source code
and trained models are available at https://github.com/Ha0Tang/XingGAN.
- Abstract(参考訳): 本稿では,人物画像生成タスク,すなわち所望の人物のポーズを所望の人物に翻訳するための,新たな生成支援ネットワーク(XingGAN,CrossingGAN)を提案する。
提案するxing生成器は,人物の外観と形状情報をモデル化する2世代分枝からなる。
さらに,既存のGANベースの画像生成作業では考慮されていないような相互改善のために,人物の形状や外観の埋め込みを横断的に効果的に転送・更新する2つの新しいブロックを提案する。
Market-1501とDeepFashionの2つの挑戦的データセットに関する大規模な実験は、提案されたXingGANが客観的な定量的スコアと主観的な視覚的現実の両方において最先端のパフォーマンスを向上することを示した。
ソースコードとトレーニングされたモデルはhttps://github.com/Ha0Tang/XingGAN.comで入手できる。
関連論文リスト
- Investigating GANsformer: A Replication Study of a State-of-the-Art
Image Generation Model [0.0]
我々は、オリジナルのGANネットワークであるGANformerの新たなバリエーションを再現し、評価する。
リソースと時間制限のため、ネットワークのトレーニング時間、データセットタイプ、サイズを制限しなければなりませんでした。
論文 参考訳(メタデータ) (2023-03-15T12:51:16Z) - Bipartite Graph Reasoning GANs for Person Pose and Facial Image
Synthesis [201.39323496042527]
本稿では、人物のポーズと顔画像合成という2つの課題に対して、生成的敵対ネットワーク(BiGraphGAN)を推論する新しい二部グラフを提案する。
提案するグラフ生成器は,ポーズ・ツー・ポーズ関係とポーズ・ツー・イメージ関係をモデル化する2つの新しいブロックから構成される。
論文 参考訳(メタデータ) (2022-11-12T18:27:00Z) - Lafite2: Few-shot Text-to-Image Generation [132.14211027057766]
本稿では,画像のみのデータセットを用いたテキスト・画像生成モデルの事前学習手法を提案する。
擬似テキスト特徴を合成する検索テーマ最適化手法を検討する。
これは、数ショット、半教師あり、完全に教師された学習など、幅広い設定で有益である。
論文 参考訳(メタデータ) (2022-10-25T16:22:23Z) - T-Person-GAN: Text-to-Person Image Generation with Identity-Consistency
and Manifold Mix-Up [16.165889084870116]
テキストのみに条件付けされた高解像度の人物画像を生成するためのエンドツーエンドアプローチを提案する。
2つの新しいメカニズムで人物画像を生成するための効果的な生成モデルを開発する。
論文 参考訳(メタデータ) (2022-08-18T07:41:02Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Total Generate: Cycle in Cycle Generative Adversarial Networks for
Generating Human Faces, Hands, Bodies, and Natural Scenes [76.83075646527521]
C2GAN(Cycle in Cycle Generative Adversarial Network)は、人間の顔、手、体、自然のシーンのための自転車。
提案するC2GANは,入力画像データとガイダンスデータの相互利用を対話的に探索するクロスモーダルモデルである。
論文 参考訳(メタデータ) (2021-06-21T06:20:16Z) - Two-Stream Appearance Transfer Network for Person Image Generation [16.681839931864886]
画像生成や翻訳に広く用いられているGAN(Generative Adversarial Network)は、空間的局所的および翻訳同変演算子に依存している。
本稿では,この課題に対処するために,新しい2ストリームの外観伝達ネットワーク(2s-ATN)を提案する。
ソースストリームとターゲットストリームで構成される多段階アーキテクチャである。各ステージは外観伝達モジュールと複数の2ストリーム特徴融合モジュールを備える。
論文 参考訳(メタデータ) (2020-11-09T04:21:02Z) - Bipartite Graph Reasoning GANs for Person Image Generation [159.00654368677513]
本稿では,難易度の高い人物画像生成タスクのための新しいBipartite Graph Reasoning GAN(BiGraphGAN)を提案する。
提案するグラフ生成器は,主にポーズ・ツー・プレイスとポーズ・ツー・イメージの関係をモデル化する2つの新しいブロックから構成される。
論文 参考訳(メタデータ) (2020-08-10T19:37:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。