論文の概要: Local Class-Specific and Global Image-Level Generative Adversarial
Networks for Semantic-Guided Scene Generation
- arxiv url: http://arxiv.org/abs/1912.12215v3
- Date: Tue, 31 Mar 2020 01:31:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 23:26:53.048275
- Title: Local Class-Specific and Global Image-Level Generative Adversarial
Networks for Semantic-Guided Scene Generation
- Title(参考訳): セマンティック誘導シーン生成のための局所クラス別及びグローバル画像レベル生成型ネットワーク
- Authors: Hao Tang, Dan Xu, Yan Yan, Philip H. S. Torr, Nicu Sebe
- Abstract要約: 局所的な文脈でシーン生成を学習し、意味マップをガイダンスとして、局所的なクラス固有の生成ネットワークを設計する。
局所生成のための識別クラス固有の特徴表現をより学習するために,新しい分類モジュールを提案する。
2つのシーン画像生成タスクの実験は、提案したモデルのより優れた生成性能を示す。
- 参考スコア(独自算出の注目度): 135.4660201856059
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we address the task of semantic-guided scene generation. One
open challenge in scene generation is the difficulty of the generation of small
objects and detailed local texture, which has been widely observed in global
image-level generation methods. To tackle this issue, in this work we consider
learning the scene generation in a local context, and correspondingly design a
local class-specific generative network with semantic maps as a guidance, which
separately constructs and learns sub-generators concentrating on the generation
of different classes, and is able to provide more scene details. To learn more
discriminative class-specific feature representations for the local generation,
a novel classification module is also proposed. To combine the advantage of
both the global image-level and the local class-specific generation, a joint
generation network is designed with an attention fusion module and a
dual-discriminator structure embedded. Extensive experiments on two scene image
generation tasks show superior generation performance of the proposed model.
The state-of-the-art results are established by large margins on both tasks and
on challenging public benchmarks. The source code and trained models are
available at https://github.com/Ha0Tang/LGGAN.
- Abstract(参考訳): 本稿では,セマンティック誘導シーン生成の課題に対処する。
シーン生成におけるオープンな課題の1つは、世界規模の画像レベルの生成手法で広く観察されている、小さなオブジェクトの生成の困難さと詳細な局所テクスチャである。
そこで本研究では,局所的な文脈でシーン生成を学習し,セマンティックマップを用いたローカルクラス固有生成ネットワークを指導として設計し,異なるクラスの生成に集中するサブジェネレータを別々に構築・学習し,シーンの詳細を提供する。
局所生成のためのクラス固有の特徴表現をより識別するために、新しい分類モジュールも提案されている。
グローバル画像レベルと局所クラス固有生成の両方の利点を生かして,注目融合モジュールと二重識別器構造を組み込んだジョイントジェネレーションネットワークを設計する。
2つのシーン画像生成タスクに関する広範囲な実験により,提案モデルの優れた生成性能を示す。
最先端の結果は、タスクと挑戦的な公開ベンチマークの両方に大きなマージンで確立されている。
ソースコードとトレーニングされたモデルはhttps://github.com/Ha0Tang/LGGANで公開されている。
関連論文リスト
- Rethinking The Training And Evaluation of Rich-Context Layout-to-Image Generation [44.094656220043106]
生成モデリングにおける特殊領域はレイアウト・ツー・イメージ(L2I)生成である。
レイアウト・ツー・イメージ・ジェネレーションの強化を目的とした,新しい領域横断モジュールを提案する。
オープン語彙シナリオにおけるL2I性能を評価するための2つの指標を提案する。
論文 参考訳(メタデータ) (2024-09-07T14:57:03Z) - GLoD: Composing Global Contexts and Local Details in Image Generation [0.0]
Global-Local Diffusion (textitGLoD)は、グローバルコンテキストとローカル詳細の同時制御を可能にする新しいフレームワークである。
複数のグローバルなプロンプトとローカルなプロンプトを対応するレイヤに割り当て、ノイズを発生させるプロセスのガイドとして構成する。
本フレームワークは,グローバルなプロンプト内のオブジェクトをローカルなプロンプトで条件付けし,他の未特定なアイデンティティを保存しながら,複雑なグローバルなローカルなコンポジションを実現する。
論文 参考訳(メタデータ) (2024-04-23T18:39:57Z) - Instruct-Imagen: Image Generation with Multi-modal Instruction [90.04481955523514]
Instruct-imagenは、不均一な画像生成タスクに取り組み、目に見えないタスクを一般化するモデルである。
画像生成のための*multi-modal instruction*を導入する。
画像生成データセットの人間による評価では、インストラクション・イメージはドメイン内の以前のタスク固有のモデルと一致するか、超えている。
論文 参考訳(メタデータ) (2024-01-03T19:31:58Z) - Localized Text-to-Image Generation for Free via Cross Attention Control [154.06530917754515]
提案手法は, 推論中のクロスアテンションマップを簡易に制御することで, 局所的な生成が可能であることを示す。
提案するクロスアテンション制御(CAC)は,標準のテキスト・ツー・イメージモデルに対して,新たなオープン語彙のローカライズ機能を提供する。
論文 参考訳(メタデータ) (2023-06-26T12:15:06Z) - Structure-Guided Image Completion with Image-level and Object-level Semantic Discriminators [97.12135238534628]
複雑な意味論やオブジェクトの生成を改善するために,セマンティック・ディミネータとオブジェクトレベル・ディミネータからなる学習パラダイムを提案する。
特に、セマンティック・ディミネーターは、事前学習された視覚的特徴を利用して、生成された視覚概念の現実性を改善する。
提案手法は, 生成品質を著しく向上させ, 各種タスクの最先端化を実現する。
論文 参考訳(メタデータ) (2022-12-13T01:36:56Z) - Fine-Grained Object Classification via Self-Supervised Pose Alignment [42.55938966190932]
我々は,クラス間の自己教師型ポーズアライメントのための局所部分のグローバルな構成を明らかにするために,新しいグラフベースのオブジェクト表現を学習する。
提案手法を3つの評価対象分類ベンチマークで評価し,最先端性能を継続的に達成した。
論文 参考訳(メタデータ) (2022-03-30T01:46:19Z) - Local and Global GANs with Semantic-Aware Upsampling for Image
Generation [201.39323496042527]
ローカルコンテキストを用いて画像を生成することを検討する。
セマンティックマップをガイダンスとして用いたクラス固有の生成ネットワークを提案する。
最後に,セマンティック・アウェア・アップサンプリング手法を提案する。
論文 参考訳(メタデータ) (2022-02-28T19:24:25Z) - Collaging Class-specific GANs for Semantic Image Synthesis [68.87294033259417]
本稿では,高分解能なセマンティック画像合成のための新しい手法を提案する。
1つのベースイメージジェネレータと複数のクラス固有のジェネレータで構成される。
実験により,本手法は高解像度で高品質な画像を生成することができることが示された。
論文 参考訳(メタデータ) (2021-10-08T17:46:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。