論文の概要: MontageGAN: Generation and Assembly of Multiple Components by GANs
- arxiv url: http://arxiv.org/abs/2205.15577v1
- Date: Tue, 31 May 2022 07:34:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-01 15:20:47.170948
- Title: MontageGAN: Generation and Assembly of Multiple Components by GANs
- Title(参考訳): MontageGAN: GANによる複数コンポーネントの生成と組み立て
- Authors: Chean Fei Shee, Seiichi Uchida
- Abstract要約: 我々は,多層画像を生成するための生成Adversarial NetworksフレームワークであるMontageGANを提案する。
提案手法は,局所的なGANとグローバルなGANからなる2段階のアプローチを用いた。
- 参考スコア(独自算出の注目度): 11.117357750374035
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A multi-layer image is more valuable than a single-layer image from a graphic
designer's perspective. However, most of the proposed image generation methods
so far focus on single-layer images. In this paper, we propose MontageGAN,
which is a Generative Adversarial Networks (GAN) framework for generating
multi-layer images. Our method utilized a two-step approach consisting of local
GANs and global GAN. Each local GAN learns to generate a specific image layer,
and the global GAN learns the placement of each generated image layer. Through
our experiments, we show the ability of our method to generate multi-layer
images and estimate the placement of the generated image layers.
- Abstract(参考訳): 多層画像は、グラフィックデザイナーの視点から見た単層画像よりも価値がある。
しかし,提案手法の大部分は単一層画像に焦点をあてている。
本稿では,多層画像を生成するためのGAN(Generative Adversarial Networks)フレームワークであるMontageGANを提案する。
本手法は局所ganとグローバルganからなる2段階アプローチを用いた。
各ローカルganは特定の画像層を生成することを学習し、グローバルganは生成された画像層の配置を学習する。
実験により,本手法の多層画像生成能力を示し,生成した画像層の配置を推定する。
関連論文リスト
- LayerDiff: Exploring Text-guided Multi-layered Composable Image Synthesis via Layer-Collaborative Diffusion Model [70.14953942532621]
層共同拡散モデルであるLayerDiffは、テキスト誘導、多層化、構成可能な画像合成のために設計されている。
本モデルでは,従来の全画像生成手法に匹敵する性能で,高品質な多層画像を生成することができる。
LayerDiffは、レイヤ固有の画像編集やスタイル転送など、幅広いコントロール可能な生成アプリケーションを可能にする。
論文 参考訳(メタデータ) (2024-03-18T16:28:28Z) - Text2Layer: Layered Image Generation using Latent Diffusion Model [12.902259486204898]
階層化画像生成の観点から階層化画像を生成することを提案する。
階層画像生成を実現するために,階層画像の再構成が可能なオートエンコーダを訓練する。
実験結果から,提案手法は高品質な階層画像を生成することができることがわかった。
論文 参考訳(メタデータ) (2023-07-19T06:56:07Z) - Using a Conditional Generative Adversarial Network to Control the
Statistical Characteristics of Generated Images for IACT Data Analysis [55.41644538483948]
画像のプロパティの値に応じて、画像を複数のクラスに分割し、新しい画像を生成する際に必要なクラスを指定する。
大気圧チェレンコフ望遠鏡(IACT)の画像の場合、重要な点は全画像ピクセル(画像サイズ)の明るさである。
我々は,TAIGA-IACT実験で得られた画像と類似した画像を生成するために,cGAN技術を使用した。
論文 参考訳(メタデータ) (2022-11-28T22:30:33Z) - InsetGAN for Full-Body Image Generation [90.71033704904629]
本稿では,複数の事前学習型GANを結合する新しい手法を提案する。
1つのGANは、グローバルキャンバス(例えば、人体)と、異なる部分に焦点を当てた特別なGAN、またはインセットのセットを生成する。
フルボディのGANと専用の高品質な顔のGANを組み合わせることで、可視的外観の人間を作り出すことで、セットアップを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:01:46Z) - Local and Global GANs with Semantic-Aware Upsampling for Image
Generation [201.39323496042527]
ローカルコンテキストを用いて画像を生成することを検討する。
セマンティックマップをガイダンスとして用いたクラス固有の生成ネットワークを提案する。
最後に,セマンティック・アウェア・アップサンプリング手法を提案する。
論文 参考訳(メタデータ) (2022-02-28T19:24:25Z) - Collaging Class-specific GANs for Semantic Image Synthesis [68.87294033259417]
本稿では,高分解能なセマンティック画像合成のための新しい手法を提案する。
1つのベースイメージジェネレータと複数のクラス固有のジェネレータで構成される。
実験により,本手法は高解像度で高品質な画像を生成することができることが示された。
論文 参考訳(メタデータ) (2021-10-08T17:46:56Z) - Detection, Attribution and Localization of GAN Generated Images [24.430919035100317]
本稿では,GAN生成画像の検出,属性化,ローカライズを行う新しい手法を提案する。
深層学習ネットワークはこれらの特徴に基づいてトレーニングされ、これらのGAN生成/操作された画像を検出し、属性付けし、ローカライズする。
5つのGANデータセットに対するアプローチを大規模に評価した結果,GAN生成画像の検出には有望な結果が得られた。
論文 参考訳(メタデータ) (2020-07-20T20:49:34Z) - Local Class-Specific and Global Image-Level Generative Adversarial
Networks for Semantic-Guided Scene Generation [135.4660201856059]
局所的な文脈でシーン生成を学習し、意味マップをガイダンスとして、局所的なクラス固有の生成ネットワークを設計する。
局所生成のための識別クラス固有の特徴表現をより学習するために,新しい分類モジュールを提案する。
2つのシーン画像生成タスクの実験は、提案したモデルのより優れた生成性能を示す。
論文 参考訳(メタデータ) (2019-12-27T16:14:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。