論文の概要: FBC-GAN: Diverse and Flexible Image Synthesis via Foreground-Background
Composition
- arxiv url: http://arxiv.org/abs/2107.03166v1
- Date: Wed, 7 Jul 2021 11:49:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-08 14:03:02.222462
- Title: FBC-GAN: Diverse and Flexible Image Synthesis via Foreground-Background
Composition
- Title(参考訳): FBC-GAN:フォアグラウンド-バックグラウンド合成による広帯域・フレキシブル画像合成
- Authors: Kaiwen Cui, Gongjie Zhang, Fangneng Zhan, Jiaxing Huang, Shijian Lu
- Abstract要約: 本稿では,FBC-GAN(フォアグラウンド・バックグラウンド・コンポジション・ガン)という,フォアグラウンド・バックグラウンド・コンポジション・ガン(FBC-GAN)を同時かつ独立に生成する手法を提案する。
この明示的な設計により、FBC-GANは、相互にコンテンツに依存しない前景と背景を持つ画像を生成することができる。
また、異なる背景シーンを持つ同じ前景オブジェクト、異なる前景オブジェクトを持つ同じ背景シーン、異なる対象位置、サイズ、ポーズを持つ同じ前景オブジェクトと背景シーンを可能にすることで、優れた柔軟性を提供する。
- 参考スコア(独自算出の注目度): 36.40115199923389
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Generative Adversarial Networks (GANs) have become the de-facto standard in
image synthesis. However, without considering the foreground-background
decomposition, existing GANs tend to capture excessive content correlation
between foreground and background, thus constraining the diversity in image
generation. This paper presents a novel Foreground-Background Composition GAN
(FBC-GAN) that performs image generation by generating foreground objects and
background scenes concurrently and independently, followed by composing them
with style and geometrical consistency. With this explicit design, FBC-GAN can
generate images with foregrounds and backgrounds that are mutually independent
in contents, thus lifting the undesirably learned content correlation
constraint and achieving superior diversity. It also provides excellent
flexibility by allowing the same foreground object with different background
scenes, the same background scene with varying foreground objects, or the same
foreground object and background scene with different object positions, sizes
and poses. It can compose foreground objects and background scenes sampled from
different datasets as well. Extensive experiments over multiple datasets show
that FBC-GAN achieves competitive visual realism and superior diversity as
compared with state-of-the-art methods.
- Abstract(参考訳): GAN(Generative Adversarial Networks)は、画像合成におけるデファクト標準となっている。
しかし,背景の分解を考慮せずに,既存のGANは前景と背景の間の過剰な内容相関を捉え,画像生成の多様性を制約する傾向にある。
本稿では,フォアグラウンドオブジェクトと背景シーンを同時にかつ独立的に生成し,それらをスタイルと幾何学的一貫性で構成することにより画像生成を行う,新しいフォアグラウンドバックグラウンド合成gan(fbc-gan)を提案する。
この明示的な設計により、FBC-GANは、コンテンツに相互に独立した前景と背景を持つ画像を生成することができ、望ましくない内容相関制約を解除し、優れた多様性を実現することができる。
また、異なる背景シーンを持つ同じ前景オブジェクト、異なる前景オブジェクトを持つ同じ背景シーン、または異なる対象位置、サイズ、ポーズを持つ同じ前景オブジェクトと背景シーンを許可することで、優れた柔軟性を提供する。
さまざまなデータセットからサンプリングされたフォアグラウンドオブジェクトとバックグラウンドシーンも構成できる。
複数のデータセットに対する大規模な実験により、FBC-GANは最先端の手法と比較して、競争力のある視覚リアリズムと優れた多様性を達成することが示された。
関連論文リスト
- Compositional Image Decomposition with Diffusion Models [70.07406583580591]
本稿では,イメージを構成成分に分解する手法を提案する。
我々のアプローチであるDecomp Diffusionは、イメージ内の異なるコンポーネントのセットを推論する教師なしの手法である。
コンポーネントは、影や表情のようなグローバルなシーン記述子から、構成オブジェクトのようなローカルなシーン記述子まで、シーンのさまざまな要因をキャプチャする方法を実証する。
論文 参考訳(メタデータ) (2024-06-27T16:13:34Z) - ObjectCompose: Evaluating Resilience of Vision-Based Models on Object-to-Background Compositional Changes [64.57705752579207]
本研究では,視覚モデルによる多様な背景背景環境に対するレジリエンスを評価する。
我々は、画像から画像への変換、画像から画像への変換、および画像から画像への変換モデルの生成機能を利用して、オブジェクトから背景への変換を自動的に生成する。
論文 参考訳(メタデータ) (2024-03-07T17:48:48Z) - SIEDOB: Semantic Image Editing by Disentangling Object and Background [5.149242555705579]
本稿では,セマンティック画像編集のための新しいパラダイムを提案する。
textbfSIEDOB(サイト・英語)は、オブジェクトと背景に対していくつかの異種ワークを明示的に活用する。
我々はCityscapesとADE20K-Roomデータセットに関する広範な実験を行い、本手法がベースラインを著しく上回ることを示す。
論文 参考訳(メタデータ) (2023-03-23T06:17:23Z) - Infusing Definiteness into Randomness: Rethinking Composition Styles for
Deep Image Matting [24.488936808356915]
深層画像マッチングにおける構成様式について検討する。
先行技術は、この流れを全くランダムに実行する。
本稿では, 原点を結合し, 前景を定三重奏で結合する新しい構成法を提案する。
論文 参考訳(メタデータ) (2022-12-27T15:24:49Z) - Making Images Real Again: A Comprehensive Survey on Deep Image Composition [34.09380539557308]
画像合成タスクは複数のサブタスクに分割でき、各サブタスクは1つ以上の課題を目標とすることができる。
本稿では,サブタスクの包括的調査と画像合成のブレンディングを行う。
それぞれについて、既存のメソッド、利用可能なデータセット、一般的な評価指標を要約する。
論文 参考訳(メタデータ) (2021-06-28T09:09:14Z) - DoFE: Domain-oriented Feature Embedding for Generalizable Fundus Image
Segmentation on Unseen Datasets [96.92018649136217]
対象ドメインに対するCNNの一般化能力を向上させるために,新しいドメイン指向特徴埋め込み(DoFE)フレームワークを提案する。
私たちのDoFEフレームワークは、マルチソースドメインから学んだ追加のドメイン事前知識で、画像機能を動的に強化します。
本フレームワークは、未確認データセットのセグメンテーション結果を満足して生成し、他の領域の一般化やネットワークの正規化手法を超越する。
論文 参考訳(メタデータ) (2020-10-13T07:28:39Z) - BachGAN: High-Resolution Image Synthesis from Salient Object Layout [78.51640906030244]
本稿では、より実用的な画像生成のための新しい課題である、有能なオブジェクトレイアウトからの高品質な画像合成を提案する。
i) セグメンテーションマップ入力なしできめ細かい詳細と現実的なテクスチャを生成する方法、(ii) バックグラウンドを作成してスタンドアロンのオブジェクトにシームレスに織り込む方法である。
幻影背景表現を動的に生成することにより,高解像度画像をフォトリアリスティック・フォアグラウンドと積分背景の両方で合成することができる。
論文 参考訳(メタデータ) (2020-03-26T00:54:44Z) - Generating Object Stamps [47.20601520671103]
GANアーキテクチャを用いて,様々な前景オブジェクトを生成し,背景画像に合成するアルゴリズムを提案する。
挑戦的なCOCOデータセットの結果,最先端のオブジェクト挿入手法と比較して,全体的な品質と多様性が向上した。
論文 参考訳(メタデータ) (2020-01-01T14:36:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。