論文の概要: Panoptic-based Image Synthesis
- arxiv url: http://arxiv.org/abs/2004.10289v1
- Date: Tue, 21 Apr 2020 20:40:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 07:14:53.712602
- Title: Panoptic-based Image Synthesis
- Title(参考訳): 光学的画像合成
- Authors: Aysegul Dundar, Karan Sapra, Guilin Liu, Andrew Tao, Bryan Catanzaro
- Abstract要約: 条件付き画像合成は、コンテンツ編集からコンテンツ生成への様々な応用を提供する。
本研究では,パノプティカルマップに条件付き高忠実度・光実写画像を生成するために,パノプティカル・アウェア・イメージ合成ネットワークを提案する。
- 参考スコア(独自算出の注目度): 32.82903428124024
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conditional image synthesis for generating photorealistic images serves
various applications for content editing to content generation. Previous
conditional image synthesis algorithms mostly rely on semantic maps, and often
fail in complex environments where multiple instances occlude each other. We
propose a panoptic aware image synthesis network to generate high fidelity and
photorealistic images conditioned on panoptic maps which unify semantic and
instance information. To achieve this, we efficiently use panoptic maps in
convolution and upsampling layers. We show that with the proposed changes to
the generator, we can improve on the previous state-of-the-art methods by
generating images in complex instance interaction environments in higher
fidelity and tiny objects in more details. Furthermore, our proposed method
also outperforms the previous state-of-the-art methods in metrics of mean IoU
(Intersection over Union), and detAP (Detection Average Precision).
- Abstract(参考訳): 条件付き画像合成によるフォトリアリスティック画像の生成は、コンテンツ編集からコンテンツ生成への様々な応用に役立つ。
従来の条件付き画像合成アルゴリズムは、主にセマンティックマップに依存しており、複数のインスタンスが互いに干渉する複雑な環境で失敗することが多い。
本稿では,パンオプティカルマップ上で高忠実度かつフォトリアリスティックな画像を生成し,意味とインスタンス情報を統一するパンオプティカルイメージ合成ネットワークを提案する。
これを実現するために,畳み込み層とアップサンプリング層でpanopticマップを効率的に利用する。
提案したジェネレータの変更により, 複雑なインスタンス相互作用環境において, より忠実で細かなオブジェクトをより詳細に生成することにより, 従来の最先端手法を改良できることを示す。
さらに,提案手法は,IoU (Intersection over Union) とdetAP (Detection Average Precision) の計測値において,従来の最先端手法よりも優れていた。
関連論文リスト
- Unlocking Pre-trained Image Backbones for Semantic Image Synthesis [29.688029979801577]
本稿では,現実的な画像を生成するセマンティック画像合成のための新しい種類のGAN識別器を提案する。
DP-SIMSをダブした本モデルでは,ADE-20K,COCO-Stuff,Cityscapesの入力ラベルマップと画像品質と一貫性の両面から,最新の結果が得られる。
論文 参考訳(メタデータ) (2023-12-20T09:39:19Z) - SAMPLING: Scene-adaptive Hierarchical Multiplane Images Representation
for Novel View Synthesis from a Single Image [60.52991173059486]
単一画像からの新規ビュー合成のためのシーン適応型階層型多面体画像表現であるSAMPlingを紹介する。
提案手法は,KITTIデータセット上の単一画像を用いて,大規模非有界屋外シーンにおいてかなりの性能向上を示す。
論文 参考訳(メタデータ) (2023-09-12T15:33:09Z) - Dual Pyramid Generative Adversarial Networks for Semantic Image
Synthesis [94.76988562653845]
セマンティック画像合成の目標は、セマンティックラベルマップからフォトリアリスティック画像を生成することである。
しかし、現在の最先端のアプローチは、さまざまなスケールで画像で現実的なオブジェクトを生成するのに依然として苦労している。
本研究では,空間適応型正規化ブロックの条件付けを各スケールで同時に学習するDual Pyramid Generative Adversarial Network (DP-GAN)を提案する。
論文 参考訳(メタデータ) (2022-10-08T18:45:44Z) - Semantic Image Synthesis via Diffusion Models [159.4285444680301]
Denoising Diffusion Probabilistic Models (DDPM) は様々な画像生成タスクにおいて顕著な成功を収めた。
セマンティック画像合成に関する最近の研究は、主に「GAN(Generative Adversarial Nets)」に追従している。
論文 参考訳(メタデータ) (2022-06-30T18:31:51Z) - Retrieval-based Spatially Adaptive Normalization for Semantic Image
Synthesis [68.1281982092765]
本稿では,Retrieval-based spatially AdaptIve normalization (RESAIL) と呼ばれる新しい正規化モジュールを提案する。
RESAILは、正規化アーキテクチャに対するピクセルレベルのきめ細かいガイダンスを提供する。
いくつかの挑戦的なデータセットの実験により、RESAILは定量的メトリクス、視覚的品質、主観的評価の観点から、最先端技術に対して好意的に機能することが示された。
論文 参考訳(メタデータ) (2022-04-06T14:21:39Z) - TediGAN: Text-Guided Diverse Face Image Generation and Manipulation [52.83401421019309]
TediGANはマルチモーダル画像生成とテキスト記述による操作のためのフレームワークである。
StyleGANインバージョンモジュールは、よく訓練されたStyleGANの潜在空間に実際の画像をマッピングする。
視覚言語的類似性は、画像とテキストを共通の埋め込み空間にマッピングすることで、テキスト画像マッチングを学ぶ。
インスタンスレベルの最適化は、操作におけるID保存のためのものだ。
論文 参考訳(メタデータ) (2020-12-06T16:20:19Z) - Controllable Image Synthesis via SegVAE [89.04391680233493]
セマンティックマップは条件付き画像生成の中間表現として一般的に使用される。
本研究では,所望のカテゴリからなるラベルセットを与えられたセマンティックマップの生成を特に対象とする。
提案するフレームワークSegVAEは,条件付き変分オートエンコーダを用いて,セマンティックマップを反復的に合成する。
論文 参考訳(メタデータ) (2020-07-16T15:18:53Z) - Generating Annotated High-Fidelity Images Containing Multiple Coherent
Objects [10.783993190686132]
コンテキスト情報を明示的に必要とせずに、複数のオブジェクトで画像を合成できるマルチオブジェクト生成フレームワークを提案する。
我々は,Multi-MNISTおよびCLEVRデータセットを用いた実験により,コヒーレンシーと忠実さの保存方法を示す。
論文 参考訳(メタデータ) (2020-06-22T11:33:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。