論文の概要: Boosting Image Outpainting with Semantic Layout Prediction
- arxiv url: http://arxiv.org/abs/2110.09267v1
- Date: Mon, 18 Oct 2021 13:09:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 22:43:33.109865
- Title: Boosting Image Outpainting with Semantic Layout Prediction
- Title(参考訳): セマンティックレイアウト予測による画像出力向上
- Authors: Ye Ma, Jin Ma, Min Zhou, Quan Chen, Tiezheng Ge, Yuning Jiang, Tong
Lin
- Abstract要約: 我々は、画像ドメインの代わりにセマンティックセグメンテーションドメイン内の領域を拡張するために、GANを訓練する。
別のGANモデルは、拡張されたセマンティックレイアウトに基づいて実際の画像を合成するように訓練されている。
我々のアプローチは意味的な手がかりをより容易に扱えるので、複雑なシナリオではよりうまく機能します。
- 参考スコア(独自算出の注目度): 18.819765707811904
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The objective of image outpainting is to extend image current border and
generate new regions based on known ones. Previous methods adopt generative
adversarial networks (GANs) to synthesize realistic images. However, the lack
of explicit semantic representation leads to blurry and abnormal image pixels
when the outpainting areas are complex and with various objects. In this work,
we decompose the outpainting task into two stages. Firstly, we train a GAN to
extend regions in semantic segmentation domain instead of image domain.
Secondly, another GAN model is trained to synthesize real images based on the
extended semantic layouts. The first model focuses on low frequent context such
as sizes, classes and other semantic cues while the second model focuses on
high frequent context like color and texture. By this design, our approach can
handle semantic clues more easily and hence works better in complex scenarios.
We evaluate our framework on various datasets and make quantitative and
qualitative analysis. Experiments demonstrate that our method generates
reasonable extended semantic layouts and images, outperforming state-of-the-art
models.
- Abstract(参考訳): 画像出力の目的は、画像電流境界を拡張し、既知の領域に基づいて新しい領域を生成することである。
従来の手法では、GAN(Generative Adversarial Network)を用いて現実的な画像を合成する。
しかし、明示的な意味表現の欠如は、露光領域が複雑で様々なオブジェクトを持つ場合、ぼやけや異常な画像画素につながる。
本研究では,アウトペインティングタスクを2段階に分解する。
まず、ganをトレーニングして、イメージドメインではなくセマンティックセグメンテーションドメインの領域を拡張する。
第二に、拡張されたセマンティックレイアウトに基づいて実際の画像を合成するために別のganモデルを訓練する。
第1のモデルはサイズやクラスなどの低頻度なコンテキストに注目し、第2のモデルは色やテクスチャといった高頻度なコンテキストに注目します。
この設計により、我々の手法は意味的手がかりをより容易に扱えるようになり、複雑なシナリオにおいてよりうまく機能する。
各種データセットのフレームワークを評価し,定量的かつ定性的な分析を行う。
実験により,合理的に拡張されたセマンティクスレイアウトと画像を生成し,最先端モデルよりも優れることを示す。
関連論文リスト
- Unlocking Pre-trained Image Backbones for Semantic Image Synthesis [29.688029979801577]
本稿では,現実的な画像を生成するセマンティック画像合成のための新しい種類のGAN識別器を提案する。
DP-SIMSをダブした本モデルでは,ADE-20K,COCO-Stuff,Cityscapesの入力ラベルマップと画像品質と一貫性の両面から,最新の結果が得られる。
論文 参考訳(メタデータ) (2023-12-20T09:39:19Z) - Local and Global GANs with Semantic-Aware Upsampling for Image
Generation [201.39323496042527]
ローカルコンテキストを用いて画像を生成することを検討する。
セマンティックマップをガイダンスとして用いたクラス固有の生成ネットワークを提案する。
最後に,セマンティック・アウェア・アップサンプリング手法を提案する。
論文 参考訳(メタデータ) (2022-02-28T19:24:25Z) - Fully Context-Aware Image Inpainting with a Learned Semantic Pyramid [102.24539566851809]
画像中の任意の欠落する領域に対して、合理的で現実的なコンテンツを復元することは、重要な課題である。
最近の画像インパインティングモデルは鮮明な視覚的詳細を生成するために大きな進歩を遂げているが、それでもテクスチャのぼやけや構造的歪みにつながる可能性がある。
本研究では,画像中の局所的欠落コンテンツの回復に大きく貢献する,多スケールなセマンティック・セマンティック・ピラミッド・ネットワーク(SPN)を提案する。
論文 参考訳(メタデータ) (2021-12-08T04:33:33Z) - Context-Aware Image Inpainting with Learned Semantic Priors [100.99543516733341]
欠落した内容を推定するために意味的に意味のある前文タスクを導入する。
本研究では,グローバルなセマンティクスと局所的な特徴を適応的に統合した文脈認識型画像インパインティングモデルを提案する。
論文 参考訳(メタデータ) (2021-06-14T08:09:43Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Semantically Adaptive Image-to-image Translation for Domain Adaptation
of Semantic Segmentation [1.8275108630751844]
街路シーンのセマンティックセグメンテーションにおけるドメイン適応の問題に対処する。
最先端のアプローチの多くは、結果が入力とセマンティックに一致していることを示しながら、ソースイメージの翻訳に重点を置いている。
画像のセマンティクスを利用して翻訳アルゴリズムを導くことも提案する。
論文 参考訳(メタデータ) (2020-09-02T16:16:50Z) - Enhanced Residual Networks for Context-based Image Outpainting [0.0]
深いモデルは、保持された情報を通してコンテキストや外挿を理解するのに苦労する。
現在のモデルでは、生成的敵ネットワークを使用して、局所的な画像特徴の整合性が欠如し、偽のように見える結果を生成する。
本稿では,局所的・大域的判別器の使用と,ネットワークの符号化部における残差ブロックの追加という,この問題を改善するための2つの方法を提案する。
論文 参考訳(メタデータ) (2020-05-14T05:14:26Z) - Cross-domain Correspondence Learning for Exemplar-based Image
Translation [59.35767271091425]
本稿では,異なる領域の入力からフォトリアリスティックな画像を合成する,例題に基づく画像翻訳のためのフレームワークを提案する。
出力は、例において意味的に対応するオブジェクトと整合したスタイル(例えば、色、テクスチャ)を持つ。
本手法は画像品質の面で最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-04-12T09:10:57Z) - Edge Guided GANs with Contrastive Learning for Semantic Image Synthesis [194.1452124186117]
本稿では,難解なセマンティック画像合成タスクのための新しいECGANを提案する。
我々のECGANは最先端の手法よりもはるかに優れた結果が得られる。
論文 参考訳(メタデータ) (2020-03-31T01:23:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。