論文の概要: Very Long Natural Scenery Image Prediction by Outpainting
- arxiv url: http://arxiv.org/abs/1912.12688v1
- Date: Sun, 29 Dec 2019 16:29:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-17 07:55:49.898096
- Title: Very Long Natural Scenery Image Prediction by Outpainting
- Title(参考訳): アウトペイントによる超長期自然景観画像の予測
- Authors: Zongxin Yang, Jian Dong, Ping Liu, Yi Yang, Shuicheng Yan
- Abstract要約: アウトペイントには2つの課題があるため、あまり注意を払わない。
第一の課題は、生成された画像と元の入力の間の空間的および内容的整合性を維持する方法である。
第2の課題は、生成した結果の高品質を維持する方法です。
- 参考スコア(独自算出の注目度): 96.8509015981031
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Comparing to image inpainting, image outpainting receives less attention due
to two challenges in it. The first challenge is how to keep the spatial and
content consistency between generated images and original input. The second
challenge is how to maintain high quality in generated results, especially for
multi-step generations in which generated regions are spatially far away from
the initial input. To solve the two problems, we devise some innovative
modules, named Skip Horizontal Connection and Recurrent Content Transfer, and
integrate them into our designed encoder-decoder structure. By this design, our
network can generate highly realistic outpainting prediction effectively and
efficiently. Other than that, our method can generate new images with very long
sizes while keeping the same style and semantic content as the given input. To
test the effectiveness of the proposed architecture, we collect a new scenery
dataset with diverse, complicated natural scenes. The experimental results on
this dataset have demonstrated the efficacy of our proposed network. The code
and dataset are available from https://github.com/z-x-yang/NS-Outpainting.
- Abstract(参考訳): 画像の塗り絵に比べて、画像の塗り絵は2つの課題によりあまり注目されない。
最初の課題は、生成された画像とオリジナルの入力の間の空間的およびコンテンツの一貫性を維持する方法である。
第2の課題は、特に生成領域が初期入力から空間的に離れているマルチステップ世代において、生成結果の高品質を維持する方法である。
この2つの問題を解決するために,Skip Horizontal Connection と Recurrent Content Transfer という,革新的なモジュールを開発し,それを設計したエンコーダ・デコーダ構造に統合した。
この設計により, ネットワークは, 効果的かつ効率的に, 高度に現実的なアウトパインティング予測を生成できる。
それ以外は,提案手法は入力と同一のスタイルとセマンティックコンテンツを保ちながら,非常に長いサイズで新たな画像を生成することができる。
提案手法の有効性を検証するため,多様で複雑な自然シーンを持つ新たな景観データセットを収集する。
このデータセットを用いた実験により,提案するネットワークの有効性が実証された。
コードとデータセットはhttps://github.com/z-x-yang/ns-outpaintingから入手できる。
関連論文リスト
- T-former: An Efficient Transformer for Image Inpainting [50.43302925662507]
トランスフォーマーと呼ばれる注目に基づくネットワークアーキテクチャのクラスは、自然言語処理の分野で大きなパフォーマンスを示している。
本稿では,Taylorの展開に応じて,解像度に線形に関連付けられた新たな注意を設計し,この注意に基づいて,画像インペイントのためのネットワークである$T$-formerを設計する。
いくつかのベンチマークデータセットの実験により,提案手法は比較的少ないパラメータ数と計算複雑性を維持しつつ,最先端の精度を達成できることが示されている。
論文 参考訳(メタデータ) (2023-05-12T04:10:42Z) - A Wasserstein GAN for Joint Learning of Inpainting and its Spatial
Optimisation [3.4392739159262145]
空間的インペイントデータ最適化のための最初の生成逆ネットワークを提案する。
従来のアプローチとは対照的に、着色発電機とそれに対応するマスクネットワークのジョイントトレーニングが可能である。
これにより、従来のモデルよりも視覚的品質とスピードが大幅に向上し、現在の最適化ネットワークよりも優れています。
論文 参考訳(メタデータ) (2022-02-11T14:02:36Z) - Fully Context-Aware Image Inpainting with a Learned Semantic Pyramid [102.24539566851809]
画像中の任意の欠落する領域に対して、合理的で現実的なコンテンツを復元することは、重要な課題である。
最近の画像インパインティングモデルは鮮明な視覚的詳細を生成するために大きな進歩を遂げているが、それでもテクスチャのぼやけや構造的歪みにつながる可能性がある。
本研究では,画像中の局所的欠落コンテンツの回復に大きく貢献する,多スケールなセマンティック・セマンティック・ピラミッド・ネットワーク(SPN)を提案する。
論文 参考訳(メタデータ) (2021-12-08T04:33:33Z) - In&Out : Diverse Image Outpainting via GAN Inversion [89.84841983778672]
image outpaintingは、利用可能なコンテンツを超えて、入力画像の意味的に一貫した拡張を求める。
本研究では、生成的対向ネットワークの反転の観点から問題を定式化する。
私達の発電機はイメージの彼らの共同潜入コードそして個々の位置で調節されるマイクロ パッチをレンダリングします。
論文 参考訳(メタデータ) (2021-04-01T17:59:10Z) - Free-Form Image Inpainting via Contrastive Attention Network [64.05544199212831]
画像の塗装作業では、複雑なパターンを形成する画像のどこにでも、どんな形でもマスクが現れる。
エンコーダはこの複雑な状況下でこのような強力な表現を捕捉することは困難である。
本稿では,ロバスト性と一般化性を改善するための自己教師型シームズ推論ネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-29T14:46:05Z) - Painting Outside as Inside: Edge Guided Image Outpainting via
Bidirectional Rearrangement with Progressive Step Learning [18.38266676724225]
双方向境界領域再構成を用いた画像出力方式を提案する。
提案手法は, 定性的, 定量的に, 他の最先端の塗装工法と比較した。
実験の結果,本手法は他の手法よりも優れ,360デグパノラマ特性を持つ新しい画像を生成することがわかった。
論文 参考訳(メタデータ) (2020-10-05T06:53:55Z) - Deep Generative Model for Image Inpainting with Local Binary Pattern
Learning and Spatial Attention [28.807711307545112]
本稿では,LBP学習ネットワークと実際の塗布ネットワークを組み合わせることで,エンド・ツー・エンドの2段階(粗い)生成モデルを提案する。
CelebA-HQ、Places、Paris StreetViewといった公開データセットの実験では、我々のモデルは最先端の競合するアルゴリズムよりも優れた塗装結果を生成する。
論文 参考訳(メタデータ) (2020-09-02T12:59:28Z) - High-Resolution Image Inpainting with Iterative Confidence Feedback and
Guided Upsampling [122.06593036862611]
既存の画像塗装法は、実アプリケーションで大きな穴を扱う際に、しばしばアーティファクトを生成する。
本稿では,フィードバック機構を備えた反復インペイント手法を提案する。
実験により,本手法は定量評価と定性評価の両方において既存手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2020-05-24T13:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。