論文の概要: In&Out : Diverse Image Outpainting via GAN Inversion
- arxiv url: http://arxiv.org/abs/2104.00675v1
- Date: Thu, 1 Apr 2021 17:59:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-02 13:32:57.149115
- Title: In&Out : Diverse Image Outpainting via GAN Inversion
- Title(参考訳): In&Out : GANインバージョンによる横画像出力
- Authors: Yen-Chi Cheng, Chieh Hubert Lin, Hsin-Ying Lee, Jian Ren, Sergey
Tulyakov, Ming-Hsuan Yang
- Abstract要約: image outpaintingは、利用可能なコンテンツを超えて、入力画像の意味的に一貫した拡張を求める。
本研究では、生成的対向ネットワークの反転の観点から問題を定式化する。
私達の発電機はイメージの彼らの共同潜入コードそして個々の位置で調節されるマイクロ パッチをレンダリングします。
- 参考スコア(独自算出の注目度): 89.84841983778672
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image outpainting seeks for a semantically consistent extension of the input
image beyond its available content. Compared to inpainting -- filling in
missing pixels in a way coherent with the neighboring pixels -- outpainting can
be achieved in more diverse ways since the problem is less constrained by the
surrounding pixels. Existing image outpainting methods pose the problem as a
conditional image-to-image translation task, often generating repetitive
structures and textures by replicating the content available in the input
image. In this work, we formulate the problem from the perspective of inverting
generative adversarial networks. Our generator renders micro-patches
conditioned on their joint latent code as well as their individual positions in
the image. To outpaint an image, we seek for multiple latent codes not only
recovering available patches but also synthesizing diverse outpainting by
patch-based generation. This leads to richer structure and content in the
outpainted regions. Furthermore, our formulation allows for outpainting
conditioned on the categorical input, thereby enabling flexible user controls.
Extensive experimental results demonstrate the proposed method performs
favorably against existing in- and outpainting methods, featuring higher visual
quality and diversity.
- Abstract(参考訳): image outpaintingは、利用可能なコンテンツを超えて、入力画像の意味的に一貫した拡張を求める。
隣接するピクセルとのコヒーレントな方法で、欠落したピクセルを埋めることと比較すると、問題は周囲のピクセルに制約されないため、より多様な方法で得られる。
既存の画像出力方式は、条件付き画像から画像への変換タスクとして問題を起こし、しばしば入力画像で利用可能なコンテンツを複製することで、繰り返し構造やテクスチャを生成する。
本研究では、生成的対向ネットワークの反転の観点から問題を定式化する。
我々のジェネレータは、画像中の個々の位置だけでなく、彼らのジョイント潜在コードに条件付きマイクロパッチをレンダリングする。
イメージをオーバーペイントするために、利用可能なパッチを復元するだけでなく、パッチベースの生成によって様々なアウトパインを合成する複数の潜在コードを求める。
これにより、塗装された領域におけるよりリッチな構造と内容が得られる。
さらに, カテゴリ入力の条件を上回ることにより, フレキシブルなユーザ制御を実現する。
広範な実験結果から,提案手法は既存のイン・イン・アウト・ペインティング法に好適な効果を示し,高い視覚品質と多様性を示した。
関連論文リスト
- Fill in the ____ (a Diffusion-based Image Inpainting Pipeline) [0.0]
塗り絵は、画像を撮り、失った、または故意に隠された部分を生成する過程である。
現代の塗装技術は、有能な完成物を生成する際、顕著な能力を示している。
既存のモデルにおける重要なギャップに対処し、何が正確に生成されたかをプロンプトし制御する能力に焦点を当てる。
論文 参考訳(メタデータ) (2024-03-24T05:26:55Z) - Continuous-Multiple Image Outpainting in One-Step via Positional Query
and A Diffusion-based Approach [104.2588068730834]
本稿では, 文献で未解決の2つの方向において, 画像出力の技術的フロンティアを推し進める。
トレーニング済みのバックボーンネットワークに依存しない手法を開発した。
提案手法(PQDiff)を公開ベンチマークで評価し,最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-28T13:00:38Z) - Perceptual Artifacts Localization for Inpainting [60.5659086595901]
そこで本研究では,知覚的アーティファクトの自動セグメンテーションの学習タスクを提案する。
データセット上で高度なセグメンテーションネットワークをトレーニングし、インペイントされた画像内のインペイントされたアーティファクトを確実にローカライズする。
また, 対象領域と対象領域全体との比率である知覚人工物比 (PAR) という新しい評価指標を提案する。
論文 参考訳(メタデータ) (2022-08-05T18:50:51Z) - Cylin-Painting: Seamless {360\textdegree} Panoramic Image Outpainting
and Beyond [136.18504104345453]
塗り絵と塗り絵の間に有意義な協調関係を持つキリン塗り絵の枠組みを提示する。
提案アルゴリズムは、オブジェクト検出、深さ推定、画像超解像などの他のパノラマ視覚タスクに効果的に拡張できる。
論文 参考訳(メタデータ) (2022-04-18T21:18:49Z) - TransFill: Reference-guided Image Inpainting by Merging Multiple Color
and Spatial Transformations [35.9576572490994]
本稿では,対象画像とシーン内容を共有する別のソース画像を参照して,穴を埋めるマルチホモグラフィ変換核融合法であるtransfillを提案する。
色を調整し、各ホモグラフィー歪んだソースイメージにピクセルレベルのワーピングを適用して、ターゲットとの整合性を高めることを学びます。
本手法は,多種多様なベースラインと色差にまたがる画像対の最先端性能を実現し,ユーザ提供画像対に一般化する。
論文 参考訳(メタデータ) (2021-03-29T22:45:07Z) - Free-Form Image Inpainting via Contrastive Attention Network [64.05544199212831]
画像の塗装作業では、複雑なパターンを形成する画像のどこにでも、どんな形でもマスクが現れる。
エンコーダはこの複雑な状況下でこのような強力な表現を捕捉することは困難である。
本稿では,ロバスト性と一般化性を改善するための自己教師型シームズ推論ネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-29T14:46:05Z) - Painting Outside as Inside: Edge Guided Image Outpainting via
Bidirectional Rearrangement with Progressive Step Learning [18.38266676724225]
双方向境界領域再構成を用いた画像出力方式を提案する。
提案手法は, 定性的, 定量的に, 他の最先端の塗装工法と比較した。
実験の結果,本手法は他の手法よりも優れ,360デグパノラマ特性を持つ新しい画像を生成することがわかった。
論文 参考訳(メタデータ) (2020-10-05T06:53:55Z) - Very Long Natural Scenery Image Prediction by Outpainting [96.8509015981031]
アウトペイントには2つの課題があるため、あまり注意を払わない。
第一の課題は、生成された画像と元の入力の間の空間的および内容的整合性を維持する方法である。
第2の課題は、生成した結果の高品質を維持する方法です。
論文 参考訳(メタデータ) (2019-12-29T16:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。