論文の概要: ReGO: Reference-Guided Outpainting for Scenery Image
- arxiv url: http://arxiv.org/abs/2106.10601v1
- Date: Sun, 20 Jun 2021 02:34:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-23 13:41:43.629114
- Title: ReGO: Reference-Guided Outpainting for Scenery Image
- Title(参考訳): rego: イメージの参照ガイド付きアウトペインティング
- Authors: Yaxiong Wang, Yunchao Wei, Xueming Qian, Li Zhu and Yi Yang
- Abstract要約: 生成的敵対学習は、与えられた画像に対して意味的一貫したコンテンツを生成することによって、画像の画質を向上した。
本研究は, 近隣の画素を借用することにより, テクスチャに富んだ結果を合成する原理について検討する。
生成した部品のスタイルが参照画像の影響を受けないようにするために,ReGOを増強し,スタイル一貫性のある結果を合成するスタイルランキングの損失が提案されている。
- 参考スコア(独自算出の注目度): 82.21559299694555
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We aim to tackle the challenging yet practical scenery image outpainting task
in this work. Recently, generative adversarial learning has significantly
advanced the image outpainting by producing semantic consistent content for the
given image. However, the existing methods always suffer from the blurry
texture and the artifacts of the generative part, making the overall
outpainting results lack authenticity. To overcome the weakness, this work
investigates a principle way to synthesize texture-rich results by borrowing
pixels from its neighbors (\ie, reference images), named
\textbf{Re}ference-\textbf{G}uided \textbf{O}utpainting (ReGO). Particularly,
the ReGO designs an Adaptive Content Selection (ACS) module to transfer the
pixel of reference images for texture compensating of the target one. To
prevent the style of the generated part from being affected by the reference
images, a style ranking loss is further proposed to augment the ReGO to
synthesize style-consistent results. Extensive experiments on two popular
benchmarks, NS6K~\cite{yangzx} and NS8K~\cite{wang}, well demonstrate the
effectiveness of our ReGO.
- Abstract(参考訳): 本研究の課題は, 現実的かつ困難な景観イメージに対処することである。
近年,画像のセマンティックな一貫したコンテンツを生成することによって,生成的対角学習が画像の画質を著しく向上させている。
しかし、既存の手法は常にぼやけたテクスチャや生成部分のアーティファクトに苦しむため、全体的な老朽化の結果は正確性に欠ける。
この弱さを克服するため、近隣のピクセル(参考画像)から「textbf{Re}ference-\textbf{G}uided \textbf{O}utpainting (ReGO)」を借用し、テクスチャに富んだ結果を合成する原理を考察した。
特に、ReGOは、ターゲット画像のテクスチャ補償のための参照画像のピクセルを転送するための適応コンテンツ選択(ACS)モジュールを設計する。
生成された部分のスタイルが参照画像の影響を受けないようにするために、ReGOを増強し、スタイル一貫性のある結果を合成するスタイルランキングロスが提案されている。
NS6K~\cite{yangzx} と NS8K~\cite{wang} の2つの人気のあるベンチマーク実験は、我々のReGOの有効性をよく示している。
関連論文リスト
- Prune and Repaint: Content-Aware Image Retargeting for any Ratio [8.665919238538143]
本稿では,キーセマンティクスの保存と画質のバランスをとるために,PruneRepaintというコンテンツ認識手法を提案する。
前景の内容と構造に焦点を合わせることで、PruneRepaintアプローチは、キーコンテンツ損失と変形を適応的に回避する。
論文 参考訳(メタデータ) (2024-10-30T10:02:42Z) - Panoramic Image Inpainting With Gated Convolution And Contextual
Reconstruction Loss [19.659176149635417]
フェースジェネレータ,キューブジェネレータ,サイドブランチ,および2つの識別器からなるパノラマ画像インペイントフレームワークを提案する。
提案手法は,PSNRおよびSSIMの観点から,SUN360ストリートビューデータセット上の最先端(SOTA)手法と比較する。
論文 参考訳(メタデータ) (2024-02-05T11:58:08Z) - ENTED: Enhanced Neural Texture Extraction and Distribution for
Reference-based Blind Face Restoration [51.205673783866146]
我々は,高品質でリアルな肖像画を復元することを目的とした,ブラインドフェイス修復のための新しいフレームワークであるENTEDを提案する。
劣化した入力画像と参照画像の間で高品質なテクスチャ特徴を伝達するために,テクスチャ抽出と分布の枠組みを利用する。
われわれのフレームワークにおけるStyleGANのようなアーキテクチャは、現実的な画像を生成するために高品質な潜伏符号を必要とする。
論文 参考訳(メタデータ) (2024-01-13T04:54:59Z) - RepMix: Representation Mixing for Robust Attribution of Synthesized
Images [15.698564265127432]
本稿では,その意味的内容に不変なイメージをマッチングできるソリューションを提案する。
次に,表現混合と新たな損失に基づくGANフィンガープリント技術であるRepMixを提案する。
提案手法は,意味的一般化とロバスト性の両方において,既存のGANフィンガープリント作業から大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2022-07-05T14:14:06Z) - DAM-GAN : Image Inpainting using Dynamic Attention Map based on Fake
Texture Detection [6.872690425240007]
ダイナミックアテンションマップ(DAM-GAN)を用いたGANモデルを提案する。
提案するDAM-GANは,ジェネレータの特徴マップから画素不整合を減少させるために,偽テクスチャの検出と動的注意マップの製品化に重点を置いている。
CelebA-HQとPlaces2データセットの評価結果は,ネットワークの優位性を示している。
論文 参考訳(メタデータ) (2022-04-20T13:15:52Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - High-Resolution Image Inpainting with Iterative Confidence Feedback and
Guided Upsampling [122.06593036862611]
既存の画像塗装法は、実アプリケーションで大きな穴を扱う際に、しばしばアーティファクトを生成する。
本稿では,フィードバック機構を備えた反復インペイント手法を提案する。
実験により,本手法は定量評価と定性評価の両方において既存手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2020-05-24T13:23:45Z) - Exploiting Deep Generative Prior for Versatile Image Restoration and
Manipulation [181.08127307338654]
本研究は, 大規模自然画像に基づいて学習したGAN(Generative Adversarial Network)により, 得られた画像の有効利用方法を示す。
深層生成前駆体(DGP)は、色、パッチ、解像度、様々な劣化した画像の欠落したセマンティクスを復元するための説得力のある結果を提供する。
論文 参考訳(メタデータ) (2020-03-30T17:45:07Z) - Pixel-wise Conditioned Generative Adversarial Networks for Image
Synthesis and Completion [3.8807073304999355]
GAN(Generative Adversarial Networks)は、教師なし画像生成に成功している。
画素数が少ない場合, GANの条件付けの有効性について検討する。
本稿では,GAN目標関数に明示的なコスト項を付加し,画素単位の条件を強制するモデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-04T13:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。