論文の概要: High-Resolution Image Inpainting with Iterative Confidence Feedback and
Guided Upsampling
- arxiv url: http://arxiv.org/abs/2005.11742v2
- Date: Tue, 14 Jul 2020 05:52:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 14:00:44.513501
- Title: High-Resolution Image Inpainting with Iterative Confidence Feedback and
Guided Upsampling
- Title(参考訳): 反復的信頼フィードバックとガイドアップサンプリングによる高分解能イメージパインティング
- Authors: Yu Zeng, Zhe Lin, Jimei Yang, Jianming Zhang, Eli Shechtman, Huchuan
Lu
- Abstract要約: 既存の画像塗装法は、実アプリケーションで大きな穴を扱う際に、しばしばアーティファクトを生成する。
本稿では,フィードバック機構を備えた反復インペイント手法を提案する。
実験により,本手法は定量評価と定性評価の両方において既存手法よりも有意に優れていた。
- 参考スコア(独自算出の注目度): 122.06593036862611
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing image inpainting methods often produce artifacts when dealing with
large holes in real applications. To address this challenge, we propose an
iterative inpainting method with a feedback mechanism. Specifically, we
introduce a deep generative model which not only outputs an inpainting result
but also a corresponding confidence map. Using this map as feedback, it
progressively fills the hole by trusting only high-confidence pixels inside the
hole at each iteration and focuses on the remaining pixels in the next
iteration. As it reuses partial predictions from the previous iterations as
known pixels, this process gradually improves the result. In addition, we
propose a guided upsampling network to enable generation of high-resolution
inpainting results. We achieve this by extending the Contextual Attention
module to borrow high-resolution feature patches in the input image.
Furthermore, to mimic real object removal scenarios, we collect a large object
mask dataset and synthesize more realistic training data that better simulates
user inputs. Experiments show that our method significantly outperforms
existing methods in both quantitative and qualitative evaluations. More results
and Web APP are available at https://zengxianyu.github.io/iic.
- Abstract(参考訳): 既存の画像塗装法は、実アプリケーションで大きな穴を扱う際に、しばしばアーティファクトを生成する。
この課題に対処するため,フィードバック機構を備えた反復的塗装法を提案する。
具体的には, 暗黙の結果だけでなく, 対応する信頼度マップも出力する深層生成モデルを導入する。
このマップをフィードバックとして使用すると、各イテレーションでホール内の高信頼画素のみを信頼して、次のイテレーションで残るピクセルにフォーカスすることで、徐々に穴を埋める。
前回のイテレーションからの部分的な予測を既知のピクセルとして再利用することで、このプロセスは徐々に結果を改善する。
また,高分解能インペインティング結果を生成するための誘導型アップサンプリングネットワークを提案する。
我々は、Contextual Attentionモジュールを拡張して、入力画像の高解像度な特徴パッチを借用する。
さらに,実際のオブジェクト除去シナリオを模倣するために,大規模なオブジェクトマスクデータセットを収集し,ユーザ入力をシミュレートするより現実的なトレーニングデータを合成する。
実験により,本手法は定量評価と定性評価の両方において既存手法よりも有意に優れていた。
さらなる結果とWeb APPはhttps://zengxianyu.github.io/iic.comで入手できる。
関連論文リスト
- AccDiffusion: An Accurate Method for Higher-Resolution Image Generation [63.53163540340026]
AccDiffusionは、パッチワイドの高解像度画像生成をトレーニングなしで正確に行う方法である。
本稿では,異なるパッチに対する同一のテキストプロンプトが繰り返しオブジェクト生成を引き起こすことを明らかにする。
私たちのAccDiffusionは、初めて、バニラ画像認識プロンプトをパッチコンテンツ認識プロンプトのセットに分離することを提案しています。
論文 参考訳(メタデータ) (2024-07-15T14:06:29Z) - DiffUHaul: A Training-Free Method for Object Dragging in Images [78.93531472479202]
DiffUHaulと呼ばれるオブジェクトドラッグタスクのためのトレーニング不要な手法を提案する。
まず、各認知段階に注意マスキングを適用して、各生成を異なるオブジェクトにまたがってよりゆがみやすくする。
初期のデノナイジングステップでは、ソース画像とターゲット画像の注意特徴を補間して、新しいレイアウトを元の外観とスムーズに融合させる。
論文 参考訳(メタデータ) (2024-06-03T17:59:53Z) - Magicremover: Tuning-free Text-guided Image inpainting with Diffusion
Models [24.690863845885367]
我々は,テキスト誘導画像のインペイントに強力な拡散モデルを利用する,チューニング不要なMagicRemoverを提案する。
本研究では,拡散モデルのサンプリング過程を制限し,指示された領域の消去と閉鎖されたコンテンツの復元を可能にするための注意誘導戦略を導入する。
論文 参考訳(メタデータ) (2023-10-04T14:34:11Z) - Pixel-Inconsistency Modeling for Image Manipulation Localization [59.968362815126326]
デジタル画像法医学は、画像認証と操作のローカライゼーションにおいて重要な役割を果たす。
本稿では,画素不整合アーチファクトの解析を通じて,一般化されたロバストな操作ローカライゼーションモデルを提案する。
実験により,本手法は固有の画素不整合偽指紋を抽出することに成功した。
論文 参考訳(メタデータ) (2023-09-30T02:54:51Z) - SuperInpaint: Learning Detail-Enhanced Attentional Implicit
Representation for Super-resolutional Image Inpainting [26.309834304515544]
我々はSuperInpaintと呼ばれる課題の画像復元タスクを導入する。
この課題は、低解像度画像中の欠落領域を再構築し、任意の高解像度画像を生成することである。
本論文では,SuperInpaintを1つのモデルで実現可能な細部強調型暗黙表現を提案する。
論文 参考訳(メタデータ) (2023-07-26T20:28:58Z) - Masked Image Training for Generalizable Deep Image Denoising [53.03126421917465]
本稿では,デノナイジングネットワークの一般化性能を高めるための新しい手法を提案する。
提案手法では,入力画像のランダムなピクセルをマスキングし,学習中に欠落した情報を再構成する。
提案手法は,他のディープラーニングモデルよりも優れた一般化能力を示し,実世界のシナリオに直接適用可能である。
論文 参考訳(メタデータ) (2023-03-23T09:33:44Z) - High-resolution Iterative Feedback Network for Camouflaged Object
Detection [128.893782016078]
カモフラージュされたオブジェクトを背景に視覚的に同化させることは、オブジェクト検出アルゴリズムにとって難しい。
エッジやバウンダリのぼやけた視界を生じさせる細部劣化を避けるために,高分解能テクスチャの詳細を抽出することを目的としている。
我々は,高解像度特徴量による低解像度表現を反復的フィードバック方式で洗練する新しいHitNetを提案する。
論文 参考訳(メタデータ) (2022-03-22T11:20:21Z) - Image Inpainting Using AutoEncoder and Guided Selection of Predicted
Pixels [9.527576103168984]
本稿では,U-Netと同様,画像から様々な特徴を抽出し,より優れた結果を得るネットワークを提案する。
出力画像の復元画素に損傷画素を置き換え,最終的な結果を改善した。
論文 参考訳(メタデータ) (2021-12-17T00:10:34Z) - Noise Doesn't Lie: Towards Universal Detection of Deep Inpainting [42.189768203036394]
本研究は, ディープ・インパインティングの普遍的検出に向けた最初の試みであり, 検出ネットワークの一般化を図っている。
提案手法は,既存の検出手法を大きなマージンで上回り,未確認の深層塗膜技術に最適化する。
論文 参考訳(メタデータ) (2021-06-03T01:29:29Z) - Deep Two-Stage High-Resolution Image Inpainting [0.0]
本稿では,任意の大きさの画像をペイントする問題を解決する手法を提案する。
そこで本稿では, 隣接画素からの情報を, 原像を4方向へ移動させることで利用することを提案する。
このアプローチは既存のインペイントモデルで動作可能で、再トレーニングを必要とせずにほぼ独立している。
論文 参考訳(メタデータ) (2021-04-27T20:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。