論文の概要: VCNet: A Robust Approach to Blind Image Inpainting
- arxiv url: http://arxiv.org/abs/2003.06816v1
- Date: Sun, 15 Mar 2020 12:47:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 08:54:20.252763
- Title: VCNet: A Robust Approach to Blind Image Inpainting
- Title(参考訳): VCNet: ブラインド画像へのロバストなアプローチ
- Authors: Yi Wang, Ying-Cong Chen, Xin Tao, Jiaya Jia
- Abstract要約: ブラインド・インペインティング(Blind inpainting)は、画像内の欠落した領域のマスクを指定せずに、視覚的コンテンツを自動的に完了するタスクである。
本稿では,未知の領域パターンに対してブラインド塗装ニューラルネットワークのトレーニングを堅牢にする,新たなブラインド塗装設定を定義する。
我々の手法はブラインド画像の塗布において有効で堅牢であり、また当社のVCNは幅広い応用を可能にしている。
- 参考スコア(独自算出の注目度): 70.68227719731243
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Blind inpainting is a task to automatically complete visual contents without
specifying masks for missing areas in an image. Previous works assume missing
region patterns are known, limiting its application scope. In this paper, we
relax the assumption by defining a new blind inpainting setting, making
training a blind inpainting neural system robust against various unknown
missing region patterns. Specifically, we propose a two-stage visual
consistency network (VCN), meant to estimate where to fill (via masks) and
generate what to fill. In this procedure, the unavoidable potential mask
prediction errors lead to severe artifacts in the subsequent repairing. To
address it, our VCN predicts semantically inconsistent regions first, making
mask prediction more tractable. Then it repairs these estimated missing regions
using a new spatial normalization, enabling VCN to be robust to the mask
prediction errors. In this way, semantically convincing and visually compelling
content is thus generated. Extensive experiments are conducted, showing our
method is effective and robust in blind image inpainting. And our VCN allows
for a wide spectrum of applications.
- Abstract(参考訳): blind inpaintingは、画像に欠けている領域のマスクを指定することなく、自動的にビジュアルコンテンツを完成させるタスクである。
以前の作業では、欠落している領域パターンが知られており、その適用範囲が制限されていると仮定している。
本稿では,新しい盲点塗装設定を定義して仮定を緩和し,未知の未知領域パターンに対して,盲点塗装ニューラルネットワークのトレーニングを堅牢にする。
具体的には,2段階の視覚的整合性ネットワーク(VCN)を提案する。
この手順では、避けられない潜在的なマスク予測エラーは、その後の修復において深刻なアーティファクトにつながる。
この問題に対処するため、VCNはまず意味的に一貫性のない領域を予測する。
その後、新しい空間正規化を用いてこれらの推定欠落領域を修復し、VCNはマスク予測エラーに対して堅牢である。
このように、意味的に説得力があり、視覚的に説得力のあるコンテンツが生成される。
本手法はブラインド画像インパインティングにおいて有効かつ堅牢であることを示すため,広範な実験を行った。
当社のVCNは幅広いアプリケーションを可能にしています。
関連論文リスト
- Towards Improved Input Masking for Convolutional Neural Networks [66.99060157800403]
層マスキングと呼ぶCNNのための新しいマスキング手法を提案する。
本手法は,マスク形状や色がモデル出力に与える影響を排除あるいは最小化することができることを示す。
また,マスクの形状がクラスに関する情報を漏洩させる可能性を示し,クラス関連特徴に対するモデル依存度の推定に影響を及ぼすことを示した。
論文 参考訳(メタデータ) (2022-11-26T19:31:49Z) - Learning Prior Feature and Attention Enhanced Image Inpainting [63.21231753407192]
本稿では,事前学習に基づくMasked AutoEncoder(MAE)を塗装モデルに組み込む。
マスク付き領域とマスキングされていない領域間の長距離依存性をより学習させるために,MAE の注意点を用いた手法を提案する。
論文 参考訳(メタデータ) (2022-08-03T04:32:53Z) - NeRF-In: Free-Form NeRF Inpainting with RGB-D Priors [14.911856302172996]
我々は,事前学習したNeRFで表現された3Dシーンにおいて,望ましくないオブジェクトや望ましくない領域を除去できる最初のフレームワークを紹介した。
より短い時間と少ないユーザ手作業を用いて、複数のビューにまたがって視覚的可視かつ構造的に一貫した結果が得られることを示す。
論文 参考訳(メタデータ) (2022-06-10T06:54:22Z) - RePaint: Inpainting using Denoising Diffusion Probabilistic Models [161.74792336127345]
Free-form Inpaintingは任意のバイナリマスクで指定された領域のイメージに新しいコンテンツを追加するタスクである。
RePaint: A Denoising Probabilistic Model (DDPM) を用いた塗装手法を提案する。
本手法は,標準的なマスクと極端マスクを用いて,顔と汎用画像の塗装の両面で検証する。
論文 参考訳(メタデータ) (2022-01-24T18:40:15Z) - FT-TDR: Frequency-guided Transformer and Top-Down Refinement Network for
Blind Face Inpainting [77.78305705925376]
ブラインド・フェイス・インペインティング(ブラインド・フェイス・インペインティング)とは、顔画像の劣化した領域を明確に示さずに、視覚コンテンツを再構築する作業である。
本稿では、これらの課題に対処するために、周波数誘導変換器とTop-Down Refinement Network(FT-TDR)と呼ばれる新しい2段階ブラインドフェイス塗装法を提案する。
論文 参考訳(メタデータ) (2021-08-10T03:12:01Z) - Image Inpainting by End-to-End Cascaded Refinement with Mask Awareness [66.55719330810547]
任意の欠落領域を塗りつぶすことは、様々なマスクされた領域で有効な特徴を学ぶことは非自明だから難しい。
符号化フェーズにおける欠落領域のマルチスケール特徴を学習する新しいマスク対応インペイントソリューションを提案する。
私たちのフレームワークは、3つの公開データセットに関する広範な実験を通じて定量的および定性的に検証されます。
論文 参考訳(メタデータ) (2021-04-28T13:17:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。