論文の概要: An Edge Information and Mask Shrinking Based Image Inpainting Approach
- arxiv url: http://arxiv.org/abs/2006.06196v1
- Date: Thu, 11 Jun 2020 05:15:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 13:33:46.373762
- Title: An Edge Information and Mask Shrinking Based Image Inpainting Approach
- Title(参考訳): エッジ情報とマスクスライキングに基づく画像インペインティング手法
- Authors: Huali Xu, Xiangdong Su, Meng Wang, Xiang Hao, Guanglai Gao
- Abstract要約: 欠損領域における高周波情報と低周波情報の両方を修復する能力は、復元画像の品質にかなりの影響を及ぼす。
本稿では,2つのモデルからなるエッジ情報とマスク縮小画像の塗装手法を提案する。
- 参考スコア(独自算出の注目度): 20.802331390429043
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the image inpainting task, the ability to repair both high-frequency and
low-frequency information in the missing regions has a substantial influence on
the quality of the restored image. However, existing inpainting methods usually
fail to consider both high-frequency and low-frequency information
simultaneously. To solve this problem, this paper proposes edge information and
mask shrinking based image inpainting approach, which consists of two models.
The first model is an edge generation model used to generate complete edge
information from the damaged image, and the second model is an image completion
model used to fix the missing regions with the generated edge information and
the valid contents of the damaged image. The mask shrinking strategy is
employed in the image completion model to track the areas to be repaired. The
proposed approach is evaluated qualitatively and quantitatively on the dataset
Places2. The result shows our approach outperforms state-of-the-art methods.
- Abstract(参考訳): 画像塗装作業において、欠落した領域の高周波情報と低周波情報の両方を修復する能力は、復元された画像の品質に大きな影響を与える。
しかし、既存の塗装法は通常、高周波情報と低周波情報の両方を同時に考えることができない。
そこで本研究では,2つのモデルからなるエッジ情報とマスク縮小画像の塗装手法を提案する。
第1モデルは、損傷画像から完全なエッジ情報を生成するために使用されるエッジ生成モデルであり、第2モデルは、発生したエッジ情報と損傷画像の有効内容とで不足領域を固定する画像補完モデルである。
マスク縮小戦略は、修復対象領域を追跡するために画像補完モデルに採用される。
提案手法はデータセットPlaces2で定性的に定量的に評価される。
その結果,本手法は最先端手法よりも優れていることがわかった。
関連論文リスト
- Image Regeneration: Evaluating Text-to-Image Model via Generating Identical Image with Multimodal Large Language Models [54.052963634384945]
画像再生タスクを導入し,テキスト・ツー・イメージ・モデルの評価を行う。
我々はGPT4Vを用いて参照画像とT2Iモデルのテキスト入力のギャップを埋める。
また、生成した画像の品質を高めるために、ImageRepainterフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-14T13:52:43Z) - Image inpainting enhancement by replacing the original mask with a self-attended region from the input image [44.8450669068833]
視覚変換器(ViT)を用いた画像インペイントのための新しい深層学習に基づく事前処理手法を提案する。
当社のアプローチでは,マスク付き画素値をViTで生成されたものと置き換えることによって,注目行列内の多様な視覚的パッチを活用し,識別空間的特徴を捉える。
論文 参考訳(メタデータ) (2024-11-08T17:04:05Z) - ENTED: Enhanced Neural Texture Extraction and Distribution for
Reference-based Blind Face Restoration [51.205673783866146]
我々は,高品質でリアルな肖像画を復元することを目的とした,ブラインドフェイス修復のための新しいフレームワークであるENTEDを提案する。
劣化した入力画像と参照画像の間で高品質なテクスチャ特徴を伝達するために,テクスチャ抽出と分布の枠組みを利用する。
われわれのフレームワークにおけるStyleGANのようなアーキテクチャは、現実的な画像を生成するために高品質な潜伏符号を必要とする。
論文 参考訳(メタデータ) (2024-01-13T04:54:59Z) - Mask Reference Image Quality Assessment [8.087355843192109]
Mask Reference IQA (MR-IQA) は、歪んだ画像の特定のパッチを隠蔽し、参照画像パッチで欠落したパッチを補う方法である。
提案手法は,ベンチマークKADID-10k, LIVE, CSIQデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-02-27T13:52:38Z) - Image Inpainting with Edge-guided Learnable Bidirectional Attention Maps [85.67745220834718]
不規則な穴の画像インペインティングを改善するためのエッジガイド学習可能な双方向注意マップ(Edge-LBAM)を紹介します。
当社のEdge-LBAMメソッドには、予測エッジによる構造認識マスク更新を含むデュアルプロシージャが含まれています。
広範な実験により,エッジlbamはコヒーレントな画像構造を生成し,色差やぼやけを防止できることがわかった。
論文 参考訳(メタデータ) (2021-04-25T07:25:16Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - Painting Outside as Inside: Edge Guided Image Outpainting via
Bidirectional Rearrangement with Progressive Step Learning [18.38266676724225]
双方向境界領域再構成を用いた画像出力方式を提案する。
提案手法は, 定性的, 定量的に, 他の最先端の塗装工法と比較した。
実験の結果,本手法は他の手法よりも優れ,360デグパノラマ特性を持つ新しい画像を生成することがわかった。
論文 参考訳(メタデータ) (2020-10-05T06:53:55Z) - Enhanced Residual Networks for Context-based Image Outpainting [0.0]
深いモデルは、保持された情報を通してコンテキストや外挿を理解するのに苦労する。
現在のモデルでは、生成的敵ネットワークを使用して、局所的な画像特徴の整合性が欠如し、偽のように見える結果を生成する。
本稿では,局所的・大域的判別器の使用と,ネットワークの符号化部における残差ブロックの追加という,この問題を改善するための2つの方法を提案する。
論文 参考訳(メタデータ) (2020-05-14T05:14:26Z) - Invertible Image Rescaling [118.2653765756915]
Invertible Rescaling Net (IRN) を開発した。
我々は、ダウンスケーリングプロセスにおいて、指定された分布に従う潜在変数を用いて、失われた情報の分布をキャプチャする。
論文 参考訳(メタデータ) (2020-05-12T09:55:53Z) - Guidance and Evaluation: Semantic-Aware Image Inpainting for Mixed
Scenes [54.836331922449666]
本稿では,SGE-Net(Semantic Guidance and Evaluation Network)を提案する。
セマンティックセグメンテーションマップをインペイントの各尺度のガイダンスとして利用し、そこで位置依存推論を再評価する。
混合シーンの現実画像に対する実験により,提案手法が最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-03-15T17:49:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。