論文の概要: Delving Globally into Texture and Structure for Image Inpainting
- arxiv url: http://arxiv.org/abs/2209.08217v1
- Date: Sat, 17 Sep 2022 02:19:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 17:53:18.042587
- Title: Delving Globally into Texture and Structure for Image Inpainting
- Title(参考訳): 画像インペインティングのテクスチャと構造をグローバルに表現する
- Authors: Haipeng Liu, Yang Wang, Meng Wang, Yong Rui
- Abstract要約: 画像の塗布は目覚ましい進歩を遂げ、豊富な手法にインスピレーションを与え、重要なボトルネックは、マスキング領域における高周波構造と低周波テクスチャ情報のセマンティクスを満たす方法として特定される。
本稿では,テクスチャと構造情報を世界規模で探索し,画像インペイントのセマンティクスをうまく把握する。
我々のモデルは、テクスチャと構造情報の観点から、コナールニューラルネットワーク(CNN)やアテンション、トランスフォーマーモデルといったファッショナブルな芸術への進化である。
- 参考スコア(独自算出の注目度): 20.954875933730808
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image inpainting has achieved remarkable progress and inspired abundant
methods, where the critical bottleneck is identified as how to fulfill the
high-frequency structure and low-frequency texture information on the masked
regions with semantics. To this end, deep models exhibit powerful superiority
to capture them, yet constrained on the local spatial regions. In this paper,
we delve globally into texture and structure information to well capture the
semantics for image inpainting. As opposed to the existing arts trapped on the
independent local patches, the texture information of each patch is
reconstructed from all other patches across the whole image, to match the
coarsely filled information, specially the structure information over the
masked regions. Unlike the current decoder-only transformer within the pixel
level for image inpainting, our model adopts the transformer pipeline paired
with both encoder and decoder. On one hand, the encoder captures the texture
semantic correlations of all patches across image via self-attention module. On
the other hand, an adaptive patch vocabulary is dynamically established in the
decoder for the filled patches over the masked regions. Building on this, a
structure-texture matching attention module anchored on the known regions comes
up to marry the best of these two worlds for progressive inpainting via a
probabilistic diffusion process. Our model is orthogonal to the fashionable
arts, such as Convolutional Neural Networks (CNNs), Attention and Transformer
model, from the perspective of texture and structure information for image
inpainting. The extensive experiments over the benchmarks validate its
superiority. Our code is available at
https://github.com/htyjers/DGTS-Inpainting.
- Abstract(参考訳): 画像の塗布は目覚ましい進歩を遂げ、豊富な手法にインスピレーションを与え、重要なボトルネックは、マスキング領域における高周波構造と低周波テクスチャ情報のセマンティクスを満たす方法として特定される。
この目的のために、深層モデルはそれらを捉えるのに強力な優位を示すが、局所的な空間領域に制限されている。
本稿では,テクスチャ情報と構造情報にグローバルに目を移し,イメージインパインティングのセマンティクスをよく把握する。
独立した局所パッチに閉じ込められた既存の芸術とは対照的に、各パッチのテクスチャ情報は画像全体の他のパッチから再構成され、粗く満たされた情報、特に仮面領域上の構造情報と一致する。
画像インペイントのための画素レベルの現在のデコーダのみの変換器とは異なり、当社のモデルはエンコーダとデコーダの両方を組み合わせたトランスフォーマパイプラインを採用する。
一方、エンコーダは、自己アテンションモジュールを介して、画像にまたがるすべてのパッチのテクスチャセマンティクス相関をキャプチャする。
一方、マスク領域上の充填パッチのデコーダには、適応パッチ語彙が動的に設定される。
これに基づいて、既知の領域に固定された構造的テクスチャマッチングアテンションモジュールが登場し、確率的拡散過程を通じて進行的塗布を行う2つの世界の長所と結婚する。
我々のモデルは、テクスチャと構造情報の観点から、CNN(Convolutional Neural Networks)やAttention、Transformerモデルといったファッショナブルな芸術に直交している。
ベンチマークに関する広範な実験は、その優位性を検証する。
私たちのコードはhttps://github.com/htyjers/dgts-inpaintingで利用可能です。
関連論文リスト
- Dense Feature Interaction Network for Image Inpainting Localization [28.028361409524457]
画像の悪質な操作において、画像内容の隠蔽や改ざんに使用することができる。
既存の手法は主に基本的なエンコーダ・デコーダ構造に依存しており、多くの場合、偽陽性が多くなる。
本稿では,Dense Feature Interaction Network (DeFI-Net) に基づく新しい塗り絵検出手法について述べる。
論文 参考訳(メタデータ) (2024-08-05T02:35:13Z) - T-former: An Efficient Transformer for Image Inpainting [50.43302925662507]
トランスフォーマーと呼ばれる注目に基づくネットワークアーキテクチャのクラスは、自然言語処理の分野で大きなパフォーマンスを示している。
本稿では,Taylorの展開に応じて,解像度に線形に関連付けられた新たな注意を設計し,この注意に基づいて,画像インペイントのためのネットワークである$T$-formerを設計する。
いくつかのベンチマークデータセットの実験により,提案手法は比較的少ないパラメータ数と計算複雑性を維持しつつ,最先端の精度を達成できることが示されている。
論文 参考訳(メタデータ) (2023-05-12T04:10:42Z) - Semantic Image Translation for Repairing the Texture Defects of Building
Models [16.764719266178655]
本稿では, ファサードテクスチャ画像の合成手法を提案する。
提案手法は,既存のテクスチャを欠いたファッケードに対して,テクスチャイメージを特定のスタイルで合成することも可能である。
論文 参考訳(メタデータ) (2023-03-30T14:38:53Z) - Reference-Guided Texture and Structure Inference for Image Inpainting [25.775006005766222]
インペインティングのための10K対の入力画像と参照画像を含むベンチマークデータセットを構築した。
入力画像のテクスチャや構造的特徴を推測するために,エンコーダ・デコーダ構造を採用する。
さらに、参照画像の誘導により、入力画像のこれらの特徴を洗練するように、特徴アライメントモジュールを設計する。
論文 参考訳(メタデータ) (2022-07-29T06:26:03Z) - Modeling Image Composition for Complex Scene Generation [77.10533862854706]
本稿では,レイアウト・ツー・イメージ生成タスクにおける最先端結果を実現する手法を提案する。
本稿では,RGB画像をパッチトークンに圧縮した後,オブジェクト・トゥ・オブジェクト,オブジェクト・トゥ・パッチ,パッチ・トゥ・パッチの依存関係を探索するTransformer with Focal Attention (TwFA)を提案する。
論文 参考訳(メタデータ) (2022-06-02T08:34:25Z) - Context-Aware Image Inpainting with Learned Semantic Priors [100.99543516733341]
欠落した内容を推定するために意味的に意味のある前文タスクを導入する。
本研究では,グローバルなセマンティクスと局所的な特徴を適応的に統合した文脈認識型画像インパインティングモデルを提案する。
論文 参考訳(メタデータ) (2021-06-14T08:09:43Z) - Texture Transform Attention for Realistic Image Inpainting [6.275013056564918]
本研究では,細心の注意を払って絵を描いていない領域をより良く生成するテクスチャトランスフォーメーション・アテンション・ネットワークを提案する。
Texture Transform Attentionは、細かいテクスチャと粗いセマンティクスを使用して、新しい再組み立てテクスチャマップを作成するために使用されます。
我々は,公開データセット celeba-hq と places2 を用いて,エンドツーエンドでモデルを評価する。
論文 参考訳(メタデータ) (2020-12-08T06:28:51Z) - Free-Form Image Inpainting via Contrastive Attention Network [64.05544199212831]
画像の塗装作業では、複雑なパターンを形成する画像のどこにでも、どんな形でもマスクが現れる。
エンコーダはこの複雑な状況下でこのような強力な表現を捕捉することは困難である。
本稿では,ロバスト性と一般化性を改善するための自己教師型シームズ推論ネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-29T14:46:05Z) - Texture Memory-Augmented Deep Patch-Based Image Inpainting [121.41395272974611]
本研究では,未成熟領域から抽出したパッチサンプルのテクスチャメモリによってテクスチャ生成をガイドする,新しいディープ・インペイント・フレームワークを提案する。
このフレームワークは、テクスチャメモリの検索を、ディープ・インパインティング・ネットワークでエンドツーエンドにトレーニングできる新しい設計である。
提案手法は,3つの課題の画像ベンチマークにおいて,質的かつ定量的に優れた性能を示す。
論文 参考訳(メタデータ) (2020-09-28T12:09:08Z) - Guidance and Evaluation: Semantic-Aware Image Inpainting for Mixed
Scenes [54.836331922449666]
本稿では,SGE-Net(Semantic Guidance and Evaluation Network)を提案する。
セマンティックセグメンテーションマップをインペイントの各尺度のガイダンスとして利用し、そこで位置依存推論を再評価する。
混合シーンの現実画像に対する実験により,提案手法が最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-03-15T17:49:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。