論文の概要: Texture Transform Attention for Realistic Image Inpainting
- arxiv url: http://arxiv.org/abs/2012.04242v1
- Date: Tue, 8 Dec 2020 06:28:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 21:18:03.315596
- Title: Texture Transform Attention for Realistic Image Inpainting
- Title(参考訳): リアルな画像描画のためのテクスチャ変換
- Authors: Yejin Kim and Manri Cheon and Junwoo Lee
- Abstract要約: 本研究では,細心の注意を払って絵を描いていない領域をより良く生成するテクスチャトランスフォーメーション・アテンション・ネットワークを提案する。
Texture Transform Attentionは、細かいテクスチャと粗いセマンティクスを使用して、新しい再組み立てテクスチャマップを作成するために使用されます。
我々は,公開データセット celeba-hq と places2 を用いて,エンドツーエンドでモデルを評価する。
- 参考スコア(独自算出の注目度): 6.275013056564918
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the last few years, the performance of inpainting to fill missing
regions has shown significant improvements by using deep neural networks. Most
of inpainting work create a visually plausible structure and texture, however,
due to them often generating a blurry result, final outcomes appear unrealistic
and make feel heterogeneity. In order to solve this problem, the existing
methods have used a patch based solution with deep neural network, however,
these methods also cannot transfer the texture properly. Motivated by these
observation, we propose a patch based method. Texture Transform Attention
network(TTA-Net) that better produces the missing region inpainting with fine
details. The task is a single refinement network and takes the form of U-Net
architecture that transfers fine texture features of encoder to coarse semantic
features of decoder through skip-connection. Texture Transform Attention is
used to create a new reassembled texture map using fine textures and coarse
semantics that can efficiently transfer texture information as a result. To
stabilize training process, we use a VGG feature layer of ground truth and
patch discriminator. We evaluate our model end-to-end with the publicly
available datasets CelebA-HQ and Places2 and demonstrate that images of higher
quality can be obtained to the existing state-of-the-art approaches.
- Abstract(参考訳): 過去数年間、欠落した領域を埋めるためのインペインティングのパフォーマンスは、ディープニューラルネットワークを使用することで大幅に改善されている。
塗装された作品の多くは視覚的にもっともらしい構造とテクスチャを生み出しているが、しばしばぼやけた結果をもたらすため、最終的な結果は非現実的で不均一である。
この問題を解決するために,既存の手法ではディープニューラルネットワークを用いたパッチベースソリューションが用いられているが,テクスチャを適切に転送することはできない。
これらの観測により,パッチベースの手法を提案する。
テクスチャ変換アテンションネットワーク(TTA-Net)は、欠落する領域を細部まで描き込む。
このタスクはシングルリファインメントネットワークであり、エンコーダの細かなテクスチャ特徴をスキップ接続を通じてデコーダの粗いセマンティック特徴に伝達するU-Netアーキテクチャの形式をとる。
テクスチャ変換の注意力は、テクスチャ情報を効率的に転送できる微細なテクスチャと粗いセマンティクスを用いて、新しい再組み立てテクスチャマップを作成するために使用される。
トレーニングプロセスの安定化のために,地上真実のVGG特徴層とパッチ判別器を用いる。
我々は,公開データセット celeba-hq とplaces2 を用いてエンド・ツー・エンドのモデルを評価し,高品質の画像が既存の最先端のアプローチで得られることを示す。
関連論文リスト
- Infinite Texture: Text-guided High Resolution Diffusion Texture Synthesis [61.189479577198846]
Infinite Textureはテキストプロンプトから任意の大きさのテクスチャ画像を生成する方法である。
本手法は,1つのテクスチャ上に拡散モデルを微調整し,その分布をモデルの出力領域に埋め込むことを学習する。
1つのGPU上で任意の解像度の出力テクスチャ画像を生成するためのスコアアグリゲーションストラテジーによって、我々の微調整拡散モデルが生成される。
論文 参考訳(メタデータ) (2024-05-13T21:53:09Z) - TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - ENTED: Enhanced Neural Texture Extraction and Distribution for
Reference-based Blind Face Restoration [51.205673783866146]
我々は,高品質でリアルな肖像画を復元することを目的とした,ブラインドフェイス修復のための新しいフレームワークであるENTEDを提案する。
劣化した入力画像と参照画像の間で高品質なテクスチャ特徴を伝達するために,テクスチャ抽出と分布の枠組みを利用する。
われわれのフレームワークにおけるStyleGANのようなアーキテクチャは、現実的な画像を生成するために高品質な潜伏符号を必要とする。
論文 参考訳(メタデータ) (2024-01-13T04:54:59Z) - Semantic Image Translation for Repairing the Texture Defects of Building
Models [16.764719266178655]
本稿では, ファサードテクスチャ画像の合成手法を提案する。
提案手法は,既存のテクスチャを欠いたファッケードに対して,テクスチャイメージを特定のスタイルで合成することも可能である。
論文 参考訳(メタデータ) (2023-03-30T14:38:53Z) - TEXTure: Text-Guided Texturing of 3D Shapes [71.13116133846084]
TEXTureは,テクスチャのテクスチャのテクスチャの編集,編集,転送を行う新しい方法である。
表面テクスチャを明示することなくシームレスな3次元テクスチャを生成する3次元マップ分割プロセスを定義する。
論文 参考訳(メタデータ) (2023-02-03T13:18:45Z) - Delving Globally into Texture and Structure for Image Inpainting [20.954875933730808]
画像の塗布は目覚ましい進歩を遂げ、豊富な手法にインスピレーションを与え、重要なボトルネックは、マスキング領域における高周波構造と低周波テクスチャ情報のセマンティクスを満たす方法として特定される。
本稿では,テクスチャと構造情報を世界規模で探索し,画像インペイントのセマンティクスをうまく把握する。
我々のモデルは、テクスチャと構造情報の観点から、コナールニューラルネットワーク(CNN)やアテンション、トランスフォーマーモデルといったファッショナブルな芸術への進化である。
論文 参考訳(メタデータ) (2022-09-17T02:19:26Z) - DAM-GAN : Image Inpainting using Dynamic Attention Map based on Fake
Texture Detection [6.872690425240007]
ダイナミックアテンションマップ(DAM-GAN)を用いたGANモデルを提案する。
提案するDAM-GANは,ジェネレータの特徴マップから画素不整合を減少させるために,偽テクスチャの検出と動的注意マップの製品化に重点を置いている。
CelebA-HQとPlaces2データセットの評価結果は,ネットワークの優位性を示している。
論文 参考訳(メタデータ) (2022-04-20T13:15:52Z) - Adaptive Image Inpainting [43.02281823557039]
ディープニューラルネットワークを使用することで、塗装法は大幅に改善されている。
この問題は、欠落した領域の完全かつ忠実な埋め込みを構築する際のエンコーダ層の非効率性に根ざしている。
本稿では, エンコーダ層に対して, 直接的特徴レベルの監視を行う蒸留方式を提案する。
論文 参考訳(メタデータ) (2022-01-01T12:16:01Z) - Semantic Layout Manipulation with High-Resolution Sparse Attention [106.59650698907953]
本稿では,意味ラベルマップを編集して入力画像を操作するセマンティックイメージレイアウト操作の課題に対処する。
このタスクの中核的な問題は、視覚的にイメージを現実的にしながら、入力画像から新しいセマンティックレイアウトに視覚的な詳細を転送する方法です。
512×512の解像度で視覚的詳細を新しいレイアウトに効果的に転送する高分解能スパースアテンションモジュールを提案する。
論文 参考訳(メタデータ) (2020-12-14T06:50:43Z) - Texture Memory-Augmented Deep Patch-Based Image Inpainting [121.41395272974611]
本研究では,未成熟領域から抽出したパッチサンプルのテクスチャメモリによってテクスチャ生成をガイドする,新しいディープ・インペイント・フレームワークを提案する。
このフレームワークは、テクスチャメモリの検索を、ディープ・インパインティング・ネットワークでエンドツーエンドにトレーニングできる新しい設計である。
提案手法は,3つの課題の画像ベンチマークにおいて,質的かつ定量的に優れた性能を示す。
論文 参考訳(メタデータ) (2020-09-28T12:09:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。