論文の概要: Guidance and Evaluation: Semantic-Aware Image Inpainting for Mixed
Scenes
- arxiv url: http://arxiv.org/abs/2003.06877v3
- Date: Fri, 10 Jul 2020 10:58:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 09:05:21.323701
- Title: Guidance and Evaluation: Semantic-Aware Image Inpainting for Mixed
Scenes
- Title(参考訳): 混合シーンにおける意味認識画像インペインティングの指導と評価
- Authors: Liang Liao, Jing Xiao, Zheng Wang, Chia-Wen Lin, Shin'ichi Satoh
- Abstract要約: 本稿では,SGE-Net(Semantic Guidance and Evaluation Network)を提案する。
セマンティックセグメンテーションマップをインペイントの各尺度のガイダンスとして利用し、そこで位置依存推論を再評価する。
混合シーンの現実画像に対する実験により,提案手法が最先端手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 54.836331922449666
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Completing a corrupted image with correct structures and reasonable textures
for a mixed scene remains an elusive challenge. Since the missing hole in a
mixed scene of a corrupted image often contains various semantic information,
conventional two-stage approaches utilizing structural information often lead
to the problem of unreliable structural prediction and ambiguous image texture
generation. In this paper, we propose a Semantic Guidance and Evaluation
Network (SGE-Net) to iteratively update the structural priors and the inpainted
image in an interplay framework of semantics extraction and image inpainting.
It utilizes semantic segmentation map as guidance in each scale of inpainting,
under which location-dependent inferences are re-evaluated, and, accordingly,
poorly-inferred regions are refined in subsequent scales. Extensive experiments
on real-world images of mixed scenes demonstrated the superiority of our
proposed method over state-of-the-art approaches, in terms of clear boundaries
and photo-realistic textures.
- Abstract(参考訳): 複雑なシーンの正しい構造と合理的なテクスチャを備えた腐敗したイメージを完成させることは、いまだに難しい課題である。
劣化した画像の混合シーンの欠落穴には様々な意味情報が含まれることが多いため、従来の2段階のアプローチでは、信頼できない構造予測と曖昧な画像テクスチャ生成の問題が発生することが多い。
本稿では,セマンティクス抽出と画像インパインティングの相互プレイフレームワークにおいて,構造先行とインペイント画像を反復的に更新する意味的指導・評価ネットワーク(sge-net)を提案する。
セマンティクスセグメンテーションマップを、位置依存的な推論を再評価するインペインティングの各尺度のガイダンスとして使用し、それゆえ、後続のスケールで不適切な推論領域を洗練する。
混合シーンの現実画像に対する大規模な実験により,提案手法が最先端手法よりも明瞭な境界とフォトリアリスティックテクスチャで優れていることが示された。
関連論文リスト
- ENTED: Enhanced Neural Texture Extraction and Distribution for
Reference-based Blind Face Restoration [51.205673783866146]
我々は,高品質でリアルな肖像画を復元することを目的とした,ブラインドフェイス修復のための新しいフレームワークであるENTEDを提案する。
劣化した入力画像と参照画像の間で高品質なテクスチャ特徴を伝達するために,テクスチャ抽出と分布の枠組みを利用する。
われわれのフレームワークにおけるStyleGANのようなアーキテクチャは、現実的な画像を生成するために高品質な潜伏符号を必要とする。
論文 参考訳(メタデータ) (2024-01-13T04:54:59Z) - Semantic Image Translation for Repairing the Texture Defects of Building
Models [16.764719266178655]
本稿では, ファサードテクスチャ画像の合成手法を提案する。
提案手法は,既存のテクスチャを欠いたファッケードに対して,テクスチャイメージを特定のスタイルで合成することも可能である。
論文 参考訳(メタデータ) (2023-03-30T14:38:53Z) - Structure-Guided Image Completion with Image-level and Object-level Semantic Discriminators [97.12135238534628]
複雑な意味論やオブジェクトの生成を改善するために,セマンティック・ディミネータとオブジェクトレベル・ディミネータからなる学習パラダイムを提案する。
特に、セマンティック・ディミネーターは、事前学習された視覚的特徴を利用して、生成された視覚概念の現実性を改善する。
提案手法は, 生成品質を著しく向上させ, 各種タスクの最先端化を実現する。
論文 参考訳(メタデータ) (2022-12-13T01:36:56Z) - Instance-Aware Image Completion [15.64981939298373]
我々はImCompleteと呼ばれる新しい画像補完モデルを提案する。
ImCompleteはまず、見えるインスタンスと行方不明領域の位置を考慮に入れたトランスフォーマーアーキテクチャを採用する。
その後、ImCompleteは行方不明領域内のセマンティックセマンティクスマスクを完了し、ピクセルレベルのセマンティクスと構造的ガイダンスを提供する。
論文 参考訳(メタデータ) (2022-10-22T04:38:00Z) - Reference-Guided Texture and Structure Inference for Image Inpainting [25.775006005766222]
インペインティングのための10K対の入力画像と参照画像を含むベンチマークデータセットを構築した。
入力画像のテクスチャや構造的特徴を推測するために,エンコーダ・デコーダ構造を採用する。
さらに、参照画像の誘導により、入力画像のこれらの特徴を洗練するように、特徴アライメントモジュールを設計する。
論文 参考訳(メタデータ) (2022-07-29T06:26:03Z) - Marginal Contrastive Correspondence for Guided Image Generation [58.0605433671196]
例題に基づく画像翻訳は、条件入力と2つの異なる領域からの例題間の密接な対応を確立する。
既存の作業は、2つのドメインにまたがる機能的距離を最小化することで、ドメイン間の通信を暗黙的に構築する。
本稿では,MCL-Net(Marginal Contrastive Learning Network)の設計を行った。
論文 参考訳(メタデータ) (2022-04-01T13:55:44Z) - GLocal: Global Graph Reasoning and Local Structure Transfer for Person
Image Generation [2.580765958706854]
我々は、人像生成、すなわち、腐敗したテクスチャや異なるポーズなど、様々な条件下で人像を生成することに焦点を当てる。
本稿では,異なる意味領域間のスタイル相互相関を世界規模で推論することで,咬合認識のテクスチャ推定を改善するためのGLocalフレームワークを提案する。
局所構造情報保存のために,さらにソース画像の局所構造を抽出し,局所構造転送により生成画像に復元する。
論文 参考訳(メタデータ) (2021-12-01T03:54:30Z) - Context-Aware Image Inpainting with Learned Semantic Priors [100.99543516733341]
欠落した内容を推定するために意味的に意味のある前文タスクを導入する。
本研究では,グローバルなセマンティクスと局所的な特徴を適応的に統合した文脈認識型画像インパインティングモデルを提案する。
論文 参考訳(メタデータ) (2021-06-14T08:09:43Z) - Image Inpainting Guided by Coherence Priors of Semantics and Textures [62.92586889409379]
セマンティクスとテクスチャ間のコヒーレンスプリエンスを導入することにより、セマンティクス的な方法で別々のテクスチャを完成させることに集中できる。
また,全体構造と詳細なテクスチャの観点から,セマンティクスとインペインテッドイメージの一貫性を制約する2つのコヒーレンス損失を提案する。
論文 参考訳(メタデータ) (2020-12-15T02:59:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。