論文の概要: Context-Aware Image Inpainting with Learned Semantic Priors
- arxiv url: http://arxiv.org/abs/2106.07220v1
- Date: Mon, 14 Jun 2021 08:09:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 15:57:54.280367
- Title: Context-Aware Image Inpainting with Learned Semantic Priors
- Title(参考訳): セマンティック事前学習による文脈認識画像の表現
- Authors: Wendong Zhang, Junwei Zhu, Ying Tai, Yunbo Wang, Wenqing Chu, Bingbing
Ni, Chengjie Wang and Xiaokang Yang
- Abstract要約: 欠落した内容を推定するために意味的に意味のある前文タスクを導入する。
本研究では,グローバルなセマンティクスと局所的な特徴を適応的に統合した文脈認識型画像インパインティングモデルを提案する。
- 参考スコア(独自算出の注目度): 100.99543516733341
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in image inpainting have shown impressive results for
generating plausible visual details on rather simple backgrounds. However, for
complex scenes, it is still challenging to restore reasonable contents as the
contextual information within the missing regions tends to be ambiguous. To
tackle this problem, we introduce pretext tasks that are semantically
meaningful to estimating the missing contents. In particular, we perform
knowledge distillation on pretext models and adapt the features to image
inpainting. The learned semantic priors ought to be partially invariant between
the high-level pretext task and low-level image inpainting, which not only help
to understand the global context but also provide structural guidance for the
restoration of local textures. Based on the semantic priors, we further propose
a context-aware image inpainting model, which adaptively integrates global
semantics and local features in a unified image generator. The semantic learner
and the image generator are trained in an end-to-end manner. We name the model
SPL to highlight its ability to learn and leverage semantic priors. It achieves
the state of the art on Places2, CelebA, and Paris StreetView datasets.
- Abstract(参考訳): 画像インペインティングの最近の進歩は、かなり単純な背景に分かりやすい視覚詳細を生成する素晴らしい結果を示している。
しかし,複雑な場面では,不足領域内の文脈情報が曖昧になりがちであるため,合理的な内容の復元は依然として困難である。
この問題に対処するために,不足しているコンテンツの推定に意味的に意味のあるプリテキストタスクを導入する。
特に,プレテキストモデルによる知識蒸留を行い,画像のインペイントに適応する。
学習されたセマンティック先行は、高レベルのプリテキストタスクと低レベルのイメージインペイントの間に部分的に不変であるべきであり、これはグローバルな文脈を理解するのに役立つだけでなく、局所的なテクスチャの復元のための構造的ガイダンスを提供する。
さらに,このセマンティクスの優先順位に基づいて,グローバルセマンティクスと局所的な特徴を統一画像生成器に適応的に統合する,コンテキスト認識型イメージインパインティングモデルを提案する。
意味学習者と画像生成者は、エンドツーエンドで訓練される。
セマンティックプリエントを学習し活用する能力を強調するために、モデルSPLを命名する。
Places2、CelebA、Paris StreetViewデータセット上のアートの状態を達成している。
関連論文リスト
- Improving Text-guided Object Inpainting with Semantic Pre-inpainting [95.17396565347936]
我々は,典型的な単一ステージオブジェクトを2つのカスケードプロセス – セマンティックプリペイントと高磁場オブジェクト生成 – に分解する。
これを実現するために,トランスフォーマーをベースとしたセマンティックインパインとオブジェクトインパインティング拡散モデルをカスケードし,新しいCAscaded Transformer-Diffusionフレームワークを実現する。
論文 参考訳(メタデータ) (2024-09-12T17:55:37Z) - Locate, Assign, Refine: Taming Customized Image Inpainting with Text-Subject Guidance [17.251982243534144]
LAR-Genは、マスクされたシーンイメージのシームレスなインペイントを可能にする、画像インペイントのための新しいアプローチである。
提案手法は,主観的アイデンティティの保存と局所的セマンティック・コヒーレンスを確保するために,粗大かつきめの手法を採用する。
実験と様々な応用シナリオは、アイデンティティ保存とテキストセマンティック一貫性の両方の観点から、LAR-Genの優位性を示している。
論文 参考訳(メタデータ) (2024-03-28T16:07:55Z) - BOSS: Bottom-up Cross-modal Semantic Composition with Hybrid
Counterfactual Training for Robust Content-based Image Retrieval [61.803481264081036]
CIR(Content-Based Image Retrieval)は,サンプル画像と補完テキストの合成を同時に解釈することで,対象画像の検索を目的とする。
本稿では,新しいアンダーラインtextbfBottom-up crunderlinetextbfOss-modal underlinetextbfSemantic compounderlinetextbfSition (textbfBOSS) とHybrid Counterfactual Training frameworkを用いてこの問題に取り組む。
論文 参考訳(メタデータ) (2022-07-09T07:14:44Z) - Knowledge Mining with Scene Text for Fine-Grained Recognition [53.74297368412834]
本研究では,シーンテキスト画像の背景にある暗黙的な文脈知識をマイニングする,エンドツーエンドのトレーニング可能なネットワークを提案する。
我々は,KnowBertを用いて意味表現の関連知識を検索し,それを画像特徴と組み合わせ,きめ細かい分類を行う。
本手法は,3.72%のmAPと5.39%のmAPをそれぞれ上回っている。
論文 参考訳(メタデータ) (2022-03-27T05:54:00Z) - Fully Context-Aware Image Inpainting with a Learned Semantic Pyramid [102.24539566851809]
画像中の任意の欠落する領域に対して、合理的で現実的なコンテンツを復元することは、重要な課題である。
最近の画像インパインティングモデルは鮮明な視覚的詳細を生成するために大きな進歩を遂げているが、それでもテクスチャのぼやけや構造的歪みにつながる可能性がある。
本研究では,画像中の局所的欠落コンテンツの回復に大きく貢献する,多スケールなセマンティック・セマンティック・ピラミッド・ネットワーク(SPN)を提案する。
論文 参考訳(メタデータ) (2021-12-08T04:33:33Z) - Boosting Image Outpainting with Semantic Layout Prediction [18.819765707811904]
我々は、画像ドメインの代わりにセマンティックセグメンテーションドメイン内の領域を拡張するために、GANを訓練する。
別のGANモデルは、拡張されたセマンティックレイアウトに基づいて実際の画像を合成するように訓練されている。
我々のアプローチは意味的な手がかりをより容易に扱えるので、複雑なシナリオではよりうまく機能します。
論文 参考訳(メタデータ) (2021-10-18T13:09:31Z) - Semantic-Guided Inpainting Network for Complex Urban Scenes Manipulation [19.657440527538547]
本研究では,ユーザが指定した画像の一部を取り除き,複雑な都市景観を再現する新しいディープラーニングモデルを提案する。
画像のインペイントに関する最近の研究に触発されて,提案手法はセマンティックセグメンテーションを利用して画像の内容と構造をモデル化する。
信頼性の高い結果を生成するために,セマンティックセグメンテーションと生成タスクを組み合わせた新しいデコーダブロックを設計する。
論文 参考訳(メタデータ) (2020-10-19T09:17:17Z) - Text-Guided Neural Image Inpainting [20.551488941041256]
塗装作業では、劣化した画像をコンテキストに整合した内容で埋める必要がある。
本論文の目的は, 提供される記述文に従って, 劣化画像中の意味情報を埋めることである。
テキストガイドデュアルアテンション・インパインティング・ネットワーク(TDANet)という新しいインパインティング・モデルを提案する。
論文 参考訳(メタデータ) (2020-04-07T09:04:43Z) - Guidance and Evaluation: Semantic-Aware Image Inpainting for Mixed
Scenes [54.836331922449666]
本稿では,SGE-Net(Semantic Guidance and Evaluation Network)を提案する。
セマンティックセグメンテーションマップをインペイントの各尺度のガイダンスとして利用し、そこで位置依存推論を再評価する。
混合シーンの現実画像に対する実験により,提案手法が最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-03-15T17:49:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。