論文の概要: Reference Guided Image Inpainting using Facial Attributes
- arxiv url: http://arxiv.org/abs/2301.08044v1
- Date: Thu, 19 Jan 2023 12:39:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-20 15:08:53.263693
- Title: Reference Guided Image Inpainting using Facial Attributes
- Title(参考訳): 顔属性を用いた参照画像インパインティング
- Authors: Dongsik Yoon, Jeonggi Kwak, Yuanming Li, David Han, Youngsaeng Jin and
Hanseok Ko
- Abstract要約: 本稿では,1つの参照イメージをガイドとして,顔の属性を操作できる代替のユーザガイドインペイントアーキテクチャを提案する。
我々のエンドツーエンドモデルは、正確な参照画像属性転送のための属性抽出器と、その属性を現実的かつ正確にマッピングする塗装モデルとから構成される。
- 参考スコア(独自算出の注目度): 18.09748108912419
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image inpainting is a technique of completing missing pixels such as occluded
region restoration, distracting objects removal, and facial completion. Among
these inpainting tasks, facial completion algorithm performs face inpainting
according to the user direction. Existing approaches require delicate and well
controlled input by the user, thus it is difficult for an average user to
provide the guidance sufficiently accurate for the algorithm to generate
desired results. To overcome this limitation, we propose an alternative
user-guided inpainting architecture that manipulates facial attributes using a
single reference image as the guide. Our end-to-end model consists of attribute
extractors for accurate reference image attribute transfer and an inpainting
model to map the attributes realistically and accurately to generated images.
We customize MS-SSIM loss and learnable bidirectional attention maps in which
importance structures remain intact even with irregular shaped masks. Based on
our evaluation using the publicly available dataset CelebA-HQ, we demonstrate
that the proposed method delivers superior performance compared to some
state-of-the-art methods specialized in inpainting tasks.
- Abstract(参考訳): イメージインペインティング(image inpainting)は、領域修復の邪魔、オブジェクトの削除の邪魔、顔の完成など、欠落したピクセルを完了させる技術である。
これらの塗装作業のうち、顔補完アルゴリズムはユーザ方向に応じて顔塗装を行う。
既存のアプローチではユーザによる繊細でよく制御された入力を必要とするため、平均的なユーザがアルゴリズムが望ましい結果を生成するのに十分なガイダンスを提供するのは難しい。
この制限を克服するために、単一の参照イメージをガイドとして顔の属性を操作できる代替のユーザガイドインペイントアーキテクチャを提案する。
我々のエンドツーエンドモデルは、正確な参照画像属性転送のための属性抽出器と、その属性を現実的に正確に生成画像にマッピングするインパインティングモデルから構成される。
我々はMS-SSIMの損失をカスタマイズし、不規則な形状のマスクであっても重要構造がそのまま残る双方向の注意マップを学習可能にする。
公開データセット celeba-hq を用いた評価に基づいて,提案手法は,塗装タスクを専門とする最先端手法に比べて優れた性能を提供することを示す。
関連論文リスト
- Dense Feature Interaction Network for Image Inpainting Localization [28.028361409524457]
画像の悪質な操作において、画像内容の隠蔽や改ざんに使用することができる。
既存の手法は主に基本的なエンコーダ・デコーダ構造に依存しており、多くの場合、偽陽性が多くなる。
本稿では,Dense Feature Interaction Network (DeFI-Net) に基づく新しい塗り絵検出手法について述べる。
論文 参考訳(メタデータ) (2024-08-05T02:35:13Z) - PRISM: Progressive Restoration for Scene Graph-based Image Manipulation [47.77003316561398]
PRISMは、シーン内の操作された領域の精度と品質を改善するために、新しいマルチヘッド画像操作手法である。
本研究は,シーングラフに基づく画像操作の品質と精度を高めるためのアプローチの可能性を示すものである。
論文 参考訳(メタデータ) (2023-11-03T21:30:34Z) - Structure-Guided Image Completion with Image-level and Object-level Semantic Discriminators [97.12135238534628]
複雑な意味論やオブジェクトの生成を改善するために,セマンティック・ディミネータとオブジェクトレベル・ディミネータからなる学習パラダイムを提案する。
特に、セマンティック・ディミネーターは、事前学習された視覚的特徴を利用して、生成された視覚概念の現実性を改善する。
提案手法は, 生成品質を著しく向上させ, 各種タスクの最先端化を実現する。
論文 参考訳(メタデータ) (2022-12-13T01:36:56Z) - Semantics-Guided Object Removal for Facial Images: with Broad
Applicability and Robust Style Preservation [29.162655333387452]
顔画像における物体の除去と画像の塗布は、顔画像を妨げる物体を特に標的にし、除去し、適切に再構成された顔画像に置き換えるタスクである。
U-netと変調ジェネレータを利用する2つの異なるアプローチは、それぞれに固有の利点があるが、それぞれの手法の固有の欠点にもかかわらず、このタスクに対して広く支持されている。
本稿では,SGIN(Semantics-Guided Inpainting Network)を提案する。
論文 参考訳(メタデータ) (2022-09-29T00:09:12Z) - Perceptual Artifacts Localization for Inpainting [60.5659086595901]
そこで本研究では,知覚的アーティファクトの自動セグメンテーションの学習タスクを提案する。
データセット上で高度なセグメンテーションネットワークをトレーニングし、インペイントされた画像内のインペイントされたアーティファクトを確実にローカライズする。
また, 対象領域と対象領域全体との比率である知覚人工物比 (PAR) という新しい評価指標を提案する。
論文 参考訳(メタデータ) (2022-08-05T18:50:51Z) - SketchEdit: Mask-Free Local Image Manipulation with Partial Sketches [95.45728042499836]
マスクレス局所画像操作という,スケッチに基づく画像操作の新しいパラダイムを提案する。
本モデルでは,対象の修正領域を自動的に予測し,構造型ベクトルにエンコードする。
ジェネレータは、スタイルベクトルとスケッチに基づいて、新しいイメージコンテンツを合成する。
論文 参考訳(メタデータ) (2021-11-30T02:42:31Z) - Foreground-guided Facial Inpainting with Fidelity Preservation [7.5089719291325325]
本稿では,畳み込みニューラルネットワーク層を用いて顔特徴を抽出・生成できるフォアグラウンド誘導型顔塗工フレームワークを提案する。
具体的には,表情の意味的能力推論,自然・不自然な特徴(メイクアップ)を用いた新しい損失関数を提案する。
提案手法は, 顔成分の高忠実度保存を, 質的に比較すると, 比較して定量的な結果を得た。
論文 参考訳(メタデータ) (2021-05-07T15:50:58Z) - Image Inpainting with Edge-guided Learnable Bidirectional Attention Maps [85.67745220834718]
不規則な穴の画像インペインティングを改善するためのエッジガイド学習可能な双方向注意マップ(Edge-LBAM)を紹介します。
当社のEdge-LBAMメソッドには、予測エッジによる構造認識マスク更新を含むデュアルプロシージャが含まれています。
広範な実験により,エッジlbamはコヒーレントな画像構造を生成し,色差やぼやけを防止できることがわかった。
論文 参考訳(メタデータ) (2021-04-25T07:25:16Z) - S2FGAN: Semantically Aware Interactive Sketch-to-Face Translation [11.724779328025589]
本稿では,S2FGANと呼ばれるスケッチ・ツー・イメージ生成フレームワークを提案する。
我々は2つの潜在空間を用いて顔の外観を制御し、生成した顔の所望の属性を調整する。
提案手法は,属性強度の制御性を高めることで,属性操作における最先端の手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2020-11-30T13:42:39Z) - High-Resolution Image Inpainting with Iterative Confidence Feedback and
Guided Upsampling [122.06593036862611]
既存の画像塗装法は、実アプリケーションで大きな穴を扱う際に、しばしばアーティファクトを生成する。
本稿では,フィードバック機構を備えた反復インペイント手法を提案する。
実験により,本手法は定量評価と定性評価の両方において既存手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2020-05-24T13:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。