論文の概要: Unconstrained Face Sketch Synthesis via Perception-Adaptive Network and
A New Benchmark
- arxiv url: http://arxiv.org/abs/2112.01019v1
- Date: Thu, 2 Dec 2021 07:08:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 15:09:49.081791
- Title: Unconstrained Face Sketch Synthesis via Perception-Adaptive Network and
A New Benchmark
- Title(参考訳): 知覚適応ネットワークによる非拘束顔スケッチ合成と新しいベンチマーク
- Authors: Lin Nie and Lingbo Liu and Zhengtao Wu and Wenxiong Kang
- Abstract要約: 顔領域と顔成分を正確に知覚することは、制約のないスケッチ合成に不可欠である、と我々は主張する。
本研究では,制約のない条件下で高品質な顔スケッチを生成できる新しい知覚適応ネットワーク(PANet)を提案する。
WildSketchと呼ばれる新しいベンチマークは、800対の顔写真スケッチを含み、ポーズ、表現、民族的起源、背景、照明に大きなバリエーションがある。
- 参考スコア(独自算出の注目度): 16.126100433405398
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face sketch generation has attracted much attention in the field of visual
computing. However, existing methods either are limited to constrained
conditions or heavily rely on various preprocessing steps to deal with
in-the-wild cases. In this paper, we argue that accurately perceiving facial
region and facial components is crucial for unconstrained sketch synthesis. To
this end, we propose a novel Perception-Adaptive Network (PANet), which can
generate high-quality face sketches under unconstrained conditions in an
end-to-end scheme. Specifically, our PANet is composed of i) a Fully
Convolutional Encoder for hierarchical feature extraction, ii) a Face-Adaptive
Perceiving Decoder for extracting potential facial region and handling face
variations, and iii) a Component-Adaptive Perceiving Module for facial
component aware feature representation learning. To facilitate further
researches of unconstrained face sketch synthesis, we introduce a new benchmark
termed WildSketch, which contains 800 pairs of face photo-sketch with large
variations in pose, expression, ethnic origin, background, and illumination.
Extensive experiments demonstrate that the proposed method is capable of
achieving state-of-the-art performance under both constrained and unconstrained
conditions. Our source codes and the WildSketch benchmark are resealed on the
project page http://lingboliu.com/unconstrained_face_sketch.html.
- Abstract(参考訳): 顔スケッチ生成は視覚コンピューティングの分野で多くの注目を集めている。
しかし、既存のメソッドは制約条件に限定されているか、未処理のケースを扱うために様々な前処理ステップに大きく依存している。
本稿では,顔領域と顔成分を正確に知覚することが,制約のないスケッチ合成において重要であることを論じる。
そこで本研究では,非制約条件下での高品質な顔スケッチをエンドツーエンドで生成できる新しい知覚適応ネットワーク(PANet)を提案する。
具体的には パンネットは
一 階層的特徴抽出のための完全畳み込みエンコーダ
二 潜在的な顔領域を抽出し、顔のバリエーションを取り扱う顔適応認識復号機
三 顔成分認識特徴表現学習のためのコンポーネント適応知覚モジュール
制約のない顔のスケッチ合成のさらなる研究を容易にするために,ポーズ,表現,民族的起源,背景,照明など,800対の顔写真スケッチを含むWildSketchというベンチマークを導入した。
実験の結果,提案手法は制約条件と制約条件の両方で最先端性能を実現することができることがわかった。
私たちのソースコードとWildSketchベンチマークはプロジェクトページ http://lingboliu.com/unconstrained_face_sketch.html で再販売されています。
関連論文リスト
- Learning Position-Aware Implicit Neural Network for Real-World Face
Inpainting [55.87303287274932]
顔の塗装には、モデルが顔の位置構造を正確に理解する必要がある。
本稿では,実世界のシナリオにおいて任意の形状の顔画像を扱うためのtextbfImplicit textbfNeural textbfInpainting textbfNetwork (IN$2$)を提案する。
論文 参考訳(メタデータ) (2024-01-19T07:31:44Z) - GaFET: Learning Geometry-aware Facial Expression Translation from
In-The-Wild Images [55.431697263581626]
本稿では,パラメトリックな3次元顔表現をベースとした新しい顔表情翻訳フレームワークを提案する。
我々は、最先端の手法と比較して、高品質で正確な表情伝達結果を実現し、様々なポーズや複雑なテクスチャの適用性を実証する。
論文 参考訳(メタデータ) (2023-08-07T09:03:35Z) - End-to-end Face-swapping via Adaptive Latent Representation Learning [12.364688530047786]
本稿では,高精細・高精細・高精細・高精細・高精細な顔交換のための新しいエンドツーエンド統合フレームワークを提案する。
顔の知覚とブレンドをエンドツーエンドのトレーニングとテストのプロセスに統合することで、野生の顔に高いリアルな顔スワッピングを実現することができる。
論文 参考訳(メタデータ) (2023-03-07T19:16:20Z) - FSGANv2: Improved Subject Agnostic Face Swapping and Reenactment [28.83743270895698]
顔交換と再現のためにFSGAN(Face Swapping GAN)を提案する。
従来とは違って,顔のトレーニングを必要とせず,顔のペアに適用可能な被験者交換方式を提案する。
顔の表情や表情の変化を調整し、単一の画像やビデオシーケンスに適用できる、新しい反復的深層学習に基づく顔の再現手法を導出する。
映像系列に対しては,再現性,デラウネー三角測量,バリ座標に基づく連続的な顔ビューの認識を導入し,顔領域をフェースコンプリートネットワークで処理する。
論文 参考訳(メタデータ) (2022-02-25T21:04:39Z) - Pro-UIGAN: Progressive Face Hallucination from Occluded Thumbnails [53.080403912727604]
Inpainting Generative Adversarial Network, Pro-UIGANを提案する。
顔の形状を利用して、隠された小さな顔の補充とアップサンプリング(8*)を行う。
Pro-UIGANは、HR面を視覚的に満足させ、下流タスクにおいて優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-08-02T02:29:24Z) - Face Sketch Synthesis via Semantic-Driven Generative Adversarial Network [10.226808267718523]
本稿では,グローバルな構造レベルのインジェクションと局所的なクラスレベルの知識再重み付けを組み込んだセマンティック・ドリブン・ジェネレータ・ネットワーク(SDGAN)を提案する。
具体的には、入力された顔写真に対して顔の塩分濃度検出を行い、全体的な顔のテクスチャ構造を提供する。
さらに,SDGANのジェネレータにグローバルな構造的スタイルの注入を強制する前に,顔解析のレイアウトを意味的空間として活用する。
論文 参考訳(メタデータ) (2021-06-29T07:03:56Z) - Learning to Aggregate and Personalize 3D Face from In-the-Wild Photo
Collection [65.92058628082322]
非パラメトリックフェースモデリングは形状仮定なしで画像からのみ3次元フェースを再構成することを目的としている。
本稿では,教師なしのロバストな3次元顔モデリングのための学習・アグリゲート・パーソナライズ・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T03:10:17Z) - High Resolution Face Editing with Masked GAN Latent Code Optimization [0.0]
顔の編集はコンピュータビジョンコミュニティで人気のある研究トピックである。
最近の提案手法は、条件付きエンコーダデコーダであるGAN(Generative Adversarial Network)をエンドツーエンドでトレーニングするか、事前に訓練されたバニラGANジェネレータモデルの潜時空間での動作を定義するかのいずれかである。
空間的および意味的制約を伴ったGAN組み込み最適化手順を提案する。
論文 参考訳(メタデータ) (2021-03-20T08:39:41Z) - FaceController: Controllable Attribute Editing for Face in the Wild [74.56117807309576]
単純なフィードフォワードネットワークを提案し、高忠実度な顔を生成する。
本手法では,既存かつ容易に把握可能な事前情報を利用することで,野生の多様な顔属性の制御,転送,編集を行うことができる。
本手法では,3Dプリミティブを用いてアイデンティティ,表現,ポーズ,イルミネーションを分離し,地域別スタイルコードを用いてテクスチャとカラーを分離する。
論文 参考訳(メタデータ) (2021-02-23T02:47:28Z) - InterFaceGAN: Interpreting the Disentangled Face Representation Learned
by GANs [73.27299786083424]
我々は、最先端のGANモデルによって学習された不整合顔表現を解釈するInterFaceGANというフレームワークを提案する。
まず、GANは潜在空間の線型部分空間で様々な意味学を学ぶ。
次に、異なる意味論間の相関関係について詳細な研究を行い、部分空間射影を通してそれらをよりよく解離させる。
論文 参考訳(メタデータ) (2020-05-18T18:01:22Z) - FaceShifter: Towards High Fidelity And Occlusion Aware Face Swapping [43.236261887752065]
本研究では,顔交換のための2段階フレームワークであるFaceShifterを提案する。
最初の段階では、ターゲット属性を徹底的かつ適応的に利用して、スワップされた顔を高忠実に生成する。
難解な顔合成に対処するために、HEAR-Net(Huristic Err Accnowledging Refinement Network)と呼ばれる新しいヒューリスティック・エラー認識ネットワーク(Heuristic Err Acknowledging Refinement Network)の第2ステージを付加する。
論文 参考訳(メタデータ) (2019-12-31T17:57:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。