論文の概要: Retrieve in Style: Unsupervised Facial Feature Transfer and Retrieval
- arxiv url: http://arxiv.org/abs/2107.06256v1
- Date: Tue, 13 Jul 2021 17:31:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-14 14:50:51.029240
- Title: Retrieve in Style: Unsupervised Facial Feature Transfer and Retrieval
- Title(参考訳): Retrieve in Style: Unsupervised Facial Feature Transfer and Retrieval
- Authors: Min Jin Chong, Wen-Sheng Chu, Abhishek Kumar
- Abstract要約: Retrieve in Style (RIS) は、実際の画像におけるきめ細かい顔の特徴の伝達と検索のための教師なしのフレームワークである。
RISは、高忠実な特徴伝達と、実画像上の精密な精細な検索の両方を実現する。
- 参考スコア(独自算出の注目度): 17.833454714281757
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Retrieve in Style (RIS), an unsupervised framework for
fine-grained facial feature transfer and retrieval on real images. Recent work
shows that it is possible to learn a catalog that allows local semantic
transfers of facial features on generated images by capitalizing on the
disentanglement property of the StyleGAN latent space. RIS improves existing
art on: 1) feature disentanglement and allows for challenging transfers (i.e.,
hair and pose) that were not shown possible in SoTA methods. 2) eliminating the
need for per-image hyperparameter tuning, and for computing a catalog over a
large batch of images. 3) enabling face retrieval using the proposed facial
features (e.g., eyes), and to our best knowledge, is the first work to retrieve
face images at the fine-grained level. 4) robustness and natural application to
real images. Our qualitative and quantitative analyses show RIS achieves both
high-fidelity feature transfers and accurate fine-grained retrievals on real
images. We discuss the responsible application of RIS.
- Abstract(参考訳): Retrieve in Style (RIS) は、顔の特徴の微粒化と実際の画像の検索のための、教師なしのフレームワークである。
近年の研究では,StyleGAN潜伏空間のゆがみ特性を利用して,生成画像上の顔の特徴を局所的に意味伝達できるカタログを学習することが可能であることが示されている。
RISは既存の技術を改善している: 1) 機能障害を特徴とし、SoTA法では示されなかった挑戦的な移動(髪とポーズ)を可能にする。
2)画像単位のハイパーパラメータチューニングの必要性を排除し,大量の画像のカタログ計算を行う。
3) 提案する顔特徴(例えば目)と最善の知識を用いた顔検索を可能にすることは, きめ細かなレベルで顔画像を取得する最初の作業である。
4)実画像に対する堅牢性と自然な適用。
質的,定量的解析により,RISは高忠実度特徴伝達と実画像の精密な精細な検索を両立させることができた。
RISの責任ある応用について論じる。
関連論文リスト
- AuthFace: Towards Authentic Blind Face Restoration with Face-oriented Generative Diffusion Prior [13.27748226506837]
ブラインドフェイス修復(BFR)は、コンピュータビジョンにおける基本的な問題である。
最近の研究は、強力な事前訓練されたテキスト・ツー・イメージ(T2I)拡散モデルによる顔画像の先行性に依存している。
本稿では,顔指向生成拡散を先行して探索することにより,顔復元の精度を高めるAuthFaceを提案する。
論文 参考訳(メタデータ) (2024-10-13T14:56:13Z) - Overcoming False Illusions in Real-World Face Restoration with Multi-Modal Guided Diffusion Model [55.46927355649013]
本稿では,新しいマルチモーダル・リアル・ワールド・フェイス・リカバリ技術を紹介する。
MGFRは偽の顔の特徴とアイデンティティの生成を緩和することができる。
5000のアイデンティティにまたがる23,000以上の高解像度の顔画像からなるReface-HQデータセットを提案する。
論文 参考訳(メタデータ) (2024-10-05T13:46:56Z) - HyperReenact: One-Shot Reenactment via Jointly Learning to Refine and
Retarget Faces [47.27033282706179]
提案手法は,音源識別のリアルな音声頭部画像を生成することを目的とした,HyperReenactと呼ばれるニューラルフェイス再現法を提案する。
提案手法は, 単発設定(すなわち, 単一音源フレーム)の下で動作し, 被検体固有の微調整を必要とせず, クロスオブジェクトの再現を可能にする。
我々は,VoxCeleb1とVoxCeleb2の標準ベンチマークにおけるいくつかの最先端技術と比較した。
論文 参考訳(メタデータ) (2023-07-20T11:59:42Z) - Finding Directions in GAN's Latent Space for Neural Face Reenactment [45.67273942952348]
本論文は顔/頭部の再現において,対象顔の顔ポーズ(3D頭部の向きと表情)を元顔に転送することが目的である。
我々は、訓練済みの(微調整済みの)GANを使用することで、そのようなネットワークのトレーニングを回避し、異なるアプローチをとる。
GAN潜伏空間に実画像を埋め込むことで,実世界の顔の再現に有効であることを示す。
論文 参考訳(メタデータ) (2022-01-31T19:14:03Z) - Network Architecture Search for Face Enhancement [82.25775020564654]
我々は、NASFE(Network Architecture Search for Face Enhancement)と呼ばれるマルチタスクの顔復元ネットワークを提案する。
NASFEは、単一の劣化(すなわち)を含む低品質の顔画像を高めることができる。
ノイズまたはぼやけ)または複数の劣化(ノイズ+ブラル+ローライト)
論文 参考訳(メタデータ) (2021-05-13T19:46:05Z) - Foreground-guided Facial Inpainting with Fidelity Preservation [7.5089719291325325]
本稿では,畳み込みニューラルネットワーク層を用いて顔特徴を抽出・生成できるフォアグラウンド誘導型顔塗工フレームワークを提案する。
具体的には,表情の意味的能力推論,自然・不自然な特徴(メイクアップ)を用いた新しい損失関数を提案する。
提案手法は, 顔成分の高忠実度保存を, 質的に比較すると, 比較して定量的な結果を得た。
論文 参考訳(メタデータ) (2021-05-07T15:50:58Z) - S2FGAN: Semantically Aware Interactive Sketch-to-Face Translation [11.724779328025589]
本稿では,S2FGANと呼ばれるスケッチ・ツー・イメージ生成フレームワークを提案する。
我々は2つの潜在空間を用いて顔の外観を制御し、生成した顔の所望の属性を調整する。
提案手法は,属性強度の制御性を高めることで,属性操作における最先端の手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2020-11-30T13:42:39Z) - Bridging Composite and Real: Towards End-to-end Deep Image Matting [88.79857806542006]
画像マッチングにおける意味論と細部の役割について検討する。
本稿では,共有エンコーダと2つの分離デコーダを用いた新しいGlance and Focus Matting Network(GFM)を提案する。
総合的な実証研究により、GFMは最先端の手法より優れていることが示されている。
論文 参考訳(メタデータ) (2020-10-30T10:57:13Z) - From A Glance to "Gotcha": Interactive Facial Image Retrieval with
Progressive Relevance Feedback [72.29919762941029]
本稿では,目撃者から徐々にフィードバックを得て顔画像を取得するためのエンドツーエンドフレームワークを提案する。
追加のアノテーションを必要とせずに、私たちのモデルは少しのレスポンスの努力を犠牲にして適用できます。
論文 参考訳(メタデータ) (2020-07-30T18:46:25Z) - HiFaceGAN: Face Renovation via Collaborative Suppression and
Replenishment [63.333407973913374]
フェース・リノベーション(FR)は意味誘導型生成問題である。
HiFaceGANは、複数のネストされたCSRユニットを含む多段階フレームワークである。
合成画像と実顔画像の両方の実験により,HiFaceGANの優れた性能が確認された。
論文 参考訳(メタデータ) (2020-05-11T11:33:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。