論文の概要: Face Reconstruction from Face Embeddings using Adapter to a Face Foundation Model
- arxiv url: http://arxiv.org/abs/2411.03960v1
- Date: Wed, 06 Nov 2024 14:45:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-07 19:23:21.791743
- Title: Face Reconstruction from Face Embeddings using Adapter to a Face Foundation Model
- Title(参考訳): 顔基礎モデルへの適応器を用いた顔埋め込みからの顔再構成
- Authors: Hatef Otroshi Shahreza, Anjith George, Sébastien Marcel,
- Abstract要約: 顔認識システムは、顔画像から埋め込みベクターを抽出し、これらの埋め込みを使用して個人を検証または識別する。
顔再構成攻撃(英語: face reconstruction attack、テンプレート・インバージョンとも呼ばれる)とは、顔の埋め込みから顔イメージを再構成し、再構成された顔画像を用いて顔認識システムに入ることを指す。
我々は,ブラックボックスの顔認識モデルの埋め込みから顔画像の再構成にフェイスファンデーションモデルを用いることを提案する。
- 参考スコア(独自算出の注目度): 24.72209930285057
- License:
- Abstract: Face recognition systems extract embedding vectors from face images and use these embeddings to verify or identify individuals. Face reconstruction attack (also known as template inversion) refers to reconstructing face images from face embeddings and using the reconstructed face image to enter a face recognition system. In this paper, we propose to use a face foundation model to reconstruct face images from the embeddings of a blackbox face recognition model. The foundation model is trained with 42M images to generate face images from the facial embeddings of a fixed face recognition model. We propose to use an adapter to translate target embeddings into the embedding space of the foundation model. The generated images are evaluated on different face recognition models and different datasets, demonstrating the effectiveness of our method to translate embeddings of different face recognition models. We also evaluate the transferability of reconstructed face images when attacking different face recognition models. Our experimental results show that our reconstructed face images outperform previous reconstruction attacks against face recognition models.
- Abstract(参考訳): 顔認識システムは、顔画像から埋め込みベクターを抽出し、これらの埋め込みを使用して個人を検証または識別する。
顔再構成攻撃(英語: face reconstruction attack、テンプレート・インバージョンとも呼ばれる)とは、顔の埋め込みから顔イメージを再構成し、再構成された顔画像を用いて顔認識システムに入ることを指す。
本稿では,ブラックボックスの顔認識モデルの埋め込みから顔画像の再構成にフェースファンデーションモデルを提案する。
基礎モデルは、固定顔認識モデルの顔埋め込みから顔画像を生成するために、42M画像で訓練される。
本稿では,基礎モデルの埋め込み空間にターゲット埋め込みを変換するアダプタを提案する。
生成した画像は、異なる顔認識モデルと異なるデータセットに基づいて評価され、異なる顔認識モデルの埋め込みを変換するための手法の有効性が実証された。
また、異なる顔認識モデルを攻撃する際に、再構成された顔画像の転送性を評価する。
以上の結果から,再建した顔画像は,従来の顔認識モデルに対する再建攻撃よりも優れていたことが示唆された。
関連論文リスト
- OSDFace: One-Step Diffusion Model for Face Restoration [72.5045389847792]
拡散モデルは、顔の修復において顕著な性能を示した。
顔復元のための新しいワンステップ拡散モデルOSDFaceを提案する。
その結果,OSDFaceは現状のSOTA(State-of-the-art)手法を視覚的品質と定量的指標の両方で上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-26T07:07:48Z) - Learning Representations for Masked Facial Recovery [8.124282476398843]
近年のパンデミックは 公共の場で 防護マスクを着用している人が 劇的に増えています
この問題に対処する1つの方法は、前処理のステップとして、フェイスリカバリメソッドに戻ることです。
マスクを被った同一人物の画像から顔画像の復元に特有な方法を提案する。
論文 参考訳(メタデータ) (2022-12-28T22:22:15Z) - Analyzing the Impact of Shape & Context on the Face Recognition
Performance of Deep Networks [2.0099255688059907]
顔画像におけるベースアイデンティティの基底となる3次元形状の変化が全体像を歪めるかを分析する。
本実験は, 正確な顔マッチングにおける顔形状の重要性を実証し, ネットワークトレーニングにおける文脈データの重要性を裏付けるものである。
論文 参考訳(メタデータ) (2022-08-05T05:32:07Z) - FaceMAE: Privacy-Preserving Face Recognition via Masked Autoencoders [81.21440457805932]
顔のプライバシと認識性能を同時に考慮する新しいフレームワークFaceMAEを提案する。
ランダムにマスクされた顔画像は、FaceMAEの再構築モジュールのトレーニングに使用される。
また、いくつかの公開顔データセット上で十分なプライバシー保護顔認証を行う。
論文 参考訳(メタデータ) (2022-05-23T07:19:42Z) - Graph-based Generative Face Anonymisation with Pose Preservation [49.18049578591058]
AnonyGANは、顔の匿名化のためのGANベースのソリューションである。
ソースアイデンティティに対応する視覚情報を、任意の単一のイメージとして提供される条件IDに置き換える。
論文 参考訳(メタデータ) (2021-12-10T12:58:17Z) - MLFW: A Database for Face Recognition on Masked Faces [56.441078419992046]
Masked LFW (MLFW) は、マスクのない顔からマスクされた顔を自動的に生成するツールである。
SOTAモデルの認識精度は、元の画像の精度と比較して、MLFWデータベース上で5%-16%低下する。
論文 参考訳(メタデータ) (2021-09-13T09:30:10Z) - SynFace: Face Recognition with Synthetic Data [83.15838126703719]
我々は、ID混在(IM)とドメイン混在(DM)を併用したSynFaceを考案し、パフォーマンスギャップを緩和する。
また、合成顔画像の系統的実験分析を行い、合成データを顔認識に効果的に活用する方法についての知見を提供する。
論文 参考訳(メタデータ) (2021-08-18T03:41:54Z) - Real Time Face Recognition Using Convoluted Neural Networks [0.0]
畳み込みニューラルネットワークは顔認識に最適であることが証明されている。
データセットの作成は、認識される人の顔映像を何百もの人の画像に変換することで行われる。
論文 参考訳(メタデータ) (2020-10-09T12:04:49Z) - FaR-GAN for One-Shot Face Reenactment [20.894596219099164]
本稿では,任意の音源の顔画像とターゲット表現のみを入力として用いた一発顔再現モデルFaR-GANを提案する。
提案手法は,音源の同一性,表情,頭部ポーズ,さらには画像背景についても仮定しない。
論文 参考訳(メタデータ) (2020-05-13T16:15:37Z) - DotFAN: A Domain-transferred Face Augmentation Network for Pose and
Illumination Invariant Face Recognition [94.96686189033869]
本稿では,3次元モデルを用いたドメイン転送型顔強調ネットワーク(DotFAN)を提案する。
DotFANは、他のドメインから収集された既存のリッチフェイスデータセットから抽出された知識に基づいて、入力顔の一連の変種を生成することができる。
実験によると、DotFANは、クラス内の多様性を改善するために、小さな顔データセットを増やすのに有益である。
論文 参考訳(メタデータ) (2020-02-23T08:16:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。