論文の概要: Vec2Face: Unveil Human Faces from their Blackbox Features in Face
Recognition
- arxiv url: http://arxiv.org/abs/2003.06958v1
- Date: Mon, 16 Mar 2020 00:30:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 03:24:59.822537
- Title: Vec2Face: Unveil Human Faces from their Blackbox Features in Face
Recognition
- Title(参考訳): vec2face:顔認識のブラックボックス機能から人間の顔を公開
- Authors: Chi Nhan Duong, Thanh-Dat Truong, Kha Gia Quach, Hung Bui, Kaushik
Roy, Khoa Luu
- Abstract要約: 本稿では,Bijective Metric Learning,すなわちBijective Generative Adrial Networks in a Distillation framework (DiBiGAN)を用いた新しい生成構造を提案する。
いくつかのベンチマークデータセットの結果は、画像リアリズムとID保存特性の両方においてDiBiGANの有効性を示した。
- 参考スコア(独自算出の注目度): 29.106746021757168
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unveiling face images of a subject given his/her high-level representations
extracted from a blackbox Face Recognition engine is extremely challenging. It
is because the limitations of accessible information from that engine including
its structure and uninterpretable extracted features. This paper presents a
novel generative structure with Bijective Metric Learning, namely Bijective
Generative Adversarial Networks in a Distillation framework (DiBiGAN), for
synthesizing faces of an identity given that person's features. In order to
effectively address this problem, this work firstly introduces a bijective
metric so that the distance measurement and metric learning process can be
directly adopted in image domain for an image reconstruction task. Secondly, a
distillation process is introduced to maximize the information exploited from
the blackbox face recognition engine. Then a Feature-Conditional Generator
Structure with Exponential Weighting Strategy is presented for a more robust
generator that can synthesize realistic faces with ID preservation. Results on
several benchmarking datasets including CelebA, LFW, AgeDB, CFP-FP against
matching engines have demonstrated the effectiveness of DiBiGAN on both image
realism and ID preservation properties.
- Abstract(参考訳): ブラックボックス顔認識エンジンから抽出したハイレベルな表現が与えられた被験者の顔画像の公開は極めて困難である。
それは、その構造と解釈不能な特徴を含む、そのエンジンからアクセス可能な情報の制限のためである。
本稿では,その人の特徴を生かした顔の合成を目的とした,客観的距離学習(Bijective Metric Learning, Bijective Generative Adversarial Networks in a Distillation framework, DiBiGAN)による新規な生成構造を提案する。
この課題を効果的に解決するために,本研究では,画像再構成タスクにおいて距離計測と距離学習のプロセスを画像領域に直接適用できるように,最初に単射距離を導入する。
次に、ブラックボックス顔認識エンジンから利用される情報を最大化するために蒸留プロセスを導入する。
次に, 指数重み付け戦略を持つ特徴条件発生器構造を, id保存によりリアルな顔を合成可能なより頑健な生成器として提示する。
CelebA,LFW, AgeDB, CFP-FPなどのベンチマークデータセットをマッチングエンジンと比較した結果, 画像リアリズムとID保存特性の両方においてDiBiGANの有効性が示された。
関連論文リスト
- OSDFace: One-Step Diffusion Model for Face Restoration [72.5045389847792]
拡散モデルは、顔の修復において顕著な性能を示した。
顔復元のための新しいワンステップ拡散モデルOSDFaceを提案する。
その結果,OSDFaceは現状のSOTA(State-of-the-art)手法を視覚的品質と定量的指標の両方で上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-26T07:07:48Z) - G2Face: High-Fidelity Reversible Face Anonymization via Generative and Geometric Priors [71.69161292330504]
可逆顔匿名化(Reversible face anonymization)は、顔画像の繊細なアイデンティティ情報を、合成された代替品に置き換えようとしている。
本稿では,Gtextsuperscript2Faceを提案する。
提案手法は,高データの有効性を保ちながら,顔の匿名化と回復において既存の最先端技術よりも優れる。
論文 参考訳(メタデータ) (2024-08-18T12:36:47Z) - A Generative Approach for Wikipedia-Scale Visual Entity Recognition [56.55633052479446]
与えられたクエリ画像をWikipediaにある600万の既存エンティティの1つにマッピングするタスクに対処する。
本稿では,対象エンティティを識別する「意味的・識別的コード」の自動復号化を学習する,新しい生成エンティティ認識フレームワークを紹介する。
論文 参考訳(メタデータ) (2024-03-04T13:47:30Z) - Attribute-preserving Face Dataset Anonymization via Latent Code
Optimization [64.4569739006591]
本稿では,事前学習したGANの潜時空間における画像の潜時表現を直接最適化するタスク非依存匿名化手法を提案する。
我々は一連の実験を通して、我々の手法が画像の同一性を匿名化できる一方で、顔の属性をより保存できることを実証した。
論文 参考訳(メタデータ) (2023-03-20T17:34:05Z) - StyleID: Identity Disentanglement for Anonymizing Faces [4.048444203617942]
この論文の主な貢献は、フィーチャ保存の匿名化フレームワークであるStyleIDの設計である。
コントリビューションの一環として,新しいアンタングル化指標,補足的アンタングル化法,およびアイデンティティ・アンタングル化に関する新たな知見を提示する。
StyleIDはチューナブルなプライバシを提供し、計算の複雑さが低く、現在の最先端ソリューションを上回っている。
論文 参考訳(メタデータ) (2022-12-28T12:04:24Z) - Vec2Face-v2: Unveil Human Faces from their Blackbox Features via
Attention-based Network in Face Recognition [36.23997331928846]
蒸留フレームワーク(DAB-GAN)における意図に基づく客観的生成適応ネットワーク(Bijective Generative Adversarial Networks)と呼ばれる新しい手法を提案する。
DAB-GAN法は、新しく定義されたBijective Metrics Learningアプローチによる、新しい注意に基づく生成構造を含む。
我々は,難解な顔認識データベースについて評価を行った。
論文 参考訳(メタデータ) (2022-09-11T19:14:21Z) - Unsupervised Learning Facial Parameter Regressor for Action Unit
Intensity Estimation via Differentiable Renderer [51.926868759681014]
骨駆動型顔モデル(BDFM)に基づいて,異なる視点で顔パラメータを予測する枠組みを提案する。
提案するフレームワークは,特徴抽出器,ジェネレータ,顔パラメータ回帰器から構成される。
論文 参考訳(メタデータ) (2020-08-20T09:49:13Z) - Unsupervised Facial Action Unit Intensity Estimation via Differentiable
Optimization [45.07851622835555]
顔画像からの顔AU強度推定のための教師なしフレームワークGE-Netを提案する。
本フレームワークは,入力画像に一致するように顔パラメータを反復的に更新する,微分可能な最適化を行う。
実験により,本手法は既存手法と比較して最先端の結果が得られることが示された。
論文 参考訳(メタデータ) (2020-04-13T12:56:28Z) - DotFAN: A Domain-transferred Face Augmentation Network for Pose and
Illumination Invariant Face Recognition [94.96686189033869]
本稿では,3次元モデルを用いたドメイン転送型顔強調ネットワーク(DotFAN)を提案する。
DotFANは、他のドメインから収集された既存のリッチフェイスデータセットから抽出された知識に基づいて、入力顔の一連の変種を生成することができる。
実験によると、DotFANは、クラス内の多様性を改善するために、小さな顔データセットを増やすのに有益である。
論文 参考訳(メタデータ) (2020-02-23T08:16:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。