論文の概要: Identity-driven Three-Player Generative Adversarial Network for
Synthetic-based Face Recognition
- arxiv url: http://arxiv.org/abs/2305.00358v1
- Date: Sun, 30 Apr 2023 00:04:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-02 15:45:14.621459
- Title: Identity-driven Three-Player Generative Adversarial Network for
Synthetic-based Face Recognition
- Title(参考訳): アイデンティティ駆動型顔認識のための3プレイヤー生成アドバイザラルネットワーク
- Authors: Jan Niklas Kolf, Tim Rieber, Jurek Elliesen, Fadi Boutros, Arjan
Kuijper, Naser Damer
- Abstract要約: 本稿では,識別情報の生成プロセスへの統合を可能にする3プレーヤ生成逆ネットワーク(GAN)フレームワーク,すなわちIDnetを提案する。
我々は,従来の2プレーヤGANと比較して,IDnet合成画像の識別性が高いことを実証的に証明した。
顔認識モデルの訓練におけるIDnetデータの適用性について,広範囲の顔認識ベンチマークを用いて評価を行った。
- 参考スコア(独自算出の注目度): 14.73254194339562
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many of the commonly used datasets for face recognition development are
collected from the internet without proper user consent. Due to the increasing
focus on privacy in the social and legal frameworks, the use and distribution
of these datasets are being restricted and strongly questioned. These
databases, which have a realistically high variability of data per identity,
have enabled the success of face recognition models. To build on this success
and to align with privacy concerns, synthetic databases, consisting purely of
synthetic persons, are increasingly being created and used in the development
of face recognition solutions. In this work, we present a three-player
generative adversarial network (GAN) framework, namely IDnet, that enables the
integration of identity information into the generation process. The third
player in our IDnet aims at forcing the generator to learn to generate
identity-separable face images. We empirically proved that our IDnet synthetic
images are of higher identity discrimination in comparison to the conventional
two-player GAN, while maintaining a realistic intra-identity variation. We
further studied the identity link between the authentic identities used to
train the generator and the generated synthetic identities, showing very low
similarities between these identities. We demonstrated the applicability of our
IDnet data in training face recognition models by evaluating these models on a
wide set of face recognition benchmarks. In comparison to the state-of-the-art
works in synthetic-based face recognition, our solution achieved comparable
results to a recent rendering-based approach and outperformed all existing
GAN-based approaches. The training code and the synthetic face image dataset
are publicly available ( https://github.com/fdbtrs/Synthetic-Face-Recognition
).
- Abstract(参考訳): 顔認識開発でよく使われるデータセットの多くは、適切なユーザーの同意なしにインターネットから収集される。
社会的および法的枠組みにおけるプライバシーへの注目が高まっているため、これらのデータセットの使用と配布は制限され、強く疑問視されている。
これらのデータベースは、アイデンティティ毎のデータに現実的な変動性があり、顔認識モデルの成功を可能にした。
この成功とプライバシの懸念に合わせるために、純粋に合成された人物からなる合成データベースは、顔認識ソリューションの開発においてますます作成され、利用されている。
本研究では,識別情報を生成プロセスに組み込むことができる3プレーヤ生成逆ネットワーク(GAN)フレームワーク,すなわちIDnetを提案する。
idnetの3人目のプレイヤーは、ジェネレータに識別可能な顔画像の生成を強制することを目指しています。
我々は,本研究で得られたIDnet合成画像が,従来の2プレーヤのGANと比較して高い識別性を示しながら,現実的なアイデンティティ内変動を維持した。
さらに, 生成体と生成した合成体との同一性関係について検討し, それらの類似性は極めて低いことを示した。
顔認識モデルの訓練におけるIDnetデータの適用性について,広範囲の顔認識ベンチマークを用いて評価を行った。
合成ベース顔認識の最先端技術と比較すると,最近のレンダリングベースアプローチに匹敵する結果が得られ,既存のGANベースのアプローチよりも優れていた。
トレーニングコードと合成顔画像データセットが公開されている(https://github.com/fdbtrs/Synthetic-Face-Recognition )。
関連論文リスト
- ID$^3$: Identity-Preserving-yet-Diversified Diffusion Models for Synthetic Face Recognition [60.15830516741776]
合成顔認識(SFR)は、実際の顔データの分布を模倣するデータセットを生成することを目的としている。
拡散燃料SFRモデルであるtextID3$を紹介します。
textID3$はID保存損失を利用して、多様だがアイデンティティに一貫性のある顔の外観を生成する。
論文 参考訳(メタデータ) (2024-09-26T06:46:40Z) - G2Face: High-Fidelity Reversible Face Anonymization via Generative and Geometric Priors [71.69161292330504]
可逆顔匿名化(Reversible face anonymization)は、顔画像の繊細なアイデンティティ情報を、合成された代替品に置き換えようとしている。
本稿では,Gtextsuperscript2Faceを提案する。
提案手法は,高データの有効性を保ちながら,顔の匿名化と回復において既存の最先端技術よりも優れる。
論文 参考訳(メタデータ) (2024-08-18T12:36:47Z) - ID-Aligner: Enhancing Identity-Preserving Text-to-Image Generation with Reward Feedback Learning [57.91881829308395]
AIポートレートや広告といった幅広いアプリケーションシナリオのために、ID-T2I(ID-preserving text-to-image generation)が注目されている。
我々は,ID-T2I性能を向上させるための一般的なフィードバック学習フレームワークである textbfID-Aligner を提案する。
論文 参考訳(メタデータ) (2024-04-23T18:41:56Z) - HFORD: High-Fidelity and Occlusion-Robust De-identification for Face
Privacy Protection [60.63915939982923]
顔の身元特定は、身元保護問題を解決するための実践的な方法である。
既存の顔の特定方法にはいくつかの問題がある。
これらの問題に対処するために,HFORD(High-Fidelity and Occlusion-Robust De-identification)法を提案する。
論文 参考訳(メタデータ) (2023-11-15T08:59:02Z) - IDiff-Face: Synthetic-based Face Recognition through Fizzy
Identity-Conditioned Diffusion Models [15.217324893166579]
合成データセットは、顔認識開発のためのプライバシーに敏感な認証データに代わる有望な選択肢として登場した。
IDiff-Faceは、顔認識訓練のための現実的なアイデンティティ変動を伴う合成ID生成のための条件付き潜時拡散モデルに基づく、新しいアプローチである。
論文 参考訳(メタデータ) (2023-08-09T14:48:31Z) - Unsupervised Face Recognition using Unlabeled Synthetic Data [16.494722503803196]
ラベルなし合成データ(U SynthFace)に基づく教師なし顔認識モデルを提案する。
提案したU SynthFaceは、同一の合成インスタンスの2つの拡張画像の類似性を最大化することを学ぶ。
ラベルなし合成データを用いた比較的高い認識精度を実現するためのU SynthFaceの有効性を実証する。
論文 参考訳(メタデータ) (2022-11-14T14:05:19Z) - SFace: Privacy-friendly and Accurate Face Recognition using Synthetic
Data [9.249824128880707]
本稿では,プライバシフレンドリーな合成顔データセットを用いて顔認識モデルを訓練し,その実現可能性について検討する。
このようなデータを用いて顔認識モデルを訓練する際のプライバシー面に対処するため、合成データセットと生成モデルを訓練するために使用される元の認証データセットとの同一性に関する広範な評価実験を行った。
また,プライバシフレンドリーなデータセットであるSFace上で,3つの異なる学習戦略,多クラス分類,ラベルフリーな知識伝達,多クラス分類と知識伝達の複合学習を用いて,顔認識を訓練することを提案する。
論文 参考訳(メタデータ) (2022-06-21T16:42:04Z) - SynFace: Face Recognition with Synthetic Data [83.15838126703719]
我々は、ID混在(IM)とドメイン混在(DM)を併用したSynFaceを考案し、パフォーマンスギャップを緩和する。
また、合成顔画像の系統的実験分析を行い、合成データを顔認識に効果的に活用する方法についての知見を提供する。
論文 参考訳(メタデータ) (2021-08-18T03:41:54Z) - Identity-Aware CycleGAN for Face Photo-Sketch Synthesis and Recognition [61.87842307164351]
まず,画像生成ネットワークの監視に新たな知覚損失を適用したIACycleGAN(Identity-Aware CycleGAN)モデルを提案する。
眼や鼻などの重要な顔領域の合成により多くの注意を払うことで、フォトエッチング合成におけるサイクガンを改善する。
IACycleGANによる画像の合成を反復的に行う合成モデルと認識モデルとの相互最適化手法を開発した。
論文 参考訳(メタデータ) (2021-03-30T01:30:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。