論文の概要: Safe Fakes: Evaluating Face Anonymizers for Face Detectors
- arxiv url: http://arxiv.org/abs/2104.11721v1
- Date: Fri, 23 Apr 2021 17:16:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-26 13:03:16.735601
- Title: Safe Fakes: Evaluating Face Anonymizers for Face Detectors
- Title(参考訳): safe fakes: 顔検出のための顔匿名化器の評価
- Authors: Sander R. Klomp (1 and 2), Matthew van Rijn (3), Rob G.J. Wijnhoven
(2), Cees G.M. Snoek (3), Peter H.N. de With (1) ((1) Eindhoven University of
Technology, (2) ViNotion B.V., (3) University of Amsterdam)
- Abstract要約: 本稿では,顔検出装置の教師付き訓練における画像匿名化の効果に関する最初の実証研究を行う。
従来の顔匿名化手法と最先端の3つのGAN(Generative Adrial Network-based)手法を比較した。
すべてのテストされた匿名化方法は訓練された顔検出器の性能を低下させますが、GANを使用して匿名化される表面は従来の方法よりはるかに小さい性能の低下を引き起こします。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Since the introduction of the GDPR and CCPA legislation, both public and
private facial image datasets are increasingly scrutinized. Several datasets
have been taken offline completely and some have been anonymized. However, it
is unclear how anonymization impacts face detection performance. To our
knowledge, this paper presents the first empirical study on the effect of image
anonymization on supervised training of face detectors. We compare conventional
face anonymizers with three state-of-the-art Generative Adversarial
Network-based (GAN) methods, by training an off-the-shelf face detector on
anonymized data. Our experiments investigate the suitability of anonymization
methods for maintaining face detector performance, the effect of detectors
overtraining on anonymization artefacts, dataset size for training an
anonymizer, and the effect of training time of anonymization GANs. A final
experiment investigates the correlation between common GAN evaluation metrics
and the performance of a trained face detector. Although all tested
anonymization methods lower the performance of trained face detectors, faces
anonymized using GANs cause far smaller performance degradation than
conventional methods. As the most important finding, the best-performing GAN,
DeepPrivacy, removes identifiable faces for a face detector trained on
anonymized data, resulting in a modest decrease from 91.0 to 88.3 mAP. In the
last few years, there have been rapid improvements in realism of GAN-generated
faces. We expect that further progression in GAN research will allow the use of
Deep Fake technology for privacy-preserving Safe Fakes, without any performance
degradation for training face detectors.
- Abstract(参考訳): GDPR法とCCPA法が導入されて以来、公的および民間の顔画像データセットはますます精査されている。
いくつかのデータセットが完全にオフラインにされ、一部は匿名化されている。
しかし、匿名化が顔検出性能に与える影響は明らかでない。
本稿では,顔検出装置の教師付きトレーニングにおける画像匿名化の効果に関する最初の実証研究を行う。
我々は,従来の顔匿名化装置と最先端の3つのGAN(Generative Adversarial Network-based)手法を比較し,匿名化データを用いた顔検出装置の訓練を行った。
本研究は,顔検出性能維持のための匿名化手法の適合性,匿名化アーティファクトのオーバートレーニング効果,匿名化学習用データセットサイズ,匿名化GANのトレーニング時間の影響について検討した。
最後の実験は、共通のgan評価指標と訓練された顔検出器の性能の相関について検討した。
試験された全ての匿名化法は、訓練された顔検出器の性能を低下させるが、GANを用いて匿名化した顔は従来の方法よりもはるかに低い性能低下を引き起こす。
最も重要な発見として、最も優れたGANであるDeepPrivacyは、匿名化されたデータに基づいて訓練された顔検出器の識別可能な顔を削除する。
過去数年間、gan生成顔のリアリズムは急速に改善されてきた。
GAN研究のさらなる進歩は、ディープフェイク技術をプライバシー保護のセーフフェイクに利用し、顔検知器のトレーニングに性能劣化を伴わないと期待している。
関連論文リスト
- FRIDAY: Mitigating Unintentional Facial Identity in Deepfake Detectors Guided by Facial Recognizers [16.702284414478292]
従来のディープフェイク検出方法はトレーニング領域内では良好に機能するが、新しい合成技術によってその効果は著しく低下する。
近年の研究では、検出モデルが合成人工物ではなく、顔の同一性に基づく決定境界をしばしば生成していることが判明している。
本稿では,顔認識による顔認証の影響を緩和する新たな訓練手法であるFRIDAY(Falcial Recognition Identity Attenuation)を提案する。
論文 参考訳(メタデータ) (2024-12-19T08:21:28Z) - G2Face: High-Fidelity Reversible Face Anonymization via Generative and Geometric Priors [71.69161292330504]
可逆顔匿名化(Reversible face anonymization)は、顔画像の繊細なアイデンティティ情報を、合成された代替品に置き換えようとしている。
本稿では,Gtextsuperscript2Faceを提案する。
提案手法は,高データの有効性を保ちながら,顔の匿名化と回復において既存の最先端技術よりも優れる。
論文 参考訳(メタデータ) (2024-08-18T12:36:47Z) - Generalized Face Liveness Detection via De-fake Face Generator [52.23271636362843]
以前の顔アンチスプーフィング(FAS)手法は、目に見えない領域に一般化するという課題に直面している。
本稿では,大規模に付加的な現実面を効果的に活用できるAnomalous cue Guided FAS (AG-FAS)法を提案する。
提案手法は,未知のシナリオと未知のプレゼンテーションアタックを用いたクロスドメイン評価において,最先端の結果を実現する。
論文 参考訳(メタデータ) (2024-01-17T06:59:32Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - GANonymization: A GAN-based Face Anonymization Framework for Preserving
Emotional Expressions [43.017036538109274]
GANonymizationは、表情保存能力を持つ新しい顔匿名化フレームワークである。
提案手法は, 顔の高レベル表現をベースとして, GAN(Generative Adversarial Network)に基づく匿名化バージョンに合成する。
論文 参考訳(メタデータ) (2023-05-03T14:22:48Z) - LDFA: Latent Diffusion Face Anonymization for Self-driving Applications [3.501026362812183]
我々は、ITSの文脈において、顔の匿名化のための新しいディープラーニングベースのパイプラインを導入する。
本稿では,顔検出モデルと潜時拡散モデルを含む2段階の手法を提案する。
実験の結果,我々のパイプラインは,分割のためのデータの匿名化に適しており,最近のGAN法と互換性があることがわかった。
論文 参考訳(メタデータ) (2023-02-17T15:14:00Z) - FaceMAE: Privacy-Preserving Face Recognition via Masked Autoencoders [81.21440457805932]
顔のプライバシと認識性能を同時に考慮する新しいフレームワークFaceMAEを提案する。
ランダムにマスクされた顔画像は、FaceMAEの再構築モジュールのトレーニングに使用される。
また、いくつかの公開顔データセット上で十分なプライバシー保護顔認証を行う。
論文 参考訳(メタデータ) (2022-05-23T07:19:42Z) - On the (Limited) Generalization of MasterFace Attacks and Its Relation
to the Capacity of Face Representations [11.924504853735645]
実験および理論的研究におけるMasterFace攻撃の一般化可能性について検討する。
顔空間のアイデンティティが適切に分離されていると仮定して、顔容量と最大MasterFaceカバレッジを推定する。
MasterFacesは顔認識システムに対する脅威ではなく、顔認識モデルの堅牢性を高めるツールである、と結論付けている。
論文 参考訳(メタデータ) (2022-03-23T13:02:41Z) - Facial Expressions as a Vulnerability in Face Recognition [73.85525896663371]
本研究では,顔認識システムのセキュリティ脆弱性としての表情バイアスについて検討する。
本稿では,表情バイアスが顔認識技術の性能に与える影響を包括的に分析する。
論文 参考訳(メタデータ) (2020-11-17T18:12:41Z) - Investigating the Impact of Inclusion in Face Recognition Training Data
on Individual Face Identification [93.5538147928669]
最新のオープンソースの顔認識システムであるArcFaceを、100万枚以上の散らばった画像を用いた大規模な顔識別実験で監査する。
モデルのトレーニングデータには79.71%、存在しない人には75.73%のランク1顔認証精度がある。
論文 参考訳(メタデータ) (2020-01-09T15:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。