論文の概要: Vulnerability Analysis of Face Morphing Attacks from Landmarks and
Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2012.05344v1
- Date: Wed, 9 Dec 2020 22:10:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 03:20:06.218729
- Title: Vulnerability Analysis of Face Morphing Attacks from Landmarks and
Generative Adversarial Networks
- Title(参考訳): ランドマークと生成敵ネットワークからの顔形態攻撃の脆弱性解析
- Authors: Eklavya Sarkar, Pavel Korshunov, Laurent Colbois, S\'ebastien Marcel
- Abstract要約: 本稿は,OpenCV, FaceMorpher, WebMorph, および生成対向ネットワーク(StyleGAN)に基づく4種類のモーフィング攻撃を用いた新しいデータセットを提供する。
また,facenet,vgg-face,arcfaceなど,最先端の顔認識システムの脆弱性を評価するための広範な実験を行った。
- 参考スコア(独自算出の注目度): 0.8602553195689513
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Morphing attacks is a threat to biometric systems where the biometric
reference in an identity document can be altered. This form of attack presents
an important issue in applications relying on identity documents such as border
security or access control. Research in face morphing attack detection is
developing rapidly, however very few datasets with several forms of attacks are
publicly available. This paper bridges this gap by providing a new dataset with
four different types of morphing attacks, based on OpenCV, FaceMorpher,
WebMorph and a generative adversarial network (StyleGAN), generated with
original face images from three public face datasets. We also conduct extensive
experiments to assess the vulnerability of the state-of-the-art face
recognition systems, notably FaceNet, VGG-Face, and ArcFace. The experiments
demonstrate that VGG-Face, while being less accurate face recognition system
compared to FaceNet, is also less vulnerable to morphing attacks. Also, we
observed that na\"ive morphs generated with a StyleGAN do not pose a
significant threat.
- Abstract(参考訳): モーフィング攻撃は生体認証システムにとって脅威であり、生体認証文書内の生体認証参照を変更することができる。
この種の攻撃は、境界セキュリティやアクセス制御といったIDドキュメントに依存するアプリケーションにおいて重要な問題となる。
顔変形攻撃検出の研究は急速に進んでいるが、いくつかの攻撃形態を持つデータセットは公開されていない。
本稿では, opencv, facemorpher, webmorph, and generative adversarial network (stylegan) に基づいて,3つの公開顔データセットから生成した顔画像を基にした,4種類のモーフィング攻撃を行う新たなデータセットを提供することで,このギャップを埋める。
また,facenet,vgg-face,arcfaceなど,最先端の顔認識システムの脆弱性を評価するための広範な実験を行った。
実験により、VGG-FaceはFaceNetに比べて精度が低いが、モルヒネ攻撃に対する脆弱性も低いことが示された。
また,スタイルガンで生成したna\"ive morphsは大きな脅威をもたらさないことを観察した。
関連論文リスト
- LADIMO: Face Morph Generation through Biometric Template Inversion with Latent Diffusion [5.602947425285195]
顔改ざん攻撃は、顔認識システムに深刻なセキュリティ脅威をもたらす。
本稿では,2つの顔認識の埋め込みにおいて,表現レベルの顔形態形成手法であるLADIMOを提案する。
顔形態変種は個々の攻撃成功率を持ち、形態的攻撃ポテンシャルを最大化できることを示す。
論文 参考訳(メタデータ) (2024-10-10T14:41:37Z) - Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Hierarchical Generative Network for Face Morphing Attacks [7.34597796509503]
顔認識システム(FRS)は、複数のアイデンティティを含む形態画像を作成することで、顔認識システム(FRS)を回避している。
本研究では, 画像の品質向上と寄与するアイデンティティの保存を図るため, 新たなモーフィング攻撃法を提案する。
論文 参考訳(メタデータ) (2024-03-17T06:09:27Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Towards minimizing efforts for Morphing Attacks -- Deep embeddings for morphing pair selection and improved Morphing Attack Detection [4.349201388722244]
顔埋め込みは、大規模なモルフィング攻撃生成のための画像の選択と、潜在的なモルフィング攻撃を検出する2つの目的がある。
顔の埋め込み類似性に基づいて個人をペアリングする事前選択アルゴリズムを用いる。
モーフィング・アタックを検出する能力の観点から、2つの最先端の顔認識システムからの埋め込みを比較した。
論文 参考訳(メタデータ) (2023-05-29T17:00:40Z) - FaceMAE: Privacy-Preserving Face Recognition via Masked Autoencoders [81.21440457805932]
顔のプライバシと認識性能を同時に考慮する新しいフレームワークFaceMAEを提案する。
ランダムにマスクされた顔画像は、FaceMAEの再構築モジュールのトレーニングに使用される。
また、いくつかの公開顔データセット上で十分なプライバシー保護顔認証を行う。
論文 参考訳(メタデータ) (2022-05-23T07:19:42Z) - Are GAN-based Morphs Threatening Face Recognition? [3.0921354926071274]
本稿では,4種類のモーフィング攻撃のためのデータセットと対応するコードを提供することにより,このギャップを埋める。
また、4つの最先端の顔認識システムの脆弱性を評価するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-05-05T08:19:47Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Robust Physical-World Attacks on Face Recognition [52.403564953848544]
ディープニューラルネットワーク(DNN)の開発によって顔認識が大幅に促進された
近年の研究では、DNNは敵対的な事例に対して非常に脆弱であることが示されており、現実世界の顔認識の安全性に対する深刻な懸念が提起されている。
ステッカーによる顔認識の物理的攻撃について検討し、その対向的堅牢性をよりよく理解する。
論文 参考訳(メタデータ) (2021-09-20T06:49:52Z) - Face Morphing Attack Generation & Detection: A Comprehensive Survey [12.936155415524937]
顔認識システム (FRS) はバイオメトリック・コミュニティから大きな関心を集めている。
モーフィング攻撃の目標は、自動境界制御ゲートでFRSを反転させることである。
悪質な俳優及び共犯者は、変形した顔画像を生成して、eパスポートを得ることができる。
論文 参考訳(メタデータ) (2020-11-03T22:36:27Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。