論文の概要: Generalized Attacks on Face Verification Systems
- arxiv url: http://arxiv.org/abs/2309.05879v1
- Date: Tue, 12 Sep 2023 00:00:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-13 14:51:25.825411
- Title: Generalized Attacks on Face Verification Systems
- Title(参考訳): 顔認証システムにおける一般化攻撃
- Authors: Ehsan Nazari, Paula Branco, Guy-Vincent Jourdan
- Abstract要約: ディープニューラルネットワークモデルを用いた顔認証(FV)は近年大きく進歩している。
FVシステムは、通常人間に知られない方法でこれらのシステムを騙すために入力画像を操作する敵攻撃(Adversarial Attacks)に弱い。
与えられたアイデンティティの集合を識別する顔画像の作成を定式化するDodgePersonation Attackを導入する。
- 参考スコア(独自算出の注目度): 2.4259557752446637
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Face verification (FV) using deep neural network models has made tremendous
progress in recent years, surpassing human accuracy and seeing deployment in
various applications such as border control and smartphone unlocking. However,
FV systems are vulnerable to Adversarial Attacks, which manipulate input images
to deceive these systems in ways usually unnoticeable to humans. This paper
provides an in-depth study of attacks on FV systems. We introduce the
DodgePersonation Attack that formulates the creation of face images that
impersonate a set of given identities while avoiding being identified as any of
the identities in a separate, disjoint set. A taxonomy is proposed to provide a
unified view of different types of Adversarial Attacks against FV systems,
including Dodging Attacks, Impersonation Attacks, and Master Face Attacks.
Finally, we propose the ''One Face to Rule Them All'' Attack which implements
the DodgePersonation Attack with state-of-the-art performance on a well-known
scenario (Master Face Attack) and which can also be used for the new scenarios
introduced in this paper. While the state-of-the-art Master Face Attack can
produce a set of 9 images to cover 43.82% of the identities in their test
database, with 9 images our attack can cover 57.27% to 58.5% of these
identifies while giving the attacker the choice of the identity to use to
create the impersonation. Moreover, the 9 generated attack images appear
identical to a casual observer.
- Abstract(参考訳): ディープニューラルネットワークモデルを用いた顔検証(FV)は近年,人間の正確性を超え,バウンダリコントロールやスマートフォンのアンロックなど,さまざまなアプリケーションに展開されている。
しかし、FVシステムは、通常人間に知られない方法でこれらのシステムを騙すために入力画像を操作する敵攻撃に対して脆弱である。
本稿では,fvシステムに対する攻撃に関する詳細な研究を行う。
同一人物を同一視する顔画像の作成を定式化し,同一人物を別個の不一致集合で同一人物と認識しないようにするダジソフィケーション攻撃を提案する。
ドッジアタック、偽装攻撃、マスター・フェイスアタックなど、FVシステムに対する様々な種類の敵攻撃の統一ビューを提供するために分類法が提案されている。
最後に、よく知られたシナリオ(マスター・フェイス・アタック)における最先端のパフォーマンスを備えたDodgePersonation Attackを実装した'One Face to Rule Them All'アタックを提案し、この論文で導入された新しいシナリオにも使用できる。
最先端のマスターフェイス攻撃は、彼らのテストデータベースのアイデンティティの43.82%をカバーする9つのイメージを生成できるが、9つのイメージにより、攻撃者はこれらの識別の57.27%から58.5%をカバーでき、攻撃者は偽装を作成するために使用するアイデンティティを選択することができる。
さらに、発生した9つの攻撃画像は、カジュアルなオブザーバと同一に見える。
関連論文リスト
- AdvGen: Physical Adversarial Attack on Face Presentation Attack
Detection Systems [17.03646903905082]
敵対的攻撃が注目を集めており、認識システムの学習戦略をデジタルで欺こうとしている。
本稿では,物理世界のシナリオにおいて,顔認証システムの逆画像に対する脆弱性を実証する。
本稿では,自動生成支援ネットワークであるAdvGenを提案し,印刷・再生攻撃をシミュレートし,最先端のPADを騙すことのできる逆画像を生成する。
論文 参考訳(メタデータ) (2023-11-20T13:28:42Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Attribute-Guided Encryption with Facial Texture Masking [64.77548539959501]
本稿では,顔認識システムからユーザを保護するために,顔テクスチャマスキングを用いた属性ガイド暗号化を提案する。
提案手法は,最先端の手法よりも自然な画像を生成する。
論文 参考訳(メタデータ) (2023-05-22T23:50:43Z) - Invisible Backdoor Attack with Dynamic Triggers against Person
Re-identification [71.80885227961015]
個人再識別(ReID)は、広範囲の現実世界のアプリケーションで急速に進展しているが、敵攻撃の重大なリスクも生じている。
動的トリガー・インビジブル・バックドア・アタック(DT-IBA)と呼ばれる,ReIDに対する新たなバックドア・アタックを提案する。
本研究は,提案したベンチマークデータセットに対する攻撃の有効性と盗聴性を広範囲に検証し,攻撃に対する防御手法の有効性を評価する。
論文 参考訳(メタデータ) (2022-11-20T10:08:28Z) - Is Face Recognition Safe from Realizable Attacks? [1.7214499647717132]
顔認識は生体認証の一般的な形態であり、広く使われているため、攻撃も一般的になっている。
近年の研究では、顔認識システムは攻撃に弱いことが示されており、顔の誤識別につながる可能性がある。
攻撃者は、微妙な摂動でリアルな合成顔画像を生成し、それを顔に物理的に認識し、ブラックボックスの顔認識システムに攻撃できる攻撃方式を提案する。
論文 参考訳(メタデータ) (2022-10-15T03:52:53Z) - RSTAM: An Effective Black-Box Impersonation Attack on Face Recognition
using a Mobile and Compact Printer [10.245536402327096]
RSTAMと呼ばれる顔認識モデルやシステムを攻撃する新しい手法を提案する。
RSTAMは、モバイルおよびコンパクトプリンタによって印刷された対向マスクを用いて、効果的なブラックボックス偽造攻撃を可能にする。
攻撃のパフォーマンスは、Face++、Baidu、Aliyun、Tencent、Microsoftといった最先端の商用顔認識システムでも評価されている。
論文 参考訳(メタデータ) (2022-06-25T08:16:55Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - An Ensemble Model for Face Liveness Detection [2.322052136673525]
本研究では,アンサンブル深層学習技術を用いて顔提示攻撃を検出する受動的手法を提案する。
本研究では,顔領域と背景領域の複数の特徴を学習し,ユーザがボナフィドか攻撃者かを予測するアンサンブル手法を提案する。
論文 参考訳(メタデータ) (2022-01-19T12:43:39Z) - Vulnerability Analysis of Face Morphing Attacks from Landmarks and
Generative Adversarial Networks [0.8602553195689513]
本稿は,OpenCV, FaceMorpher, WebMorph, および生成対向ネットワーク(StyleGAN)に基づく4種類のモーフィング攻撃を用いた新しいデータセットを提供する。
また,facenet,vgg-face,arcfaceなど,最先端の顔認識システムの脆弱性を評価するための広範な実験を行った。
論文 参考訳(メタデータ) (2020-12-09T22:10:17Z) - FaceGuard: A Self-Supervised Defense Against Adversarial Face Images [59.656264895721215]
我々は,多種多様な対向顔を自動的に検出し,局所化し,浄化する,新たな自己監督型対向防御フレームワークFaceGuardを提案する。
トレーニング中、FaceGuardは、困難で多様な敵攻撃を自動的に合成し、分類器が実際の顔と区別することを学ぶことができる。
LFWデータセットの実験結果から、FaceGuardは6つの未知の敵攻撃タイプに対して99.81%の精度で検出できることが示された。
論文 参考訳(メタデータ) (2020-11-28T21:18:46Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。