論文の概要: Adversarial Relighting against Face Recognition
- arxiv url: http://arxiv.org/abs/2108.07920v1
- Date: Wed, 18 Aug 2021 01:05:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-19 14:43:23.180341
- Title: Adversarial Relighting against Face Recognition
- Title(参考訳): 顔認識に対する敵対的リライト
- Authors: Ruijun Gao, Qing Gao, Qian Zhang, Felix Juefei-Xu, Hongkai Yu, Wei
Feng
- Abstract要約: 我々は,新たな角度,すなわち対向的リライティングによる深層顔認識に対する照明の脅威について検討する。
顔画像が与えられたら、敵のリライティングは、最先端のディープFRメソッドを騙しながら、自然にリライティングされた相手を作り出すことを目的としている。
当社の手法は、FaceNet、ArcFace、CosFaceという最先端の3つのディープFRメソッドに対して、2つのパブリックデータセット上で検証する。
- 参考スコア(独自算出の注目度): 18.813967095498697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep face recognition (FR) has achieved significantly high accuracy on
several challenging datasets and fosters successful real-world applications,
even showing high robustness to the illumination variation that is usually
regarded as a main threat to the FR system. However, in the real world,
illumination variation caused by diverse lighting conditions cannot be fully
covered by the limited face dataset. In this paper, we study the threat of
lighting against FR from a new angle, i.e., adversarial attack, and identify a
new task, i.e., adversarial relighting. Given a face image, adversarial
relighting aims to produce a naturally relighted counterpart while fooling the
state-of-the-art deep FR methods. To this end, we first propose the physical
model-based adversarial relighting attack (ARA) denoted as
albedo-quotient-based adversarial relighting attack (AQ-ARA). It generates
natural adversarial light under the physical lighting model and guidance of FR
systems and synthesizes adversarially relighted face images. Moreover, we
propose the auto-predictive adversarial relighting attack (AP-ARA) by training
an adversarial relighting network (ARNet) to automatically predict the
adversarial light in a one-step manner according to different input faces,
allowing efficiency-sensitive applications. More importantly, we propose to
transfer the above digital attacks to physical ARA (Phy-ARA) through a precise
relighting device, making the estimated adversarial lighting condition
reproducible in the real world. We validate our methods on three
state-of-the-art deep FR methods, i.e., FaceNet, ArcFace, and CosFace, on two
public datasets. The extensive and insightful results demonstrate our work can
generate realistic adversarial relighted face images fooling FR easily,
revealing the threat of specific light directions and strengths.
- Abstract(参考訳): ディープフェース認識(FR)は、いくつかの挑戦的なデータセットにおいて極めて高い精度を達成し、実際の応用を成功させ、通常はFRシステムに対する主要な脅威とみなされる照明の変動に対して高い堅牢性を示す。
しかし、現実世界では、多様な照明条件による照明変動は、限られた顔データセットによって完全にカバーできない。
本稿では,新たな角度,すなわち敵の攻撃からfrに対する照明の脅威を調べ,新たな課題,すなわち敵の照明を識別する。
顔画像が与えられたら、敵のリライティングは、最先端のディープFRメソッドを騙しながら自然にリライティングされた相手を作り出すことを目的としている。
そこで我々はまず,アルベド商法に基づく逆照準攻撃(AQ-ARA)と呼ばれる物理モデルに基づく逆照準攻撃(ARA)を提案する。
物理照明モデルとFRシステムの誘導の下で自然対向光を生成し、対向的に照らされた顔画像を合成する。
さらに,adversarial relighting network (arnet) を訓練し,異なる入力面に応じて一段階の逆光を自動予測し,効率に敏感な応用が可能な自動予測型逆光攻撃(ap-ara)を提案する。
より重要なことは、上記のデジタル攻撃を物理的ARA(Phy-ARA)に正確なリライティング装置を通じて転送し、実世界で推定される逆光条件を再現できるようにすることである。
我々は2つの公開データセット上で,facenet,arcface,cosfaceという,最先端の3つのディープfrメソッドで手法を検証する。
われわれの研究の広範囲で洞察力に富んだ結果が示すように、現実の敵意に満ちた顔画像が簡単にfrを騙し、特定の光の方向や強さの脅威を露呈する。
関連論文リスト
- DiffAM: Diffusion-based Adversarial Makeup Transfer for Facial Privacy Protection [60.73609509756533]
DiffAMは、基準画像から対向的な化粧を施した高品質な顔画像を生成するための新しいアプローチである。
実験の結果、DiffAMはブラックボックス設定で12.98%上昇し、視覚的品質の向上と攻撃の成功率の向上を実現している。
論文 参考訳(メタデータ) (2024-05-16T08:05:36Z) - NeRFTAP: Enhancing Transferability of Adversarial Patches on Face
Recognition using Neural Radiance Fields [15.823538329365348]
本稿では、FRモデルへの転送可能性と被害者の顔画像の両方を考慮し、新たな敵攻撃法を提案する。
我々は,敵パッチの転送可能性を高めるために,ソースと対象対象のための新しいビューフェイス画像を生成する。
本研究は, FRシステムの強靭性向上に有用な知見を提供する。
論文 参考訳(メタデータ) (2023-11-29T03:17:14Z) - Imperceptible Physical Attack against Face Recognition Systems via LED
Illumination Modulation [3.6939170447261835]
本稿では,顔検出のためのDoS攻撃と,顔認証のためのDodging攻撃を提案する。
顔検出モデルに対するDoS攻撃の成功率は97.67%、100%、100%に達し、顔認証モデルに対するDoS攻撃の成功率は100%に達した。
論文 参考訳(メタデータ) (2023-07-25T07:20:21Z) - Attribute-Guided Encryption with Facial Texture Masking [64.77548539959501]
本稿では,顔認識システムからユーザを保護するために,顔テクスチャマスキングを用いた属性ガイド暗号化を提案する。
提案手法は,最先端の手法よりも自然な画像を生成する。
論文 参考訳(メタデータ) (2023-05-22T23:50:43Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - Asymmetric Modality Translation For Face Presentation Attack Detection [55.09300842243827]
顔提示攻撃検出(PAD)は、悪意のあるユーザによって顔認識システムが偽造されるのを防ぐための重要な手段である。
両モードシナリオにおける非対称なモダリティ変換に基づく新しいフレームワークを提案する。
本手法は,異なる評価プロトコル下での最先端性能を実現する。
論文 参考訳(メタデータ) (2021-10-18T08:59:09Z) - Face Anti-Spoofing by Learning Polarization Cues in a Real-World
Scenario [50.36920272392624]
顔の偽造は生体認証アプリケーションにおけるセキュリティ侵害を防ぐ鍵となる。
RGBと赤外線画像を用いたディープラーニング手法は,新たな攻撃に対する大量のトレーニングデータを必要とする。
本研究では,実顔の偏光画像の物理的特徴を自動的に学習することにより,現実のシナリオにおける顔のアンチ・スプーフィング手法を提案する。
論文 参考訳(メタデータ) (2020-03-18T03:04:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。