論文の概要: Dodging Attack Using Carefully Crafted Natural Makeup
- arxiv url: http://arxiv.org/abs/2109.06467v1
- Date: Tue, 14 Sep 2021 06:27:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-15 15:45:17.276372
- Title: Dodging Attack Using Carefully Crafted Natural Makeup
- Title(参考訳): 巧妙な天然メイクアップによるドッジ攻撃
- Authors: Nitzan Guetta and Asaf Shabtai and Inderjeet Singh and Satoru Momiyama
and Yuval Elovici
- Abstract要約: 本研究では,人体に自然な化粧を施す新しいブラックボックス対向機械学習(AML)攻撃を提案する。
我々は,実世界の20人の参加者を対象に,ArcFace顔認識モデルに対する攻撃について検討した。
デジタルドメインでは、顔認識システムは全ての参加者を特定することができず、物理ドメインでは、顔認識システムはわずか1.22%のフレームで参加者を識別することができた。
- 参考スコア(独自算出の注目度): 42.65417043860506
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning face recognition models are used by state-of-the-art
surveillance systems to identify individuals passing through public areas
(e.g., airports). Previous studies have demonstrated the use of adversarial
machine learning (AML) attacks to successfully evade identification by such
systems, both in the digital and physical domains. Attacks in the physical
domain, however, require significant manipulation to the human participant's
face, which can raise suspicion by human observers (e.g. airport security
officers). In this study, we present a novel black-box AML attack which
carefully crafts natural makeup, which, when applied on a human participant,
prevents the participant from being identified by facial recognition models. We
evaluated our proposed attack against the ArcFace face recognition model, with
20 participants in a real-world setup that includes two cameras, different
shooting angles, and different lighting conditions. The evaluation results show
that in the digital domain, the face recognition system was unable to identify
all of the participants, while in the physical domain, the face recognition
system was able to identify the participants in only 1.22% of the frames
(compared to 47.57% without makeup and 33.73% with random natural makeup),
which is below a reasonable threshold of a realistic operational environment.
- Abstract(参考訳): ディープラーニング顔認識モデルは最先端の監視システムによって公共エリア(空港など)を通過する個人を特定するために使用されている。
従来の研究では、デジタルドメインと物理ドメインの両方において、このようなシステムによる識別を回避するために、敵対的機械学習(AML)攻撃の使用が実証されている。
しかし、物理的な領域での攻撃は、人間の顔に重大な操作を必要とするため、人間の観察者(空港の警備員など)による疑念を引き起こす可能性がある。
本研究では,自然のメイクアップを慎重に作ることによって,被験者が顔認証モデルによって識別されることを防止する新しいブラックボックス型aml攻撃を提案する。
提案するarcface顔認識モデルに対する攻撃を,2台のカメラ,異なる撮影角度,異なる照明条件を含む実世界の20名の参加者で評価した。
評価の結果、デジタルドメインでは、顔認識システムは参加者全員を識別できなかったが、物理的ドメインでは、現実的な運用環境の合理的なしきい値以下である、フレームの1.22%(化粧なしで47.57%、ランダムな自然化粧で33.73%)の参加者を識別することができた。
関連論文リスト
- Is Face Recognition Safe from Realizable Attacks? [1.7214499647717132]
顔認識は生体認証の一般的な形態であり、広く使われているため、攻撃も一般的になっている。
近年の研究では、顔認識システムは攻撃に弱いことが示されており、顔の誤識別につながる可能性がある。
攻撃者は、微妙な摂動でリアルな合成顔画像を生成し、それを顔に物理的に認識し、ブラックボックスの顔認識システムに攻撃できる攻撃方式を提案する。
論文 参考訳(メタデータ) (2022-10-15T03:52:53Z) - RAF: Recursive Adversarial Attacks on Face Recognition Using Extremely
Limited Queries [2.8532545355403123]
近年の顔認識に対する敵対的攻撃の成功は、顔認識モデルの顕著な進歩にもかかわらず、認識と認識のための人間の知性にはまだ及ばないことを示している。
本稿では,ターゲットモデルを騙すために,極めて限られたクエリ数を必要とする自動顔整形を提案する。
決定に基づくブラックボックス攻撃設定における提案手法のロバスト性を評価する。
論文 参考訳(メタデータ) (2022-07-04T00:22:45Z) - Controllable Evaluation and Generation of Physical Adversarial Patch on
Face Recognition [49.42127182149948]
近年の研究では、顔認証モデルの物理的敵パッチに対する脆弱性が明らかにされている。
本稿では3次元顔モデルを用いて物理世界の顔の複雑な変形をシミュレートする。
さらに、3次元顔変換と現実的な物理的変動を考慮したFace3DAdv法を提案する。
論文 参考訳(メタデータ) (2022-03-09T10:21:40Z) - Adversarial Mask: Real-World Adversarial Attack Against Face Recognition
Models [66.07662074148142]
本稿では,最先端の深層学習に基づく顔認識モデルに対する物理対角的普遍摂動(UAP)を提案する。
実験では,幅広い深層学習モデルとデータセットへの対向マスクの転送可能性について検討した。
ファブリック・メディカル・フェイスマスクに対向パターンを印刷することにより,実世界の実験において,我々の対向マスクの有効性を検証した。
論文 参考訳(メタデータ) (2021-11-21T08:13:21Z) - FACESEC: A Fine-grained Robustness Evaluation Framework for Face
Recognition Systems [49.577302852655144]
FACESECは、顔認識システムのきめ細かい堅牢性評価のためのフレームワークです。
5つの顔認識システムをクローズド設定とオープン設定の両方で検討します。
ニューラルネットワークの正確な知識は、ブラックボックス攻撃におけるトレーニングデータの知識よりもはるかに重要である。
論文 参考訳(メタデータ) (2021-04-08T23:00:25Z) - Facial Expressions as a Vulnerability in Face Recognition [73.85525896663371]
本研究では,顔認識システムのセキュリティ脆弱性としての表情バイアスについて検討する。
本稿では,表情バイアスが顔認識技術の性能に与える影響を包括的に分析する。
論文 参考訳(メタデータ) (2020-11-17T18:12:41Z) - Adversarial Light Projection Attacks on Face Recognition Systems: A
Feasibility Study [21.42041262836322]
対向光投射を用いた顔認識システムに対するリアルタイム物理攻撃の実現可能性について検討する。
敵は、相手に利用可能なターゲットの1つ以上の画像を用いて、デジタル敵パターンを生成する。
デジタル対向パターンは、物理的領域の敵の顔に投影され、ターゲット(偽装)を偽装するか、認識(難読化)を避ける。
論文 参考訳(メタデータ) (2020-03-24T23:06:25Z) - Investigating the Impact of Inclusion in Face Recognition Training Data
on Individual Face Identification [93.5538147928669]
最新のオープンソースの顔認識システムであるArcFaceを、100万枚以上の散らばった画像を用いた大規模な顔識別実験で監査する。
モデルのトレーニングデータには79.71%、存在しない人には75.73%のランク1顔認証精度がある。
論文 参考訳(メタデータ) (2020-01-09T15:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。