論文の概要: Adversarial Mask: Real-World Adversarial Attack Against Face Recognition
Models
- arxiv url: http://arxiv.org/abs/2111.10759v1
- Date: Sun, 21 Nov 2021 08:13:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-23 14:55:03.216643
- Title: Adversarial Mask: Real-World Adversarial Attack Against Face Recognition
Models
- Title(参考訳): adversarial mask: 顔認識モデルに対する現実世界の敵意攻撃
- Authors: Alon Zolfi and Shai Avidan and Yuval Elovici and Asaf Shabtai
- Abstract要約: 本稿では,最先端の深層学習に基づく顔認識モデルに対する物理対角的普遍摂動(UAP)を提案する。
実験では,幅広い深層学習モデルとデータセットへの対向マスクの転送可能性について検討した。
ファブリック・メディカル・フェイスマスクに対向パターンを印刷することにより,実世界の実験において,我々の対向マスクの有効性を検証した。
- 参考スコア(独自算出の注目度): 66.07662074148142
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based facial recognition (FR) models have demonstrated
state-of-the-art performance in the past few years, even when wearing
protective medical face masks became commonplace during the COVID-19 pandemic.
Given the outstanding performance of these models, the machine learning
research community has shown increasing interest in challenging their
robustness. Initially, researchers presented adversarial attacks in the digital
domain, and later the attacks were transferred to the physical domain. However,
in many cases, attacks in the physical domain are conspicuous, requiring, for
example, the placement of a sticker on the face, and thus may raise suspicion
in real-world environments (e.g., airports). In this paper, we propose
Adversarial Mask, a physical adversarial universal perturbation (UAP) against
state-of-the-art FR models that is applied on face masks in the form of a
carefully crafted pattern. In our experiments, we examined the transferability
of our adversarial mask to a wide range of FR model architectures and datasets.
In addition, we validated our adversarial mask effectiveness in real-world
experiments by printing the adversarial pattern on a fabric medical face mask,
causing the FR system to identify only 3.34% of the participants wearing the
mask (compared to a minimum of 83.34% with other evaluated masks).
- Abstract(参考訳): ディープラーニングベースの顔認識(fr)モデルは、新型コロナウイルス(covid-19)パンデミックで防護マスクを着用した場合でも、ここ数年で最先端のパフォーマンスを示している。
これらのモデルの優れたパフォーマンスを考えると、機械学習研究コミュニティは、その堅牢性に挑戦することへの関心が高まっている。
最初、研究者たちはデジタルドメインの敵攻撃を示し、その後、攻撃は物理ドメインに転送された。
しかし、多くの場合、物理的な領域での攻撃は目立っており、例えば、顔にステッカーを置くことが必要であり、現実世界の環境(例えば空港)で疑念を生じさせる可能性がある。
本稿では, 顔のマスクに注意深い図形を施した, 最先端のFRモデルに対する物理対角的普遍摂動(UAP)であるAdversarial Maskを提案する。
実験では,敵マスクの広い範囲のfrモデルアーキテクチャとデータセットへの移動性について検討した。
さらに,布製マスクに対向パターンを印刷することで実世界の実験において,敵向マスクの有効性を検証し,FRシステムではマスクを着用している参加者の3.34%(他の評価マスクと比較すると83.34%)しか識別できないことを確認した。
関連論文リスト
- Attribute-Guided Encryption with Facial Texture Masking [64.77548539959501]
本稿では,顔認識システムからユーザを保護するために,顔テクスチャマスキングを用いた属性ガイド暗号化を提案する。
提案手法は,最先端の手法よりも自然な画像を生成する。
論文 参考訳(メタデータ) (2023-05-22T23:50:43Z) - Mask-invariant Face Recognition through Template-level Knowledge
Distillation [3.727773051465455]
マスクは従来の顔認識システムの性能に影響を与える。
マスク不変顔認識ソリューション(MaskInv)を提案する。
蒸留された知識に加えて、学生ネットワークは、マージンベースのアイデンティティ分類損失による追加ガイダンスの恩恵を受ける。
論文 参考訳(メタデータ) (2021-12-10T16:19:28Z) - Partial Attack Supervision and Regional Weighted Inference for Masked
Face Presentation Attack Detection [5.71864964818217]
マスクを着用することはSARS-CoV-2の感染を防ぐ最も効果的な方法の1つであることが証明されている。
マスクフェイスPADに直面する主な問題は、不正に分類されたボナフェイドのマスクと、不正に分類された部分攻撃である。
本研究では,PADモデルトレーニングを監督する部分攻撃ラベルと,PAD性能を改善するための地域重み付き推論を提案する。
論文 参考訳(メタデータ) (2021-11-08T08:53:46Z) - Robust Physical-World Attacks on Face Recognition [52.403564953848544]
ディープニューラルネットワーク(DNN)の開発によって顔認識が大幅に促進された
近年の研究では、DNNは敵対的な事例に対して非常に脆弱であることが示されており、現実世界の顔認識の安全性に対する深刻な懸念が提起されている。
ステッカーによる顔認識の物理的攻撃について検討し、その対向的堅牢性をよりよく理解する。
論文 参考訳(メタデータ) (2021-09-20T06:49:52Z) - MLFW: A Database for Face Recognition on Masked Faces [56.441078419992046]
Masked LFW (MLFW) は、マスクのない顔からマスクされた顔を自動的に生成するツールである。
SOTAモデルの認識精度は、元の画像の精度と比較して、MLFWデータベース上で5%-16%低下する。
論文 参考訳(メタデータ) (2021-09-13T09:30:10Z) - Masked Face Recognition Challenge: The WebFace260M Track Report [81.57455766506197]
ICCV 2021におけるバイオメトリクスとマスク付き顔認識チャレンジ
WebFace260M Trackは、実用的なMFRのフロンティアを推進することを目的としている。
WebFace260M Trackの第1フェーズでは、69のチーム(トータル833ソリューション)がこの課題に参加している。
この挑戦には2021年10月1日までの第2フェーズと、進行中のリーダーボードがある。
論文 参考訳(メタデータ) (2021-08-16T15:51:51Z) - My Eyes Are Up Here: Promoting Focus on Uncovered Regions in Masked Face
Recognition [4.171626860914305]
マスク付き顔認識(MFR)の課題に対処し、FRSにおける検証性能の評価に焦点をあてる。
本研究では,従来の三重項損失と平均二乗誤差(MSE)を組み合わせることで,マスク付き非マスク比較モードにおけるMFRシステムのロバスト性を改善する手法を提案する。
論文 参考訳(メタデータ) (2021-08-02T15:51:15Z) - Contrastive Context-Aware Learning for 3D High-Fidelity Mask Face
Presentation Attack Detection [103.7264459186552]
顔認識システムには、顔提示攻撃検出(PAD)が不可欠である。
ほとんどの既存の3DマスクPADベンチマークにはいくつかの欠点があります。
現実世界のアプリケーションとのギャップを埋めるために、大規模なハイファイアリティマスクデータセットを紹介します。
論文 参考訳(メタデータ) (2021-04-13T12:48:38Z) - Unmasking Face Embeddings by Self-restrained Triplet Loss for Accurate
Masked Face Recognition [6.865656740940772]
マスク付き顔認識性能を改善するためのソリューションを提案する。
具体的には,既存の顔認識モデル上で動作させるEmbedding Unmasking Model (EUM)を提案する。
また、EUMが同一アイデンティティのマスクされていない顔のこれらに類似した埋め込みを作成することを可能にする新しい損失関数、自己拘束トリプルト(SRT)を提案します。
論文 参考訳(メタデータ) (2021-03-02T13:43:11Z) - Real Masks and Fake Faces: On the Masked Face Presentation Attack
Detection [7.324459578044212]
顔認識(FR)は、いくつかの識別機能が隠されているため、難しい作業です。
顔提示攻撃検出(PAD)はFRシステムのセキュリティを確保するために重要です。
本研究では,現実世界の状況を反映して,マスクを装着した被験者による実在のマスクによる斬新な攻撃を提示する。
論文 参考訳(メタデータ) (2021-03-02T08:05:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。