論文の概要: Imperceptible Physical Attack against Face Recognition Systems via LED
Illumination Modulation
- arxiv url: http://arxiv.org/abs/2307.13294v2
- Date: Mon, 7 Aug 2023 08:12:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 20:27:14.625097
- Title: Imperceptible Physical Attack against Face Recognition Systems via LED
Illumination Modulation
- Title(参考訳): led照明変調による顔認識システムに対する知覚不能な物理的攻撃
- Authors: Junbin Fang, Canjian Jiang, You Jiang, Puxi Lin, Zhaojie Chen, Yujing
Sun, Siu-Ming Yiu, Zoe L. Jiang
- Abstract要約: 本稿では,顔検出のためのDoS攻撃と,顔認証のためのDodging攻撃を提案する。
顔検出モデルに対するDoS攻撃の成功率は97.67%、100%、100%に達し、顔認証モデルに対するDoS攻撃の成功率は100%に達した。
- 参考スコア(独自算出の注目度): 3.6939170447261835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although face recognition starts to play an important role in our daily life,
we need to pay attention that data-driven face recognition vision systems are
vulnerable to adversarial attacks. However, the current two categories of
adversarial attacks, namely digital attacks and physical attacks both have
drawbacks, with the former ones impractical and the latter one conspicuous,
high-computational and inexecutable. To address the issues, we propose a
practical, executable, inconspicuous and low computational adversarial attack
based on LED illumination modulation. To fool the systems, the proposed attack
generates imperceptible luminance changes to human eyes through fast intensity
modulation of scene LED illumination and uses the rolling shutter effect of
CMOS image sensors in face recognition systems to implant luminance information
perturbation to the captured face images. In summary,we present a
denial-of-service (DoS) attack for face detection and a dodging attack for face
verification. We also evaluate their effectiveness against well-known face
detection models, Dlib, MTCNN and RetinaFace , and face verification models,
Dlib, FaceNet,and ArcFace.The extensive experiments show that the success rates
of DoS attacks against face detection models reach 97.67%, 100%, and 100%,
respectively, and the success rates of dodging attacks against all face
verification models reach 100%.
- Abstract(参考訳): 顔認識は私たちの日常生活において重要な役割を担い始めているが、データ駆動型顔認識システムは敵の攻撃に弱いことに注意する必要がある。
しかし、現在の敵攻撃の2つのカテゴリ、すなわちデジタル攻撃と物理的攻撃はどちらも欠点があり、以前の攻撃は非現実的であり、後者は目立った、高い計算能力、実行不可能である。
この問題に対処するために,led照明変調に基づく実用的で実行可能で,目立たず,計算能力の低い敵攻撃を提案する。
提案手法を騙すために,シーンled照明の高速強度変調により人間の眼に知覚不能な輝度変化を生じさせ,cmosイメージセンサのローリングシャッター効果を顔認識システムに適用し,撮像した顔画像に輝度情報の摂動を注入する。
本報告では,顔検出のためのDoS攻撃と,顔認証のためのDodging攻撃について述べる。
また,顔検出モデルであるdlib,mtcnn,retinaface,および顔認証モデルであるdlib,facenet,arcfaceに対するその効果を評価した。広範な実験により,顔検出モデルに対するdos攻撃の成功率は97.67%,100%,100%,すべての顔検証モデルに対するドーディング攻撃の成功率は100%に達した。
関連論文リスト
- Rethinking the Threat and Accessibility of Adversarial Attacks against Face Recognition Systems [13.830575255066773]
顔認識パイプラインは、信頼、公平、責任あるAIアプリケーションにおいてミッションクリティカルなシステムに広くデプロイされている。
敵の攻撃の出現は、認識パイプライン全体のセキュリティを脅かしている。
我々は,ブラックボックスの顔認識パイプラインに対して,AdvColorという,効果的かつ容易に起動可能な物理的敵攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-11T13:58:09Z) - Principles of Designing Robust Remote Face Anti-Spoofing Systems [60.05766968805833]
本稿では,デジタル攻撃に対する最先端の対面防止手法の脆弱性に光を当てる。
反偽造システムに遭遇する一般的な脅威を包括的に分類する。
論文 参考訳(メタデータ) (2024-06-06T02:05:35Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Is Face Recognition Safe from Realizable Attacks? [1.7214499647717132]
顔認識は生体認証の一般的な形態であり、広く使われているため、攻撃も一般的になっている。
近年の研究では、顔認識システムは攻撃に弱いことが示されており、顔の誤識別につながる可能性がある。
攻撃者は、微妙な摂動でリアルな合成顔画像を生成し、それを顔に物理的に認識し、ブラックボックスの顔認識システムに攻撃できる攻撃方式を提案する。
論文 参考訳(メタデータ) (2022-10-15T03:52:53Z) - RSTAM: An Effective Black-Box Impersonation Attack on Face Recognition
using a Mobile and Compact Printer [10.245536402327096]
RSTAMと呼ばれる顔認識モデルやシステムを攻撃する新しい手法を提案する。
RSTAMは、モバイルおよびコンパクトプリンタによって印刷された対向マスクを用いて、効果的なブラックボックス偽造攻撃を可能にする。
攻撃のパフォーマンスは、Face++、Baidu、Aliyun、Tencent、Microsoftといった最先端の商用顔認識システムでも評価されている。
論文 参考訳(メタデータ) (2022-06-25T08:16:55Z) - Robust Physical-World Attacks on Face Recognition [52.403564953848544]
ディープニューラルネットワーク(DNN)の開発によって顔認識が大幅に促進された
近年の研究では、DNNは敵対的な事例に対して非常に脆弱であることが示されており、現実世界の顔認識の安全性に対する深刻な懸念が提起されている。
ステッカーによる顔認識の物理的攻撃について検討し、その対向的堅牢性をよりよく理解する。
論文 参考訳(メタデータ) (2021-09-20T06:49:52Z) - FACESEC: A Fine-grained Robustness Evaluation Framework for Face
Recognition Systems [49.577302852655144]
FACESECは、顔認識システムのきめ細かい堅牢性評価のためのフレームワークです。
5つの顔認識システムをクローズド設定とオープン設定の両方で検討します。
ニューラルネットワークの正確な知識は、ブラックボックス攻撃におけるトレーニングデータの知識よりもはるかに重要である。
論文 参考訳(メタデータ) (2021-04-08T23:00:25Z) - Robust Attacks on Deep Learning Face Recognition in the Physical World [48.909604306342544]
FaceAdvは、敵のステッカーを使ってFRシステムを騙す物理世界の攻撃だ。
主にステッカージェネレータとトランスフォーマーで構成され、前者は異なる形状のステッカーを作れる。
3種類のFRシステムに対するFaceAdvの有効性を評価するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2020-11-27T02:24:43Z) - Adversarial Light Projection Attacks on Face Recognition Systems: A
Feasibility Study [21.42041262836322]
対向光投射を用いた顔認識システムに対するリアルタイム物理攻撃の実現可能性について検討する。
敵は、相手に利用可能なターゲットの1つ以上の画像を用いて、デジタル敵パターンを生成する。
デジタル対向パターンは、物理的領域の敵の顔に投影され、ターゲット(偽装)を偽装するか、認識(難読化)を避ける。
論文 参考訳(メタデータ) (2020-03-24T23:06:25Z) - On the Robustness of Face Recognition Algorithms Against Attacks and
Bias [78.68458616687634]
顔認識アルゴリズムは非常に高い認識性能を示しており、現実のアプリケーションに適していることを示唆している。
精度が向上したにもかかわらず、これらのアルゴリズムの攻撃や偏見に対する堅牢性は問題視されている。
本稿では,顔認識アルゴリズムの頑健性に挑戦する様々な方法について要約する。
論文 参考訳(メタデータ) (2020-02-07T18:21:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。