論文の概要: Adversarial Light Projection Attacks on Face Recognition Systems: A
Feasibility Study
- arxiv url: http://arxiv.org/abs/2003.11145v2
- Date: Fri, 17 Apr 2020 00:44:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 09:00:19.879990
- Title: Adversarial Light Projection Attacks on Face Recognition Systems: A
Feasibility Study
- Title(参考訳): 顔認識システムにおける逆光射影攻撃:実現可能性の検討
- Authors: Dinh-Luan Nguyen and Sunpreet S. Arora and Yuhang Wu and Hao Yang
- Abstract要約: 対向光投射を用いた顔認識システムに対するリアルタイム物理攻撃の実現可能性について検討する。
敵は、相手に利用可能なターゲットの1つ以上の画像を用いて、デジタル敵パターンを生成する。
デジタル対向パターンは、物理的領域の敵の顔に投影され、ターゲット(偽装)を偽装するか、認識(難読化)を避ける。
- 参考スコア(独自算出の注目度): 21.42041262836322
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based systems have been shown to be vulnerable to adversarial
attacks in both digital and physical domains. While feasible, digital attacks
have limited applicability in attacking deployed systems, including face
recognition systems, where an adversary typically has access to the input and
not the transmission channel. In such setting, physical attacks that directly
provide a malicious input through the input channel pose a bigger threat. We
investigate the feasibility of conducting real-time physical attacks on face
recognition systems using adversarial light projections. A setup comprising a
commercially available web camera and a projector is used to conduct the
attack. The adversary uses a transformation-invariant adversarial pattern
generation method to generate a digital adversarial pattern using one or more
images of the target available to the adversary. The digital adversarial
pattern is then projected onto the adversary's face in the physical domain to
either impersonate a target (impersonation) or evade recognition (obfuscation).
We conduct preliminary experiments using two open-source and one commercial
face recognition system on a pool of 50 subjects. Our experimental results
demonstrate the vulnerability of face recognition systems to light projection
attacks in both white-box and black-box attack settings.
- Abstract(参考訳): ディープラーニングベースのシステムは、デジタルドメインと物理ドメインの両方の敵攻撃に対して脆弱であることが示されている。
実現可能ではあるが、デジタル攻撃は、顔認証システムを含む、配備されたシステムを攻撃する場合に限定的な適用性を持つ。
このような設定では、入力チャネルから直接悪意のある入力を提供する物理的な攻撃は、より大きな脅威を引き起こす。
対向光投射を用いた顔認識システムに対するリアルタイム物理攻撃の実現可能性について検討する。
市販のウェブカメラとプロジェクタからなるセットアップを使用して攻撃を行う。
変換不変な対向パターン生成法を用いて、敵に利用可能なターゲットの1つ以上の画像を用いて、デジタル対向パターンを生成する。
デジタル対向パターンは、物理的ドメインの敵の顔に投影され、ターゲット(偽装)を偽装するか、認識を回避(難読化)する。
2つのオープンソースと1つの商用顔認識システムを用いて,50人の被験者を対象に予備実験を行った。
実験の結果,ホワイトボックスおよびブラックボックスの攻撃設定において,光投射攻撃に対する顔認識システムの脆弱性が示された。
関連論文リスト
- Time-Aware Face Anti-Spoofing with Rotation Invariant Local Binary Patterns and Deep Learning [50.79277723970418]
模倣攻撃は 不正な識別と その後の攻撃者の認証につながる
顔認識と同様に、模倣攻撃も機械学習で検出できる。
本稿では,未使用の機能と時間認識の深層学習戦略を組み合わせることで,高い分類精度を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-27T07:26:10Z) - Rethinking the Threat and Accessibility of Adversarial Attacks against Face Recognition Systems [13.830575255066773]
顔認識パイプラインは、信頼、公平、責任あるAIアプリケーションにおいてミッションクリティカルなシステムに広くデプロイされている。
敵の攻撃の出現は、認識パイプライン全体のセキュリティを脅かしている。
我々は,ブラックボックスの顔認識パイプラインに対して,AdvColorという,効果的かつ容易に起動可能な物理的敵攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-11T13:58:09Z) - Principles of Designing Robust Remote Face Anti-Spoofing Systems [60.05766968805833]
本稿では,デジタル攻撃に対する最先端の対面防止手法の脆弱性に光を当てる。
反偽造システムに遭遇する一般的な脅威を包括的に分類する。
論文 参考訳(メタデータ) (2024-06-06T02:05:35Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Imperceptible Physical Attack against Face Recognition Systems via LED
Illumination Modulation [3.6939170447261835]
本稿では,顔検出のためのDoS攻撃と,顔認証のためのDodging攻撃を提案する。
顔検出モデルに対するDoS攻撃の成功率は97.67%、100%、100%に達し、顔認証モデルに対するDoS攻撃の成功率は100%に達した。
論文 参考訳(メタデータ) (2023-07-25T07:20:21Z) - State-of-the-art optical-based physical adversarial attacks for deep
learning computer vision systems [3.3470481105928216]
敵対的攻撃は、人間の目には認識できない最初の入力に小さな摂動を埋め込むことで、深層学習モデルを誤認し、誤った予測をする可能性がある。
物理的敵対攻撃は、より現実的なもので、摂動が入力に導入され、キャプチャされてバイナリ画像に変換される。
本稿では,コンピュータビジョンシステムのための光学的物理対向攻撃技術に焦点を当てる。
論文 参考訳(メタデータ) (2023-03-22T01:14:52Z) - Face Presentation Attack Detection [59.05779913403134]
顔認識技術は、チェックインやモバイル支払いといった日々の対話的アプリケーションで広く利用されている。
しかしながら、プレゼンテーションアタック(PA)に対する脆弱性は、超セキュアなアプリケーションシナリオにおける信頼性の高い使用を制限する。
論文 参考訳(メタデータ) (2022-12-07T14:51:17Z) - Is Face Recognition Safe from Realizable Attacks? [1.7214499647717132]
顔認識は生体認証の一般的な形態であり、広く使われているため、攻撃も一般的になっている。
近年の研究では、顔認識システムは攻撃に弱いことが示されており、顔の誤識別につながる可能性がある。
攻撃者は、微妙な摂動でリアルな合成顔画像を生成し、それを顔に物理的に認識し、ブラックボックスの顔認識システムに攻撃できる攻撃方式を提案する。
論文 参考訳(メタデータ) (2022-10-15T03:52:53Z) - RSTAM: An Effective Black-Box Impersonation Attack on Face Recognition
using a Mobile and Compact Printer [10.245536402327096]
RSTAMと呼ばれる顔認識モデルやシステムを攻撃する新しい手法を提案する。
RSTAMは、モバイルおよびコンパクトプリンタによって印刷された対向マスクを用いて、効果的なブラックボックス偽造攻撃を可能にする。
攻撃のパフォーマンスは、Face++、Baidu、Aliyun、Tencent、Microsoftといった最先端の商用顔認識システムでも評価されている。
論文 参考訳(メタデータ) (2022-06-25T08:16:55Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Real-World Adversarial Examples involving Makeup Application [58.731070632586594]
フルフェイスメイクを用いた身体的敵攻撃を提案する。
我々の攻撃は、色や位置関連エラーなどのメークアップアプリケーションにおける手動エラーを効果的に克服できる。
論文 参考訳(メタデータ) (2021-09-04T05:29:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。