論文の概要: Adversarial Light Projection Attacks on Face Recognition Systems: A
Feasibility Study
- arxiv url: http://arxiv.org/abs/2003.11145v2
- Date: Fri, 17 Apr 2020 00:44:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 09:00:19.879990
- Title: Adversarial Light Projection Attacks on Face Recognition Systems: A
Feasibility Study
- Title(参考訳): 顔認識システムにおける逆光射影攻撃:実現可能性の検討
- Authors: Dinh-Luan Nguyen and Sunpreet S. Arora and Yuhang Wu and Hao Yang
- Abstract要約: 対向光投射を用いた顔認識システムに対するリアルタイム物理攻撃の実現可能性について検討する。
敵は、相手に利用可能なターゲットの1つ以上の画像を用いて、デジタル敵パターンを生成する。
デジタル対向パターンは、物理的領域の敵の顔に投影され、ターゲット(偽装)を偽装するか、認識(難読化)を避ける。
- 参考スコア(独自算出の注目度): 21.42041262836322
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based systems have been shown to be vulnerable to adversarial
attacks in both digital and physical domains. While feasible, digital attacks
have limited applicability in attacking deployed systems, including face
recognition systems, where an adversary typically has access to the input and
not the transmission channel. In such setting, physical attacks that directly
provide a malicious input through the input channel pose a bigger threat. We
investigate the feasibility of conducting real-time physical attacks on face
recognition systems using adversarial light projections. A setup comprising a
commercially available web camera and a projector is used to conduct the
attack. The adversary uses a transformation-invariant adversarial pattern
generation method to generate a digital adversarial pattern using one or more
images of the target available to the adversary. The digital adversarial
pattern is then projected onto the adversary's face in the physical domain to
either impersonate a target (impersonation) or evade recognition (obfuscation).
We conduct preliminary experiments using two open-source and one commercial
face recognition system on a pool of 50 subjects. Our experimental results
demonstrate the vulnerability of face recognition systems to light projection
attacks in both white-box and black-box attack settings.
- Abstract(参考訳): ディープラーニングベースのシステムは、デジタルドメインと物理ドメインの両方の敵攻撃に対して脆弱であることが示されている。
実現可能ではあるが、デジタル攻撃は、顔認証システムを含む、配備されたシステムを攻撃する場合に限定的な適用性を持つ。
このような設定では、入力チャネルから直接悪意のある入力を提供する物理的な攻撃は、より大きな脅威を引き起こす。
対向光投射を用いた顔認識システムに対するリアルタイム物理攻撃の実現可能性について検討する。
市販のウェブカメラとプロジェクタからなるセットアップを使用して攻撃を行う。
変換不変な対向パターン生成法を用いて、敵に利用可能なターゲットの1つ以上の画像を用いて、デジタル対向パターンを生成する。
デジタル対向パターンは、物理的ドメインの敵の顔に投影され、ターゲット(偽装)を偽装するか、認識を回避(難読化)する。
2つのオープンソースと1つの商用顔認識システムを用いて,50人の被験者を対象に予備実験を行った。
実験の結果,ホワイトボックスおよびブラックボックスの攻撃設定において,光投射攻撃に対する顔認識システムの脆弱性が示された。
関連論文リスト
- Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Imperceptible Physical Attack against Face Recognition Systems via LED
Illumination Modulation [3.6939170447261835]
本稿では,顔検出のためのDoS攻撃と,顔認証のためのDodging攻撃を提案する。
顔検出モデルに対するDoS攻撃の成功率は97.67%、100%、100%に達し、顔認証モデルに対するDoS攻撃の成功率は100%に達した。
論文 参考訳(メタデータ) (2023-07-25T07:20:21Z) - State-of-the-art optical-based physical adversarial attacks for deep
learning computer vision systems [3.3470481105928216]
敵対的攻撃は、人間の目には認識できない最初の入力に小さな摂動を埋め込むことで、深層学習モデルを誤認し、誤った予測をする可能性がある。
物理的敵対攻撃は、より現実的なもので、摂動が入力に導入され、キャプチャされてバイナリ画像に変換される。
本稿では,コンピュータビジョンシステムのための光学的物理対向攻撃技術に焦点を当てる。
論文 参考訳(メタデータ) (2023-03-22T01:14:52Z) - Face Presentation Attack Detection [59.05779913403134]
顔認識技術は、チェックインやモバイル支払いといった日々の対話的アプリケーションで広く利用されている。
しかしながら、プレゼンテーションアタック(PA)に対する脆弱性は、超セキュアなアプリケーションシナリオにおける信頼性の高い使用を制限する。
論文 参考訳(メタデータ) (2022-12-07T14:51:17Z) - Is Face Recognition Safe from Realizable Attacks? [1.7214499647717132]
顔認識は生体認証の一般的な形態であり、広く使われているため、攻撃も一般的になっている。
近年の研究では、顔認識システムは攻撃に弱いことが示されており、顔の誤識別につながる可能性がある。
攻撃者は、微妙な摂動でリアルな合成顔画像を生成し、それを顔に物理的に認識し、ブラックボックスの顔認識システムに攻撃できる攻撃方式を提案する。
論文 参考訳(メタデータ) (2022-10-15T03:52:53Z) - RSTAM: An Effective Black-Box Impersonation Attack on Face Recognition
using a Mobile and Compact Printer [10.245536402327096]
RSTAMと呼ばれる顔認識モデルやシステムを攻撃する新しい手法を提案する。
RSTAMは、モバイルおよびコンパクトプリンタによって印刷された対向マスクを用いて、効果的なブラックボックス偽造攻撃を可能にする。
攻撃のパフォーマンスは、Face++、Baidu、Aliyun、Tencent、Microsoftといった最先端の商用顔認識システムでも評価されている。
論文 参考訳(メタデータ) (2022-06-25T08:16:55Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - Differential Anomaly Detection for Facial Images [15.54185745912878]
アイデンティティ攻撃は、不正アクセスと偽情報の拡散に使用できるため、セキュリティ上の大きな脅威となる。
同一性攻撃を検出するほとんどのアルゴリズムは、訓練時に未知の攻撃タイプに悪影響を及ぼす。
本稿では,まず画像から深層面の埋め込みを抽出する差動異常検出フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-07T13:45:13Z) - Real-World Adversarial Examples involving Makeup Application [58.731070632586594]
フルフェイスメイクを用いた身体的敵攻撃を提案する。
我々の攻撃は、色や位置関連エラーなどのメークアップアプリケーションにおける手動エラーを効果的に克服できる。
論文 参考訳(メタデータ) (2021-09-04T05:29:28Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。