論文の概要: Device-aware Optical Adversarial Attack for a Portable Projector-camera System
- arxiv url: http://arxiv.org/abs/2501.14005v1
- Date: Thu, 23 Jan 2025 13:55:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-27 14:58:11.949778
- Title: Device-aware Optical Adversarial Attack for a Portable Projector-camera System
- Title(参考訳): 携帯型プロジェクタカメラシステムのためのデバイス対応光対向攻撃
- Authors: Ning Jiang, Yanhong Liu, Dingheng Zeng, Yue Feng, Weihong Deng, Ying Li,
- Abstract要約: ディープラーニングに基づく顔認識システムは、デジタルドメインと物理ドメインの両方の敵の例に影響を受けやすい。
本稿では,既存のプロジェクタカメラによる対向光攻撃の限界に対処する。
デバイス認識適応をデジタルアタックアルゴリズムに組み込むことで、デジタルドメインから物理ドメインへの劣化を軽減する。
- 参考スコア(独自算出の注目度): 45.58483539606022
- License:
- Abstract: Deep-learning-based face recognition (FR) systems are susceptible to adversarial examples in both digital and physical domains. Physical attacks present a greater threat to deployed systems as adversaries can easily access the input channel, allowing them to provide malicious inputs to impersonate a victim. This paper addresses the limitations of existing projector-camera-based adversarial light attacks in practical FR setups. By incorporating device-aware adaptations into the digital attack algorithm, such as resolution-aware and color-aware adjustments, we mitigate the degradation from digital to physical domains. Experimental validation showcases the efficacy of our proposed algorithm against real and spoof adversaries, achieving high physical similarity scores in FR models and state-of-the-art commercial systems. On average, there is only a 14% reduction in scores from digital to physical attacks, with high attack success rate in both white- and black-box scenarios.
- Abstract(参考訳): 深層学習に基づく顔認識(FR)システムは、デジタルドメインと物理ドメインの両方の敵の例に影響を受けやすい。
物理的攻撃は、敵が容易に入力チャネルにアクセスでき、悪意のある入力を提供することで被害者を偽装することができるため、配備されたシステムに対する脅威が大きい。
本稿では,既存のプロジェクタカメラによる対向光攻撃の限界に対処する。
デバイス認識適応を解像度認識や色認識調整などのデジタルアタックアルゴリズムに組み込むことで、デジタルドメインから物理ドメインへの劣化を緩和する。
実験による検証では,提案アルゴリズムの有効性が実証され,FRモデルや最先端の商用システムにおいて,高い物理類似性スコアが得られた。
平均すると、デジタル攻撃から物理的攻撃までのスコアは14%しか減少せず、ホワイトボックスとブラックボックスの両方のシナリオで攻撃の成功率が高い。
関連論文リスト
- Principles of Designing Robust Remote Face Anti-Spoofing Systems [60.05766968805833]
本稿では,デジタル攻撃に対する最先端の対面防止手法の脆弱性に光を当てる。
反偽造システムに遭遇する一般的な脅威を包括的に分類する。
論文 参考訳(メタデータ) (2024-06-06T02:05:35Z) - AdvGen: Physical Adversarial Attack on Face Presentation Attack
Detection Systems [17.03646903905082]
敵対的攻撃が注目を集めており、認識システムの学習戦略をデジタルで欺こうとしている。
本稿では,物理世界のシナリオにおいて,顔認証システムの逆画像に対する脆弱性を実証する。
本稿では,自動生成支援ネットワークであるAdvGenを提案し,印刷・再生攻撃をシミュレートし,最先端のPADを騙すことのできる逆画像を生成する。
論文 参考訳(メタデータ) (2023-11-20T13:28:42Z) - Why Don't You Clean Your Glasses? Perception Attacks with Dynamic
Optical Perturbations [17.761200546223442]
敵の攻撃を物理的世界に適応させることが、攻撃者にとって望ましい。
EvilEyeは、ディスプレイを透過的に利用し、ダイナミックな物理的逆転の例を生成する、中間者認識攻撃である。
論文 参考訳(メタデータ) (2023-07-24T21:16:38Z) - Towards Effective Adversarial Textured 3D Meshes on Physical Face
Recognition [42.60954035488262]
本研究の目的は、商業システムに対する対角的堅牢性の評価をエンドツーエンドで行うことのできる、より信頼性の高い技術を開発することである。
我々は、人間の顔に精巧なトポロジーを持つ、敵のテクスチャ化された3Dメッシュ(AT3D)を設計し、攻撃者の顔に3Dプリントして貼り付けることで、防御を回避する。
メッシュベースの空間から逸脱するために,3次元形態モデルに基づく低次元係数空間の摂動を提案する。
論文 参考訳(メタデータ) (2023-03-28T08:42:54Z) - State-of-the-art optical-based physical adversarial attacks for deep
learning computer vision systems [3.3470481105928216]
敵対的攻撃は、人間の目には認識できない最初の入力に小さな摂動を埋め込むことで、深層学習モデルを誤認し、誤った予測をする可能性がある。
物理的敵対攻撃は、より現実的なもので、摂動が入力に導入され、キャプチャされてバイナリ画像に変換される。
本稿では,コンピュータビジョンシステムのための光学的物理対向攻撃技術に焦点を当てる。
論文 参考訳(メタデータ) (2023-03-22T01:14:52Z) - Face Presentation Attack Detection [59.05779913403134]
顔認識技術は、チェックインやモバイル支払いといった日々の対話的アプリケーションで広く利用されている。
しかしながら、プレゼンテーションアタック(PA)に対する脆弱性は、超セキュアなアプリケーションシナリオにおける信頼性の高い使用を制限する。
論文 参考訳(メタデータ) (2022-12-07T14:51:17Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - Robust Attacks on Deep Learning Face Recognition in the Physical World [48.909604306342544]
FaceAdvは、敵のステッカーを使ってFRシステムを騙す物理世界の攻撃だ。
主にステッカージェネレータとトランスフォーマーで構成され、前者は異なる形状のステッカーを作れる。
3種類のFRシステムに対するFaceAdvの有効性を評価するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2020-11-27T02:24:43Z) - Adversarial Light Projection Attacks on Face Recognition Systems: A
Feasibility Study [21.42041262836322]
対向光投射を用いた顔認識システムに対するリアルタイム物理攻撃の実現可能性について検討する。
敵は、相手に利用可能なターゲットの1つ以上の画像を用いて、デジタル敵パターンを生成する。
デジタル対向パターンは、物理的領域の敵の顔に投影され、ターゲット(偽装)を偽装するか、認識(難読化)を避ける。
論文 参考訳(メタデータ) (2020-03-24T23:06:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。