論文の概要: Human-Imperceptible Physical Adversarial Attack for NIR Face Recognition Models
- arxiv url: http://arxiv.org/abs/2504.15823v1
- Date: Tue, 22 Apr 2025 12:10:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 20:38:44.029512
- Title: Human-Imperceptible Physical Adversarial Attack for NIR Face Recognition Models
- Title(参考訳): NIR顔認識モデルに対する非知覚的身体的対立攻撃
- Authors: Songyan Xie, Jinghang Wen, Encheng Su, Qiucheng Yu,
- Abstract要約: 近赤外線(NIR)顔認識システムは、物理的敵攻撃を受けると脆弱性を示す。
我々は、ブラックボックス設定でNIR顔認識システムを攻撃するための、新しい、ステルス的で実用的な敵パッチを設計する。
我々は,NIR光反射をシミュレートし,画素レベルの差を最小限に抑えるために,ヒト皮膚の光反射モデルを開発した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Near-infrared (NIR) face recognition systems, which can operate effectively in low-light conditions or in the presence of makeup, exhibit vulnerabilities when subjected to physical adversarial attacks. To further demonstrate the potential risks in real-world applications, we design a novel, stealthy, and practical adversarial patch to attack NIR face recognition systems in a black-box setting. We achieved this by utilizing human-imperceptible infrared-absorbing ink to generate multiple patches with digitally optimized shapes and positions for infrared images. To address the optimization mismatch between digital and real-world NIR imaging, we develop a light reflection model for human skin to minimize pixel-level discrepancies by simulating NIR light reflection. Compared to state-of-the-art (SOTA) physical attacks on NIR face recognition systems, the experimental results show that our method improves the attack success rate in both digital and physical domains, particularly maintaining effectiveness across various face postures. Notably, the proposed approach outperforms SOTA methods, achieving an average attack success rate of 82.46% in the physical domain across different models, compared to 64.18% for existing methods. The artifact is available at https://anonymous.4open.science/r/Human-imperceptible-adversarial-patch-0703/.
- Abstract(参考訳): 近赤外(NIR)顔認識システムは、低照度条件や化粧の有無で効果的に機能し、物理的攻撃を受けると脆弱性を示す。
実世界のアプリケーションにおける潜在的なリスクをさらに実証するために,ブラックボックス環境でのNIR顔認識システムを攻撃するための,新しい,ステルス的で実用的な敵パッチを設計する。
我々は、人間の知覚できない赤外線吸収インキを利用して、デジタル最適化された形状と位置の複数のパッチを生成する。
デジタルと実世界のNIR画像のミスマッチに対処するため,NIR光反射をシミュレートし,画素レベルの差を最小限に抑えるための光反射モデルを開発した。
NIR顔認識システムに対するSOTA (State-of-the-art) の物理的攻撃と比較して,本手法はデジタル・物理両方の領域における攻撃成功率の向上を図っている。
特に、提案手法はSOTA法よりも優れており、既存手法の64.18%に対して、物理領域における攻撃成功率は82.46%である。
このアーティファクトはhttps://anonymous.4open.science/r/Human-imperceptible-adversarial-patch-0703/で入手できる。
関連論文リスト
- Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - NeRFTAP: Enhancing Transferability of Adversarial Patches on Face
Recognition using Neural Radiance Fields [15.823538329365348]
本稿では、FRモデルへの転送可能性と被害者の顔画像の両方を考慮し、新たな敵攻撃法を提案する。
我々は,敵パッチの転送可能性を高めるために,ソースと対象対象のための新しいビューフェイス画像を生成する。
本研究は, FRシステムの強靭性向上に有用な知見を提供する。
論文 参考訳(メタデータ) (2023-11-29T03:17:14Z) - Unified Adversarial Patch for Visible-Infrared Cross-modal Attacks in
the Physical World [11.24237636482709]
我々は,単一パッチを同時に両モードで回避し,クロスモーダルな物理的攻撃を行える統一逆襲パッチを設計する。
本稿では, 対向パッチのコンパクトかつ滑らかな形状を実現することを目的とした, 境界制限型形状最適化手法を提案する。
提案手法はいくつかの最先端物体検出器に対して評価され,アタック成功率 (ASR) は80%以上である。
論文 参考訳(メタデータ) (2023-07-27T08:14:22Z) - Physically-Based Face Rendering for NIR-VIS Face Recognition [165.54414962403555]
近赤外(NIR)と可視(VIS)の顔マッチングは、大きなドメインギャップのために困難である。
NIR-VIS対顔画像生成のための新しい手法を提案する。
アイデンティティ特徴学習を容易にするために,IDentityに基づく最大平均離散性(ID-MMD)損失を提案する。
論文 参考訳(メタデータ) (2022-11-11T18:48:16Z) - Adversarial Catoptric Light: An Effective, Stealthy and Robust
Physical-World Attack to DNNs [0.0]
本研究では, 自然現象である陰極光を用いて, 対向性摂動を発生させる新しい物理的攻撃, 対向性陰極光(AdvCL)を紹介する。
提案手法は, 有効性, ステルス性, 堅牢性の3つの側面で評価する。
攻撃成功率は83.5%で、ベースラインを超えています。
論文 参考訳(メタデータ) (2022-09-19T12:33:46Z) - Adversarial Color Projection: A Projector-based Physical Attack to DNNs [3.9477796725601872]
逆色投影(AdvCP)と呼ばれるブラックボックスプロジェクタによる物理的攻撃を提案する。
ImageNetのサブセットで97.60%の攻撃成功率を達成する一方、物理的な環境では100%の攻撃成功率を得る。
先進DNNを攻撃した場合, 実験結果から, 攻撃成功率85%以上が得られることが示された。
論文 参考訳(メタデータ) (2022-09-19T12:27:32Z) - Controllable Evaluation and Generation of Physical Adversarial Patch on
Face Recognition [49.42127182149948]
近年の研究では、顔認証モデルの物理的敵パッチに対する脆弱性が明らかにされている。
本稿では3次元顔モデルを用いて物理世界の顔の複雑な変形をシミュレートする。
さらに、3次元顔変換と現実的な物理的変動を考慮したFace3DAdv法を提案する。
論文 参考訳(メタデータ) (2022-03-09T10:21:40Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - Unsupervised Learning Facial Parameter Regressor for Action Unit
Intensity Estimation via Differentiable Renderer [51.926868759681014]
骨駆動型顔モデル(BDFM)に基づいて,異なる視点で顔パラメータを予測する枠組みを提案する。
提案するフレームワークは,特徴抽出器,ジェネレータ,顔パラメータ回帰器から構成される。
論文 参考訳(メタデータ) (2020-08-20T09:49:13Z) - Face Anti-Spoofing by Learning Polarization Cues in a Real-World
Scenario [50.36920272392624]
顔の偽造は生体認証アプリケーションにおけるセキュリティ侵害を防ぐ鍵となる。
RGBと赤外線画像を用いたディープラーニング手法は,新たな攻撃に対する大量のトレーニングデータを必要とする。
本研究では,実顔の偏光画像の物理的特徴を自動的に学習することにより,現実のシナリオにおける顔のアンチ・スプーフィング手法を提案する。
論文 参考訳(メタデータ) (2020-03-18T03:04:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。