論文の概要: A Survey on Physical Adversarial Attacks against Face Recognition Systems
- arxiv url: http://arxiv.org/abs/2410.16317v1
- Date: Thu, 10 Oct 2024 06:21:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-27 05:11:59.570256
- Title: A Survey on Physical Adversarial Attacks against Face Recognition Systems
- Title(参考訳): 顔認証システムに対する身体的対立攻撃に関する調査
- Authors: Mingsi Wang, Jiachen Zhou, Tianlin Li, Guozhu Meng, Kai Chen,
- Abstract要約: 顔認識技術は、金融、軍事、公共安全、日常生活でますます普及している。
FRシステムを現実の環境でターゲットとする物理的敵対攻撃は、かなりの研究関心を集めている。
- 参考スコア(独自算出の注目度): 12.056482296260095
- License:
- Abstract: As Face Recognition (FR) technology becomes increasingly prevalent in finance, the military, public safety, and everyday life, security concerns have grown substantially. Physical adversarial attacks targeting FR systems in real-world settings have attracted considerable research interest due to their practicality and the severe threats they pose. However, a systematic overview focused on physical adversarial attacks against FR systems is still lacking, hindering an in-depth exploration of the challenges and future directions in this field. In this paper, we bridge this gap by comprehensively collecting and analyzing physical adversarial attack methods targeting FR systems. Specifically, we first investigate the key challenges of physical attacks on FR systems. We then categorize existing physical attacks into three categories based on the physical medium used and summarize how the research in each category has evolved to address these challenges. Furthermore, we review current defense strategies and discuss potential future research directions. Our goal is to provide a fresh, comprehensive, and deep understanding of physical adversarial attacks against FR systems, thereby inspiring relevant research in this area.
- Abstract(参考訳): 金融、軍事、公共安全、日常生活において、顔認証(FR)技術がますます普及するにつれて、セキュリティ上の懸念が大きくなっている。
FRシステムを現実の環境でターゲットとする物理的敵対攻撃は、その実用性とそれらが引き起こす深刻な脅威のために、かなりの研究関心を集めている。
しかし、FRシステムに対する物理的敵攻撃に焦点をあてた体系的な概要は、この分野における課題と今後の方向性の詳細な調査を妨げる、まだ不足している。
本稿では,FRシステムを対象とした物理的敵攻撃手法を包括的に収集し,解析することにより,このギャップを埋める。
具体的には、まず、FRシステムに対する物理的攻撃の鍵となる課題について検討する。
次に、既存の物理的攻撃を、使用する物理媒体に基づいて3つのカテゴリに分類し、これらの課題に対処するために各カテゴリの研究がどのように発展したかを要約する。
さらに,現在の防衛戦略を概観し,今後の研究の方向性について考察する。
我々のゴールは、FRシステムに対する物理的な敵攻撃を新しく、包括的で深く理解することであり、それによってこの分野における関連する研究を刺激することである。
関連論文リスト
- Navigating Threats: A Survey of Physical Adversarial Attacks on LiDAR Perception Systems in Autonomous Vehicles [4.4538254463902645]
LiDARシステムは敵の攻撃に弱いため、自動運転車の安全性と堅牢性に大きな課題が生じる。
本調査では,LiDARに基づく知覚システムを対象とした身体的敵攻撃に関する研究状況について概説する。
我々は、LiDARベースのシステムに対する既存の攻撃において、重要な課題を特定し、ギャップを浮き彫りにする。
論文 参考訳(メタデータ) (2024-09-30T15:50:36Z) - Attack Atlas: A Practitioner's Perspective on Challenges and Pitfalls in Red Teaming GenAI [52.138044013005]
生成AI、特に大規模言語モデル(LLM)は、製品アプリケーションにますます統合される。
新たな攻撃面と脆弱性が出現し、自然言語やマルチモーダルシステムにおける敵の脅威に焦点を当てる。
レッドチーム(英語版)はこれらのシステムの弱点を積極的に識別する上で重要となり、ブルーチーム(英語版)はそのような敵の攻撃から保護する。
この研究は、生成AIシステムの保護のための学術的な洞察と実践的なセキュリティ対策のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-09-23T10:18:10Z) - Rethinking the Vulnerabilities of Face Recognition Systems:From a Practical Perspective [53.24281798458074]
顔認識システム(FRS)は、監視やユーザー認証を含む重要なアプリケーションにますます統合されている。
最近の研究によると、FRSの脆弱性は敵(例えば、敵パッチ攻撃)やバックドア攻撃(例えば、データ中毒の訓練)であることが明らかになっている。
論文 参考訳(メタデータ) (2024-05-21T13:34:23Z) - Physical Adversarial Attacks For Camera-based Smart Systems: Current
Trends, Categorization, Applications, Research Challenges, and Future Outlook [2.1771693754641013]
本研究の目的は,身体的敵意攻撃の概念を深く理解し,その特徴を分析し,特徴を識別することである。
本稿では, 対象タスクに応じて異なるアプリケーションで分類した, 様々な物理的敵攻撃手法について検討する。
本研究は,これらの攻撃手法の有効性,ステルス性,ロバスト性の観点から評価する。
論文 参考訳(メタデータ) (2023-08-11T15:02:19Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [57.46379460600939]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - Adversarial Attacks against Face Recognition: A Comprehensive Study [3.766020696203255]
顔認識(FR)システムは優れた検証性能を示した。
近年の研究では、(深い)FRシステムは、知覚できない、または知覚できないが自然に見える対向的な入力画像に興味深い脆弱性を示すことが示されている。
論文 参考訳(メタデータ) (2020-07-22T22:46:00Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。