論文の概要: Physical Adversarial Attacks For Camera-based Smart Systems: Current
Trends, Categorization, Applications, Research Challenges, and Future Outlook
- arxiv url: http://arxiv.org/abs/2308.06173v1
- Date: Fri, 11 Aug 2023 15:02:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 13:45:57.399420
- Title: Physical Adversarial Attacks For Camera-based Smart Systems: Current
Trends, Categorization, Applications, Research Challenges, and Future Outlook
- Title(参考訳): カメラ型スマートシステムにおける物理的敵意攻撃の現状, 分類, 応用, 研究課題, 今後の展望
- Authors: Amira Guesmi, Muhammad Abdullah Hanif, Bassem Ouni, and Muhammed
Shafique
- Abstract要約: 本研究の目的は,身体的敵意攻撃の概念を深く理解し,その特徴を分析し,特徴を識別することである。
本稿では, 対象タスクに応じて異なるアプリケーションで分類した, 様々な物理的敵攻撃手法について検討する。
本研究は,これらの攻撃手法の有効性,ステルス性,ロバスト性の観点から評価する。
- 参考スコア(独自算出の注目度): 2.1771693754641013
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a comprehensive survey of the current trends
focusing specifically on physical adversarial attacks. We aim to provide a
thorough understanding of the concept of physical adversarial attacks,
analyzing their key characteristics and distinguishing features. Furthermore,
we explore the specific requirements and challenges associated with executing
attacks in the physical world. Our article delves into various physical
adversarial attack methods, categorized according to their target tasks in
different applications, including classification, detection, face recognition,
semantic segmentation and depth estimation. We assess the performance of these
attack methods in terms of their effectiveness, stealthiness, and robustness.
We examine how each technique strives to ensure the successful manipulation of
DNNs while mitigating the risk of detection and withstanding real-world
distortions. Lastly, we discuss the current challenges and outline potential
future research directions in the field of physical adversarial attacks. We
highlight the need for enhanced defense mechanisms, the exploration of novel
attack strategies, the evaluation of attacks in different application domains,
and the establishment of standardized benchmarks and evaluation criteria for
physical adversarial attacks. Through this comprehensive survey, we aim to
provide a valuable resource for researchers, practitioners, and policymakers to
gain a holistic understanding of physical adversarial attacks in computer
vision and facilitate the development of robust and secure DNN-based systems.
- Abstract(参考訳): 本稿では,身体的敵意攻撃に焦点をあてた最近の傾向を包括的に調査する。
我々は,身体的敵意攻撃の概念を深く理解し,その特徴を分析し,特徴を識別することを目的としている。
さらに,物理世界における攻撃の実行に関する具体的な要件と課題についても検討する。
本論文は,分類,検出,顔認識,セマンティックセグメンテーション,深度推定など,様々な用途において,対象タスクに応じて分類された様々な物理的敵攻撃手法について述べる。
我々は,これらの攻撃手法の性能を,その有効性,ステルス性,堅牢性の観点から評価する。
実世界の歪みを抑えつつ,検出のリスクを軽減しつつ,DNNの操作を確実にする手法について検討する。
最後に,現在の課題を議論し,物理的敵攻撃の分野における今後の研究の方向性を概説する。
本稿では,強化された防御機構の必要性,新たな攻撃戦略の探求,異なるアプリケーションドメインにおける攻撃評価,物理的敵攻撃に対する標準ベンチマークと評価基準の確立について注目する。
この包括的調査を通じて,我々は研究者,実践者,政策立案者に対して,コンピュータビジョンにおける物理的敵意攻撃を総合的に理解し,堅牢でセキュアなdnnベースのシステムの開発を促進するための貴重な資源を提供することを目標としている。
関連論文リスト
- A Survey on Physical Adversarial Attacks against Face Recognition Systems [12.056482296260095]
顔認識技術は、金融、軍事、公共安全、日常生活でますます普及している。
FRシステムを現実の環境でターゲットとする物理的敵対攻撃は、かなりの研究関心を集めている。
論文 参考訳(メタデータ) (2024-10-10T06:21:44Z) - A Survey and Evaluation of Adversarial Attacks for Object Detection [11.48212060875543]
ディープラーニングモデルは、様々なコンピュータビジョンタスクにおいて優れているが、誤った予測につながる入力データの逆例-サブトル摂動の影響を受けやすい。
この脆弱性は、自動運転車、セキュリティ監視、航空機の健康監視など、安全に重要なアプリケーションに重大なリスクをもたらす。
論文 参考訳(メタデータ) (2024-08-04T05:22:08Z) - Attention-Based Real-Time Defenses for Physical Adversarial Attacks in
Vision Applications [58.06882713631082]
ディープニューラルネットワークはコンピュータビジョンタスクにおいて優れたパフォーマンスを示すが、現実の敵攻撃に対する脆弱性は深刻なセキュリティ上の懸念を引き起こす。
本稿では、敵チャネルの注意力を利用して、浅いネットワーク層における悪意のある物体を素早く識別・追跡する、効果的な注意に基づく防御機構を提案する。
また、効率的な多フレーム防御フレームワークを導入し、防御性能と計算コストの両方を評価することを目的とした広範な実験を通じて、その有効性を検証した。
論文 参考訳(メタデータ) (2023-11-19T00:47:17Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Physical Adversarial Attacks for Surveillance: A Survey [40.81031907691243]
本稿では,監視アプリケーションに対する身体的敵攻撃の学習と設計における最近の試みと成果を概観する。
特に,身体的敵攻撃を解析するための枠組みを提案し,4つの主要な監視課題に対する身体的敵攻撃を包括的に調査する。
本稿では,物理的な攻撃に対する監視システム内でのレジリエンスを構築するための重要なステップについて述べる。
論文 参考訳(メタデータ) (2023-05-01T20:19:59Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [55.38113802311365]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - Robust Physical-World Attacks on Face Recognition [52.403564953848544]
ディープニューラルネットワーク(DNN)の開発によって顔認識が大幅に促進された
近年の研究では、DNNは敵対的な事例に対して非常に脆弱であることが示されており、現実世界の顔認識の安全性に対する深刻な懸念が提起されている。
ステッカーによる顔認識の物理的攻撃について検討し、その対向的堅牢性をよりよく理解する。
論文 参考訳(メタデータ) (2021-09-20T06:49:52Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。