論文の概要: A Survey of Adversarial Defenses in Vision-based Systems: Categorization, Methods and Challenges
- arxiv url: http://arxiv.org/abs/2503.00384v1
- Date: Sat, 01 Mar 2025 07:17:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:24:23.472863
- Title: A Survey of Adversarial Defenses in Vision-based Systems: Categorization, Methods and Challenges
- Title(参考訳): ビジョンベースシステムにおける敵防衛に関する調査--分類・方法・課題
- Authors: Nandish Chattopadhyay, Abdul Basit, Bassem Ouni, Muhammad Shafique,
- Abstract要約: 敵対的攻撃は、マシンラーニングモデルの信頼できるデプロイに対する大きな課題として現れている。
本稿では,2つの重要なコンピュータビジョンタスクに焦点をあて,敵防衛に関する知識の包括的体系化について述べる。
これらの防御を、最も効果的である敵攻撃やデータセットの種類にマップする。
- 参考スコア(独自算出の注目度): 4.716918459551686
- License:
- Abstract: Adversarial attacks have emerged as a major challenge to the trustworthy deployment of machine learning models, particularly in computer vision applications. These attacks have a varied level of potency and can be implemented in both white box and black box approaches. Practical attacks include methods to manipulate the physical world and enforce adversarial behaviour by the corresponding target neural network models. Multiple different approaches to mitigate different kinds of such attacks are available in the literature, each with their own advantages and limitations. In this survey, we present a comprehensive systematization of knowledge on adversarial defenses, focusing on two key computer vision tasks: image classification and object detection. We review the state-of-the-art adversarial defense techniques and categorize them for easier comparison. In addition, we provide a schematic representation of these categories within the context of the overall machine learning pipeline, facilitating clearer understanding and benchmarking of defenses. Furthermore, we map these defenses to the types of adversarial attacks and datasets where they are most effective, offering practical insights for researchers and practitioners. This study is necessary for understanding the scope of how the available defenses are able to address the adversarial threats, and their shortcomings as well, which is necessary for driving the research in this area in the most appropriate direction, with the aim of building trustworthy AI systems for regular practical use-cases.
- Abstract(参考訳): 敵対的攻撃は、特にコンピュータビジョンアプリケーションにおいて、マシンラーニングモデルの信頼できるデプロイに対する大きな課題として現れている。
これらの攻撃は様々なレベルの有効性を持ち、ホワイトボックスとブラックボックスのアプローチの両方で実装できる。
実際の攻撃には、物理世界を操作し、対応するターゲットニューラルネットワークモデルによる敵の行動を実行する方法が含まれる。
さまざまな種類の攻撃を緩和するための複数の異なるアプローチが文献で利用可能であり、それぞれに独自の利点と制限がある。
本稿では、画像分類と物体検出という2つの重要なコンピュータビジョンタスクに焦点を当て、敵防衛に関する知識の包括的体系化について述べる。
本稿では,現状の敵防衛技術について概観し,比較し易いように分類する。
さらに、機械学習パイプライン全体のコンテキスト内でこれらのカテゴリのスキーマ表現を提供し、防御の明確化とベンチマークを容易にする。
さらに、これらの防御を、最も効果的である敵攻撃やデータセットの種類にマッピングし、研究者や実践者に実践的な洞察を提供する。
本研究は、この領域における研究を最も適切な方向に進めるために必要となる敵の脅威と、それらの欠点にどのように対処できるかのスコープを理解するために必要であり、通常の実用的なユースケースのために信頼できるAIシステムを構築することを目的としている。
関連論文リスト
- Adversarial Attacks of Vision Tasks in the Past 10 Years: A Survey [21.4046846701173]
敵対的攻撃は、機械学習推論中に重大なセキュリティ脅威を引き起こす。
既存のレビューは、しばしば攻撃分類に焦点を合わせ、包括的で詳細な分析を欠いている。
本稿は、従来のLVLM攻撃とLVLM攻撃の包括的概要を提供することによって、これらのギャップに対処する。
論文 参考訳(メタデータ) (2024-10-31T07:22:51Z) - Attack Atlas: A Practitioner's Perspective on Challenges and Pitfalls in Red Teaming GenAI [52.138044013005]
生成AI、特に大規模言語モデル(LLM)は、製品アプリケーションにますます統合される。
新たな攻撃面と脆弱性が出現し、自然言語やマルチモーダルシステムにおける敵の脅威に焦点を当てる。
レッドチーム(英語版)はこれらのシステムの弱点を積極的に識別する上で重要となり、ブルーチーム(英語版)はそのような敵の攻撃から保護する。
この研究は、生成AIシステムの保護のための学術的な洞察と実践的なセキュリティ対策のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-09-23T10:18:10Z) - Attention-Based Real-Time Defenses for Physical Adversarial Attacks in
Vision Applications [58.06882713631082]
ディープニューラルネットワークはコンピュータビジョンタスクにおいて優れたパフォーマンスを示すが、現実の敵攻撃に対する脆弱性は深刻なセキュリティ上の懸念を引き起こす。
本稿では、敵チャネルの注意力を利用して、浅いネットワーク層における悪意のある物体を素早く識別・追跡する、効果的な注意に基づく防御機構を提案する。
また、効率的な多フレーム防御フレームワークを導入し、防御性能と計算コストの両方を評価することを目的とした広範な実験を通じて、その有効性を検証した。
論文 参考訳(メタデータ) (2023-11-19T00:47:17Z) - Physical Adversarial Attacks For Camera-based Smart Systems: Current
Trends, Categorization, Applications, Research Challenges, and Future Outlook [2.1771693754641013]
本研究の目的は,身体的敵意攻撃の概念を深く理解し,その特徴を分析し,特徴を識別することである。
本稿では, 対象タスクに応じて異なるアプリケーションで分類した, 様々な物理的敵攻撃手法について検討する。
本研究は,これらの攻撃手法の有効性,ステルス性,ロバスト性の観点から評価する。
論文 参考訳(メタデータ) (2023-08-11T15:02:19Z) - Physical Adversarial Attacks for Surveillance: A Survey [40.81031907691243]
本稿では,監視アプリケーションに対する身体的敵攻撃の学習と設計における最近の試みと成果を概観する。
特に,身体的敵攻撃を解析するための枠組みを提案し,4つの主要な監視課題に対する身体的敵攻撃を包括的に調査する。
本稿では,物理的な攻撃に対する監視システム内でのレジリエンスを構築するための重要なステップについて述べる。
論文 参考訳(メタデータ) (2023-05-01T20:19:59Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [55.38113802311365]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Adversarial Machine Learning for Cybersecurity and Computer Vision:
Current Developments and Challenges [2.132096006921048]
敵対的機械学習の研究は、機械学習技術の幅広い応用に対する重大な脅威に対処する。
まず、主に3つの機械学習テクニックに対する攻撃、すなわち中毒攻撃、回避攻撃、プライバシ攻撃について論じる。
サイバーセキュリティとコンピュータビジョンにおける敵のサンプルは根本的に異なることに気付きます。
論文 参考訳(メタデータ) (2021-06-30T03:05:58Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。