論文の概要: Anomaly Unveiled: Securing Image Classification against Adversarial
Patch Attacks
- arxiv url: http://arxiv.org/abs/2402.06249v1
- Date: Fri, 9 Feb 2024 08:52:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-12 17:42:14.244941
- Title: Anomaly Unveiled: Securing Image Classification against Adversarial
Patch Attacks
- Title(参考訳): Anomaly Unveiled: 敵対的パッチ攻撃に対する画像分類のセキュア化
- Authors: Nandish Chattopadhyay, Amira Guesmi, and Muhammad Shafique
- Abstract要約: 敵対的パッチ攻撃は、ディープラーニングシステムの実践的な展開に重大な脅威をもたらす。
本稿では,画像情報の分布における逆パッチの異常としての挙動について検討する。
提案する防御機構は,DBSCANと呼ばれるクラスタリング技術を用いて,異常な画像セグメントを分離する。
- 参考スコア(独自算出の注目度): 3.6275442368775512
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial patch attacks pose a significant threat to the practical
deployment of deep learning systems. However, existing research primarily
focuses on image pre-processing defenses, which often result in reduced
classification accuracy for clean images and fail to effectively counter
physically feasible attacks. In this paper, we investigate the behavior of
adversarial patches as anomalies within the distribution of image information
and leverage this insight to develop a robust defense strategy. Our proposed
defense mechanism utilizes a clustering-based technique called DBSCAN to
isolate anomalous image segments, which is carried out by a three-stage
pipeline consisting of Segmenting, Isolating, and Blocking phases to identify
and mitigate adversarial noise. Upon identifying adversarial components, we
neutralize them by replacing them with the mean pixel value, surpassing
alternative replacement options. Our model-agnostic defense mechanism is
evaluated across multiple models and datasets, demonstrating its effectiveness
in countering various adversarial patch attacks in image classification tasks.
Our proposed approach significantly improves accuracy, increasing from 38.8\%
without the defense to 67.1\% with the defense against LaVAN and GoogleAp
attacks, surpassing prominent state-of-the-art methods such as LGS (53.86\%)
and Jujutsu (60\%)
- Abstract(参考訳): 敵対的パッチ攻撃は、ディープラーニングシステムの実践的な展開に重大な脅威をもたらす。
しかし、既存の研究は主に画像前処理の防御に焦点を当てており、クリーンな画像の分類精度が低下し、物理的に可能な攻撃に効果的に対応できないことがしばしばある。
本稿では,画像情報の分布の異常としての敵パッチの挙動を調査し,この知見を活用して堅牢な防衛戦略を開発する。
提案する防御機構は,DBSCANと呼ばれるクラスタリング技術を用いて異常な画像セグメントを分離し,Segmenting,Isolating,Blockingの3段階のパイプラインを用いて対向雑音を識別・緩和する。
敵のコンポーネントを識別すると、それらを平均ピクセル値に置き換え、代替オプションを上回って中和します。
モデル非依存の防御機構は,複数のモデルとデータセットで評価され,画像分類タスクにおける様々な敵パッチ攻撃に対する対策としての有効性を示す。
提案手法は,防衛を伴わない38.8\%から,LaVANやGoogleAp攻撃に対する防御で67.1\%に増加し,LGS (53.86\%) や柔術 (60\%) といった最先端の手法を上回り,精度を著しく向上させる。
関連論文リスト
- MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - DefensiveDR: Defending against Adversarial Patches using Dimensionality Reduction [4.4100683691177816]
アドリラルパッチベースの攻撃は、マシンラーニングモデルの使用に対する大きな抑止力であることが示されている。
我々は、このようなパッチベースの攻撃を阻止するために次元削減技術を用いた実用的メカニズムであるtextitDefensiveDRを提案する。
論文 参考訳(メタデータ) (2023-11-20T22:01:31Z) - ODDR: Outlier Detection & Dimension Reduction Based Defense Against
Adversarial Patches [4.672978217020929]
敵対的攻撃は、機械学習モデルの信頼性使用に対する大きな抑止力である。
本稿では,パッチベースの敵攻撃を効果的に軽減するための総合防御機構である,アウトリア検出・次元削減(ODDR)を導入する。
ODDRはフラグメンテーション、分離、中立化という3段階のパイプラインを採用しており、画像分類とオブジェクト検出の両方に適用されるモデルに依存しないソリューションを提供する。
論文 参考訳(メタデータ) (2023-11-20T11:08:06Z) - Uncertainty-based Detection of Adversarial Attacks in Semantic
Segmentation [16.109860499330562]
本稿では,セマンティックセグメンテーションにおける敵攻撃検出のための不確実性に基づくアプローチを提案する。
本研究は,複数種類の敵対的攻撃を対象とする摂動画像の検出能力を示す。
論文 参考訳(メタデータ) (2023-05-22T08:36:35Z) - Diffusion Models for Adversarial Purification [69.1882221038846]
対人浄化(Adrial purification)とは、生成モデルを用いて敵の摂動を除去する防衛方法の分類である。
そこで我々は,拡散モデルを用いたDiffPureを提案する。
提案手法は,現在の対人訓練および対人浄化方法よりも優れ,最先端の成果を達成する。
論文 参考訳(メタデータ) (2022-05-16T06:03:00Z) - ScaleCert: Scalable Certified Defense against Adversarial Patches with
Sparse Superficial Layers [29.658969173796645]
本稿では,高解像度画像に対して高い堅牢性を実現するための認証された防御手法を提案する。
我々は、SINベースの圧縮技術を利用して、認証精度を大幅に向上する。
実験の結果,ImageNetデータセットの精度は36.3%から60.4%に向上した。
論文 参考訳(メタデータ) (2021-10-27T02:05:00Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Detecting Patch Adversarial Attacks with Image Residuals [9.169947558498535]
識別器は、クリーンサンプルと逆サンプルを区別するために訓練される。
得られた残基が敵攻撃のデジタル指紋として機能することを示す。
その結果,提案手法は従来見つからなかった,より強力な攻撃に対して一般化可能であることがわかった。
論文 参考訳(メタデータ) (2020-02-28T01:28:22Z) - (De)Randomized Smoothing for Certifiable Defense against Patch Attacks [136.79415677706612]
我々は、所定の画像とパッチ攻撃サイズを保証する、パッチ攻撃に対する認証可能な防御を導入する。
本手法はランダム化スムースなロバスト性スキームの幅広いクラスに関係している。
その結果,CIFAR-10およびImageNetに対するパッチ攻撃に対する認証済みの防御技術が確立した。
論文 参考訳(メタデータ) (2020-02-25T08:39:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。