論文の概要: ODDR: Outlier Detection & Dimension Reduction Based Defense Against Adversarial Patches
- arxiv url: http://arxiv.org/abs/2311.12084v2
- Date: Tue, 27 Aug 2024 09:55:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-28 20:08:36.294423
- Title: ODDR: Outlier Detection & Dimension Reduction Based Defense Against Adversarial Patches
- Title(参考訳): ODDR: 対側パッチに対する外乱検出・次元削減に基づく防御
- Authors: Nandish Chattopadhyay, Amira Guesmi, Muhammad Abdullah Hanif, Bassem Ouni, Muhammad Shafique,
- Abstract要約: 敵対的攻撃は、機械学習モデルの信頼性の高いデプロイに重大な課題をもたらす。
パッチベースの敵攻撃に対処するための総合的な防御戦略である外乱検出・次元削減(ODDR)を提案する。
提案手法は,逆パッチに対応する入力特徴を外れ値として同定できるという観測に基づいている。
- 参考スコア(独自算出の注目度): 4.4100683691177816
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks present a significant challenge to the dependable deployment of machine learning models, with patch-based attacks being particularly potent. These attacks introduce adversarial perturbations in localized regions of an image, deceiving even well-trained models. In this paper, we propose Outlier Detection and Dimension Reduction (ODDR), a comprehensive defense strategy engineered to counteract patch-based adversarial attacks through advanced statistical methodologies. Our approach is based on the observation that input features corresponding to adversarial patches-whether naturalistic or synthetic-deviate from the intrinsic distribution of the remaining image data and can thus be identified as outliers. ODDR operates through a robust three-stage pipeline: Fragmentation, Segregation, and Neutralization. This model-agnostic framework is versatile, offering protection across various tasks, including image classification, object detection, and depth estimation, and is proved effective in both CNN-based and Transformer-based architectures. In the Fragmentation stage, image samples are divided into smaller segments, preparing them for the Segregation stage, where advanced outlier detection techniques isolate anomalous features linked to adversarial perturbations. The Neutralization stage then applies dimension reduction techniques to these outliers, effectively neutralizing the adversarial impact while preserving critical information for the machine learning task. Extensive evaluation on benchmark datasets against state-of-the-art adversarial patches underscores the efficacy of ODDR. Our method enhances model accuracy from 39.26% to 79.1% under the GoogleAp attack, outperforming leading defenses such as LGS (53.86%), Jujutsu (60%), and Jedi (64.34%).
- Abstract(参考訳): 敵攻撃は、特にパッチベースの攻撃が強力であることから、マシンラーニングモデルの信頼性の高いデプロイに重大な課題をもたらす。
これらの攻撃は、画像の局所的な領域における敵の摂動をもたらし、十分に訓練されたモデルさえも無視する。
本稿では,先進的な統計的手法を用いて,パッチベースの敵攻撃に対抗するために設計された総合的な防衛戦略である,外乱検出・次元削減(ODDR)を提案する。
提案手法は, 画像データの内在分布から自然的, 合成的, いずれにせよ, 逆パッチに対応する入力特徴を抽出し, 外れ値として同定する。
ODDRは、フラグメンテーション、セグレゲーション、中立化という、堅牢な3段階のパイプラインを運用する。
このモデルに依存しないフレームワークは、画像分類、オブジェクト検出、深さ推定など様々なタスクに対して保護を提供し、CNNベースのアーキテクチャとTransformerベースのアーキテクチャの両方で有効であることが証明されている。
フラグメンテーション段階では、画像サンプルは小さなセグメントに分割され、セグレゲーション段階に向けて準備され、高度な外乱検出技術により、対向的摂動に関連する異常な特徴を分離する。
中立化段階は、これらの外れ値に次元還元技術を適用し、機械学習タスクの重要な情報を保持しながら、敵の影響を効果的に中和する。
最先端の敵パッチに対するベンチマークデータセットの広範囲な評価は、ODDRの有効性を裏付けるものである。
GoogleAp攻撃時のモデル精度は39.26%から79.1%に向上し、LGS(53.86%)、柔術(60%)、ジェダイ(64.34%)などの先進防衛よりも優れていた。
関連論文リスト
- MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Anomaly Unveiled: Securing Image Classification against Adversarial
Patch Attacks [3.6275442368775512]
敵対的パッチ攻撃は、ディープラーニングシステムの実践的な展開に重大な脅威をもたらす。
本稿では,画像情報の分布における逆パッチの異常としての挙動について検討する。
提案する防御機構は,DBSCANと呼ばれるクラスタリング技術を用いて,異常な画像セグメントを分離する。
論文 参考訳(メタデータ) (2024-02-09T08:52:47Z) - DefensiveDR: Defending against Adversarial Patches using Dimensionality Reduction [4.4100683691177816]
アドリラルパッチベースの攻撃は、マシンラーニングモデルの使用に対する大きな抑止力であることが示されている。
我々は、このようなパッチベースの攻撃を阻止するために次元削減技術を用いた実用的メカニズムであるtextitDefensiveDRを提案する。
論文 参考訳(メタデータ) (2023-11-20T22:01:31Z) - Robust Adversarial Defense by Tensor Factorization [1.2954493726326113]
本研究では、入力データのテンソル化と低ランク分解とNNパラメータのテンソル化を統合し、敵防御を強化する。
提案手法は、最強の自爆攻撃を受けた場合でも、高い防御能力を示し、堅牢な精度を維持する。
論文 参考訳(メタデータ) (2023-09-03T04:51:44Z) - PAIF: Perception-Aware Infrared-Visible Image Fusion for Attack-Tolerant
Semantic Segmentation [50.556961575275345]
対向シーンにおけるセグメンテーションの堅牢性を促進するための認識認識型融合フレームワークを提案する。
我々は,先進の競争相手に比べて15.3% mIOUの利得で,ロバスト性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-08-08T01:55:44Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - FADER: Fast Adversarial Example Rejection [19.305796826768425]
近年の防御は, 異なる層表現における正統な訓練試料からの異常な偏差を検出することにより, 対向的堅牢性を向上させることが示されている。
本稿では,検出に基づく手法を高速化する新しい手法であるFADERを紹介する。
実験では,MNISTデータセットの解析値と比較すると,最大73倍の試作機,CIFAR10の最大50倍の試作機について概説した。
論文 参考訳(メタデータ) (2020-10-18T22:00:11Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - SAD: Saliency-based Defenses Against Adversarial Examples [0.9786690381850356]
逆例 ドリフトモデル予測は ネットワークの本来の意図から 離れている
本研究では, 対人攻撃の影響を受けやすいクリーニングデータに対する視覚的サリエンシに基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-03-10T15:55:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。