論文の概要: ODDR: Outlier Detection & Dimension Reduction Based Defense Against
Adversarial Patches
- arxiv url: http://arxiv.org/abs/2311.12084v1
- Date: Mon, 20 Nov 2023 11:08:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 03:24:06.420878
- Title: ODDR: Outlier Detection & Dimension Reduction Based Defense Against
Adversarial Patches
- Title(参考訳): ODDR: 対側パッチに対する外乱検出・次元削減に基づく防御
- Authors: Nandish Chattopadhyay, Amira Guesmi, Muhammad Abdullah Hanif, Bassem
Ouni, Muhammad Shafique
- Abstract要約: 敵対的攻撃は、機械学習モデルの信頼性使用に対する大きな抑止力である。
本稿では,パッチベースの敵攻撃を効果的に軽減するための総合防御機構である,アウトリア検出・次元削減(ODDR)を導入する。
ODDRはフラグメンテーション、分離、中立化という3段階のパイプラインを採用しており、画像分類とオブジェクト検出の両方に適用されるモデルに依存しないソリューションを提供する。
- 参考スコア(独自算出の注目度): 4.672978217020929
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks are a major deterrent towards the reliable use of machine
learning models. A powerful type of adversarial attacks is the patch-based
attack, wherein the adversarial perturbations modify localized patches or
specific areas within the images to deceive the trained machine learning model.
In this paper, we introduce Outlier Detection and Dimension Reduction (ODDR), a
holistic defense mechanism designed to effectively mitigate patch-based
adversarial attacks. In our approach, we posit that input features
corresponding to adversarial patches, whether naturalistic or otherwise,
deviate from the inherent distribution of the remaining image sample and can be
identified as outliers or anomalies. ODDR employs a three-stage pipeline:
Fragmentation, Segregation, and Neutralization, providing a model-agnostic
solution applicable to both image classification and object detection tasks.
The Fragmentation stage parses the samples into chunks for the subsequent
Segregation process. Here, outlier detection techniques identify and segregate
the anomalous features associated with adversarial perturbations. The
Neutralization stage utilizes dimension reduction methods on the outliers to
mitigate the impact of adversarial perturbations without sacrificing pertinent
information necessary for the machine learning task. Extensive testing on
benchmark datasets and state-of-the-art adversarial patches demonstrates the
effectiveness of ODDR. Results indicate robust accuracies matching and lying
within a small range of clean accuracies (1%-3% for classification and 3%-5%
for object detection), with only a marginal compromise of 1%-2% in performance
on clean samples, thereby significantly outperforming other defenses.
- Abstract(参考訳): 敵対的攻撃は、機械学習モデルの信頼性使用に対する大きな抑止力である。
強力なタイプの敵攻撃はパッチベースの攻撃であり、敵の摂動は訓練された機械学習モデルを欺くために、画像内の局所的なパッチまたは特定の領域を変更する。
本稿では,パッチ攻撃を効果的に軽減する総合的防御機構であるoutlier detection and dimension reduction (oddr)を提案する。
本手法では, 画像サンプルの固有分布から逸脱し, 異常値や異常値として識別することが可能な, 敵対的パッチに対応する入力特徴を仮定する。
ODDRはフラグメンテーション、分離、中立化という3段階のパイプラインを採用しており、画像分類とオブジェクト検出の両方に適用されるモデルに依存しないソリューションを提供する。
フラグメンテーションステージは、サンプルをその後の分離プロセスのためにチャンクに解析する。
ここで、外乱検出技術は、対向的摂動に伴う異常特徴を識別し、分離する。
中和段階は、機械学習タスクに必要な関連する情報を犠牲にすることなく、対向摂動の影響を軽減するために、外れ値に対する次元縮小法を利用する。
ベンチマークデータセットと最先端の敵パッチの大規模なテストは、ODDRの有効性を示している。
その結果,クリーンなアキュラティ(分類では1%-3%,対象検出では3%-5%)の範囲内に存在するロバストなアキュラティが示され,クリーンなサンプルでの性能が1%-2%という限界的な妥協しか得られず,他の防御を著しく上回っていた。
関連論文リスト
- MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Anomaly Unveiled: Securing Image Classification against Adversarial
Patch Attacks [3.6275442368775512]
敵対的パッチ攻撃は、ディープラーニングシステムの実践的な展開に重大な脅威をもたらす。
本稿では,画像情報の分布における逆パッチの異常としての挙動について検討する。
提案する防御機構は,DBSCANと呼ばれるクラスタリング技術を用いて,異常な画像セグメントを分離する。
論文 参考訳(メタデータ) (2024-02-09T08:52:47Z) - DefensiveDR: Defending against Adversarial Patches using Dimensionality Reduction [4.4100683691177816]
アドリラルパッチベースの攻撃は、マシンラーニングモデルの使用に対する大きな抑止力であることが示されている。
我々は、このようなパッチベースの攻撃を阻止するために次元削減技術を用いた実用的メカニズムであるtextitDefensiveDRを提案する。
論文 参考訳(メタデータ) (2023-11-20T22:01:31Z) - Robust Adversarial Defense by Tensor Factorization [1.2954493726326113]
本研究では、入力データのテンソル化と低ランク分解とNNパラメータのテンソル化を統合し、敵防御を強化する。
提案手法は、最強の自爆攻撃を受けた場合でも、高い防御能力を示し、堅牢な精度を維持する。
論文 参考訳(メタデータ) (2023-09-03T04:51:44Z) - PAIF: Perception-Aware Infrared-Visible Image Fusion for Attack-Tolerant
Semantic Segmentation [50.556961575275345]
対向シーンにおけるセグメンテーションの堅牢性を促進するための認識認識型融合フレームワークを提案する。
我々は,先進の競争相手に比べて15.3% mIOUの利得で,ロバスト性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-08-08T01:55:44Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - FADER: Fast Adversarial Example Rejection [19.305796826768425]
近年の防御は, 異なる層表現における正統な訓練試料からの異常な偏差を検出することにより, 対向的堅牢性を向上させることが示されている。
本稿では,検出に基づく手法を高速化する新しい手法であるFADERを紹介する。
実験では,MNISTデータセットの解析値と比較すると,最大73倍の試作機,CIFAR10の最大50倍の試作機について概説した。
論文 参考訳(メタデータ) (2020-10-18T22:00:11Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - SAD: Saliency-based Defenses Against Adversarial Examples [0.9786690381850356]
逆例 ドリフトモデル予測は ネットワークの本来の意図から 離れている
本研究では, 対人攻撃の影響を受けやすいクリーニングデータに対する視覚的サリエンシに基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-03-10T15:55:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。