論文の概要: Attention Masks Help Adversarial Attacks to Bypass Safety Detectors
- arxiv url: http://arxiv.org/abs/2411.04772v1
- Date: Thu, 07 Nov 2024 15:13:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-08 19:39:19.412259
- Title: Attention Masks Help Adversarial Attacks to Bypass Safety Detectors
- Title(参考訳): アテンション・マスクは、敵の攻撃を防いで安全検知器をバイパスする
- Authors: Yunfan Shi,
- Abstract要約: 我々は,XAIモニタ下でのステルス性,説明性,効率的なPGD画像分類対向攻撃を実現するためのアテンションマスク生成のための適応的フレームワークを提案する。
具体的には、変異XAI混合物と自己教師型X-UNetをアテンションマスク生成に利用し、PGD攻撃を誘導する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Despite recent research advancements in adversarial attack methods, current approaches against XAI monitors are still discoverable and slower. In this paper, we present an adaptive framework for attention mask generation to enable stealthy, explainable and efficient PGD image classification adversarial attack under XAI monitors. Specifically, we utilize mutation XAI mixture and multitask self-supervised X-UNet for attention mask generation to guide PGD attack. Experiments on MNIST (MLP), CIFAR-10 (AlexNet) have shown that our system can outperform benchmark PGD, Sparsefool and SOTA SINIFGSM in balancing among stealth, efficiency and explainability which is crucial for effectively fooling SOTA defense protected classifiers.
- Abstract(参考訳): 近年の敵攻撃法の研究の進展にもかかわらず、XAIモニターに対する現在のアプローチは依然として発見可能であり、遅くなっている。
本稿では,XAIモニタ下でのステルス性,説明性,効率的なPGD画像分類対向攻撃を実現するためのアテンションマスク生成のための適応的フレームワークを提案する。
具体的には、変異XAI混合物とマルチタスク自己教師型X-UNetをアテンションマスク生成に利用し、PGD攻撃を誘導する。
MNIST (MLP) と CIFAR-10 (AlexNet) を用いた実験により, PGD, Sparsefool, SOTA SINIFGSM は, SOTA 保護型分類器を効果的に騙す上で重要なステルス, 効率, 説明可能性のバランスにおいて, ベンチマーク PGD, Sparsefool, SOTA SINIFGSM より優れていることを示した。
関連論文リスト
- Detecting Masquerade Attacks in Controller Area Networks Using Graph Machine Learning [0.2812395851874055]
本稿では,グラフ機械学習(ML)を用いたCANバスにおけるマスクレード攻撃検出のための新しいフレームワークを提案する。
本稿では,CANバスフレームをメッセージシーケンスグラフ(MSG)として表現し,時系列からコンテキスト統計属性を付加することにより,検出能力を向上できることを示す。
提案手法は,CANフレームの相互作用を包括的かつ動的に解析し,ロバスト性や効率性を向上する。
論文 参考訳(メタデータ) (2024-08-10T04:17:58Z) - Benchmarking Unsupervised Online IDS for Masquerade Attacks in CAN [4.263056416993091]
CAN(Vehicular Control Area Network)は、悪意のある敵によるマスクレード攻撃の影響を受けやすい。
我々は,CANにおけるマスクレード攻撃に対する4種類の非深層学習(DL)に基づく非教師なしオンライン侵入検知システム(IDS)のベンチマーク研究を紹介する。
ベンチマークしたIDSは全ての攻撃タイプを検出するには有効ではないが,時系列クラスタの階層構造の変化を検出する手法が最適であることを示す。
論文 参考訳(メタデータ) (2024-06-19T19:04:51Z) - Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Defense against Joint Poison and Evasion Attacks: A Case Study of DERMS [2.632261166782093]
IDSの第1の枠組みは, ジョイント中毒や回避攻撃に対して堅牢である。
IEEE-13バスフィードモデルにおける本手法のロバスト性を検証する。
論文 参考訳(メタデータ) (2024-05-05T16:24:30Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Adversarial defense for automatic speaker verification by cascaded
self-supervised learning models [101.42920161993455]
ますます悪意のある攻撃者は、自動話者検証(ASV)システムで敵攻撃を仕掛けようとする。
本稿では,逐次的自己教師付き学習モデルに基づく標準的かつ攻撃非依存な手法を提案する。
実験により, 本手法は効果的な防御性能を実現し, 敵攻撃に対抗できることを示した。
論文 参考訳(メタデータ) (2021-02-14T01:56:43Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。