論文の概要: A Perceptual Distortion Reduction Framework for Adversarial Perturbation
Generation
- arxiv url: http://arxiv.org/abs/2105.00278v1
- Date: Sat, 1 May 2021 15:08:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 14:10:56.800992
- Title: A Perceptual Distortion Reduction Framework for Adversarial Perturbation
Generation
- Title(参考訳): 対向摂動生成のための知覚歪み低減フレームワーク
- Authors: Ruijie Yang, Yunhong Wang and Yuanfang Guo
- Abstract要約: 2つの観点からこの問題に対処するための知覚的歪み低減フレームワークを提案する。
知覚的歪みの制約を提案し,それを敵攻撃の客観的機能に追加し,知覚的歪みと攻撃成功率を共同で最適化する。
- 参考スコア(独自算出の注目度): 58.6157191438473
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most of the adversarial attack methods suffer from large perceptual
distortions such as visible artifacts, when the attack strength is relatively
high. These perceptual distortions contain a certain portion which contributes
less to the attack success rate. This portion of distortions, which is induced
by unnecessary modifications and lack of proper perceptual distortion
constraint, is the target of the proposed framework. In this paper, we propose
a perceptual distortion reduction framework to tackle this problem from two
perspectives. We guide the perturbation addition process to reduce unnecessary
modifications by proposing an activated region transfer attention mask, which
intends to transfer the activated regions of the target model from the correct
prediction to incorrect ones. Note that an ensemble model is adopted to predict
the activated regions of the unseen models in the black-box setting of our
framework. Besides, we propose a perceptual distortion constraint and add it
into the objective function of adversarial attack to jointly optimize the
perceptual distortions and attack success rate. Extensive experiments have
verified the effectiveness of our framework on several baseline methods.
- Abstract(参考訳): 敵の攻撃方法のほとんどは、攻撃強度が比較的高い場合、目に見えるアーティファクトのような大きな知覚的歪みに苦しむ。
これらの知覚的歪みは、攻撃の成功率にあまり寄与しない部分を含む。
この歪みの一部は、不要な修正と適切な知覚歪み制約の欠如によって引き起こされるものであり、提案フレームワークのターゲットとなっている。
本稿では,2つの視点からこの問題に取り組むための知覚的歪み低減枠組みを提案する。
対象モデルの活性化された領域を正しい予測から間違ったものに転送しようとする活性化領域移動注意マスクを提案することにより、不必要な修正を減らすために摂動付加過程を指導する。
フレームワークのブラックボックス設定において、未知のモデルの活性化領域を予測するためにアンサンブルモデルを採用することに注意。
また,知覚的歪みの制約を提案し,それを敵攻撃の客観的機能に追加し,知覚的歪みと攻撃成功率を共同で最適化する。
大規模実験により,本フレームワークの有効性が検証された。
関連論文リスト
- Boosting the Targeted Transferability of Adversarial Examples via Salient Region & Weighted Feature Drop [2.176586063731861]
敵攻撃に対する一般的なアプローチは、敵の例の転送可能性に依存する。
SWFD(Salient Region & Weighted Feature Drop)をベースとした新しいフレームワークは,敵対的事例のターゲット転送可能性を高める。
論文 参考訳(メタデータ) (2024-11-11T08:23:37Z) - MMAD-Purify: A Precision-Optimized Framework for Efficient and Scalable Multi-Modal Attacks [21.227398434694724]
我々は,攻撃フレームワークの有効性を高めるために,精度最適化ノイズ予測器を組み込んだ革新的なフレームワークを導入する。
当社のフレームワークは,マルチモーダル攻撃に対する最先端のソリューションを提供し,レイテンシの低減を実現している。
本研究の枠組みは, 浄化防御に対する優れた伝達性と堅牢性を実現することを実証する。
論文 参考訳(メタデータ) (2024-10-17T23:52:39Z) - Multi-granular Adversarial Attacks against Black-box Neural Ranking Models [111.58315434849047]
多粒性摂動を取り入れた高品質な逆数例を作成する。
我々は,多粒体攻撃を逐次的意思決定プロセスに変換する。
本手法は,攻撃の有効性と非受容性の両方において,一般的なベースラインを超えている。
論文 参考訳(メタデータ) (2024-04-02T02:08:29Z) - Towards Robust Semantic Segmentation against Patch-based Attack via Attention Refinement [68.31147013783387]
我々は,アテンション機構がパッチベースの敵攻撃に弱いことを観察した。
本稿では,意味的セグメンテーションモデルの堅牢性を改善するために,ロバスト注意機構(RAM)を提案する。
論文 参考訳(メタデータ) (2024-01-03T13:58:35Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Transferable Adversarial Attack on Image Tampering Localization [7.177637468324888]
本稿では,このようなローカライザの信頼性を明らかにするために,敵攻撃方式を提案する。
ブラックボックス攻撃は、そのような敵の例を異なるローカライザに転送することで達成される。
論文 参考訳(メタデータ) (2023-09-19T01:48:01Z) - Improving White-box Robustness of Pre-processing Defenses via Joint Adversarial Training [106.34722726264522]
対向騒音の干渉を軽減するため,様々な対向防御技術が提案されている。
プレプロセス法は、ロバストネス劣化効果に悩まされることがある。
この負の効果の潜在的な原因は、敵の訓練例が静的であり、前処理モデルとは独立していることである。
本稿では,JATP(Joint Adversarial Training Based Pre-processing)防衛法を提案する。
論文 参考訳(メタデータ) (2021-06-10T01:45:32Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Query-Free Adversarial Transfer via Undertrained Surrogates [14.112444998191698]
本研究では,ブラックボックス環境における敵攻撃の有効性を改善するための新しい手法を提案する。
本稿では, この手法がアーキテクチャ全体にわたって良好に伝達し, 最先端の手法よりも広いマージンで性能を向上することを示す。
論文 参考訳(メタデータ) (2020-07-01T23:12:22Z) - Luring of transferable adversarial perturbations in the black-box
paradigm [0.0]
我々は、ブラックボックス転送攻撃に対するモデルの堅牢性を改善するための新しいアプローチを提案する。
除去可能な追加ニューラルネットワークが対象モデルに含まれており、テクスチャリング効果を誘導するように設計されている。
提案手法は,対象モデルの予測にのみアクセス可能であり,ラベル付きデータセットを必要としない。
論文 参考訳(メタデータ) (2020-04-10T06:48:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。