論文の概要: A Perceptual Distortion Reduction Framework for Adversarial Perturbation
Generation
- arxiv url: http://arxiv.org/abs/2105.00278v1
- Date: Sat, 1 May 2021 15:08:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 14:10:56.800992
- Title: A Perceptual Distortion Reduction Framework for Adversarial Perturbation
Generation
- Title(参考訳): 対向摂動生成のための知覚歪み低減フレームワーク
- Authors: Ruijie Yang, Yunhong Wang and Yuanfang Guo
- Abstract要約: 2つの観点からこの問題に対処するための知覚的歪み低減フレームワークを提案する。
知覚的歪みの制約を提案し,それを敵攻撃の客観的機能に追加し,知覚的歪みと攻撃成功率を共同で最適化する。
- 参考スコア(独自算出の注目度): 58.6157191438473
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most of the adversarial attack methods suffer from large perceptual
distortions such as visible artifacts, when the attack strength is relatively
high. These perceptual distortions contain a certain portion which contributes
less to the attack success rate. This portion of distortions, which is induced
by unnecessary modifications and lack of proper perceptual distortion
constraint, is the target of the proposed framework. In this paper, we propose
a perceptual distortion reduction framework to tackle this problem from two
perspectives. We guide the perturbation addition process to reduce unnecessary
modifications by proposing an activated region transfer attention mask, which
intends to transfer the activated regions of the target model from the correct
prediction to incorrect ones. Note that an ensemble model is adopted to predict
the activated regions of the unseen models in the black-box setting of our
framework. Besides, we propose a perceptual distortion constraint and add it
into the objective function of adversarial attack to jointly optimize the
perceptual distortions and attack success rate. Extensive experiments have
verified the effectiveness of our framework on several baseline methods.
- Abstract(参考訳): 敵の攻撃方法のほとんどは、攻撃強度が比較的高い場合、目に見えるアーティファクトのような大きな知覚的歪みに苦しむ。
これらの知覚的歪みは、攻撃の成功率にあまり寄与しない部分を含む。
この歪みの一部は、不要な修正と適切な知覚歪み制約の欠如によって引き起こされるものであり、提案フレームワークのターゲットとなっている。
本稿では,2つの視点からこの問題に取り組むための知覚的歪み低減枠組みを提案する。
対象モデルの活性化された領域を正しい予測から間違ったものに転送しようとする活性化領域移動注意マスクを提案することにより、不必要な修正を減らすために摂動付加過程を指導する。
フレームワークのブラックボックス設定において、未知のモデルの活性化領域を予測するためにアンサンブルモデルを採用することに注意。
また,知覚的歪みの制約を提案し,それを敵攻撃の客観的機能に追加し,知覚的歪みと攻撃成功率を共同で最適化する。
大規模実験により,本フレームワークの有効性が検証された。
関連論文リスト
- Towards Robust Semantic Segmentation against Patch-based Attack via
Attention Refinement [73.28768435692125]
我々は,アテンション機構がパッチベースの敵攻撃に弱いことを観察した。
本稿では,意味的セグメンテーションモデルの堅牢性を改善するために,ロバスト注意機構(RAM)を提案する。
論文 参考訳(メタデータ) (2024-01-03T13:58:35Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - LFAA: Crafting Transferable Targeted Adversarial Examples with
Low-Frequency Perturbations [25.929492841042666]
本稿では,トランスファー可能な対象対向例を生成するための新しい手法を提案する。
画像の高周波成分の摂動にディープニューラルネットワークの脆弱性を利用する。
提案手法は最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-10-31T04:54:55Z) - Transferable Adversarial Attack on Image Tampering Localization [7.177637468324888]
本稿では,このようなローカライザの信頼性を明らかにするために,敵攻撃方式を提案する。
ブラックボックス攻撃は、そのような敵の例を異なるローカライザに転送することで達成される。
論文 参考訳(メタデータ) (2023-09-19T01:48:01Z) - Improving White-box Robustness of Pre-processing Defenses via Joint
Adversarial Training [159.69490269760576]
対向騒音の干渉を軽減するため,様々な対向防御技術が提案されている。
プレプロセス法は、ロバストネス劣化効果に悩まされることがある。
この負の効果の潜在的な原因は、敵の訓練例が静的であり、前処理モデルとは独立していることである。
本稿では,JATP(Joint Adversarial Training Based Pre-processing)防衛法を提案する。
論文 参考訳(メタデータ) (2021-06-10T01:45:32Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Query-Free Adversarial Transfer via Undertrained Surrogates [14.112444998191698]
本研究では,ブラックボックス環境における敵攻撃の有効性を改善するための新しい手法を提案する。
本稿では, この手法がアーキテクチャ全体にわたって良好に伝達し, 最先端の手法よりも広いマージンで性能を向上することを示す。
論文 参考訳(メタデータ) (2020-07-01T23:12:22Z) - Luring of transferable adversarial perturbations in the black-box
paradigm [0.0]
我々は、ブラックボックス転送攻撃に対するモデルの堅牢性を改善するための新しいアプローチを提案する。
除去可能な追加ニューラルネットワークが対象モデルに含まれており、テクスチャリング効果を誘導するように設計されている。
提案手法は,対象モデルの予測にのみアクセス可能であり,ラベル付きデータセットを必要としない。
論文 参考訳(メタデータ) (2020-04-10T06:48:36Z) - SAD: Saliency-based Defenses Against Adversarial Examples [0.9786690381850356]
逆例 ドリフトモデル予測は ネットワークの本来の意図から 離れている
本研究では, 対人攻撃の影響を受けやすいクリーニングデータに対する視覚的サリエンシに基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-03-10T15:55:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。