論文の概要: Improving the Transferability of Adversarial Samples by Path-Augmented
Method
- arxiv url: http://arxiv.org/abs/2303.15735v1
- Date: Tue, 28 Mar 2023 05:14:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 16:20:35.122209
- Title: Improving the Transferability of Adversarial Samples by Path-Augmented
Method
- Title(参考訳): パス拡張法による対向サンプルの転送性の向上
- Authors: Jianping Zhang, Jen-tse Huang, Wenxuan Wang, Yichen Li, Weibin Wu,
Xiaosen Wang, Yuxin Su, Michael R. Lyu
- Abstract要約: 本稿では,拡張意味論と一貫性のない画像の落とし穴を克服するパス拡張手法を提案する。
PAMは、攻撃成功率の点で最先端のベースラインと比較して平均4.8%以上の改善を達成できる。
- 参考スコア(独自算出の注目度): 38.41363108018462
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have achieved unprecedented success on diverse vision
tasks. However, they are vulnerable to adversarial noise that is imperceptible
to humans. This phenomenon negatively affects their deployment in real-world
scenarios, especially security-related ones. To evaluate the robustness of a
target model in practice, transfer-based attacks craft adversarial samples with
a local model and have attracted increasing attention from researchers due to
their high efficiency. The state-of-the-art transfer-based attacks are
generally based on data augmentation, which typically augments multiple
training images from a linear path when learning adversarial samples. However,
such methods selected the image augmentation path heuristically and may augment
images that are semantics-inconsistent with the target images, which harms the
transferability of the generated adversarial samples. To overcome the pitfall,
we propose the Path-Augmented Method (PAM). Specifically, PAM first constructs
a candidate augmentation path pool. It then settles the employed augmentation
paths during adversarial sample generation with greedy search. Furthermore, to
avoid augmenting semantics-inconsistent images, we train a Semantics Predictor
(SP) to constrain the length of the augmentation path. Extensive experiments
confirm that PAM can achieve an improvement of over 4.8% on average compared
with the state-of-the-art baselines in terms of the attack success rates.
- Abstract(参考訳): 深層ニューラルネットワークは多様な視覚タスクにおいて前例のない成功を収めた。
しかし、人間には受け入れられない敵の騒音に弱い。
この現象は、現実のシナリオ、特にセキュリティ関連のシナリオでのデプロイメントに悪影響を及ぼす。
実際にターゲットモデルのロバスト性を評価するため,トランスファーベースアタックは局所モデルを用いて敵のサンプルを抽出し,高い効率で研究者の注目を集めた。
最先端の転送ベースの攻撃は、一般的にデータ拡張に基づいており、通常、敵対的なサンプルを学習する際に、線形パスから複数のトレーニングイメージを増強する。
しかし、このような手法は画像拡張パスをヒューリスティックに選択し、対象画像と相容れないイメージを増大させ、生成した対向サンプルの転送性に悪影響を及ぼす可能性がある。
この落とし穴を克服するため,我々はPath-Augmented Method (PAM)を提案する。
具体的には、まず、PAMが候補拡張パスプールを構築する。
そして、グリーディ探索による逆サンプル生成中に採用される増強経路を解決する。
さらに,セマンティクスに一貫性のない画像の強調を避けるために,セマンティクス予測子(sp)を訓練し,加算経路の長さを制約する。
大規模な実験により、PAMは攻撃成功率の点で最先端のベースラインと比較して平均4.8%以上の改善を達成できることを確認した。
関連論文リスト
- PEAS: A Strategy for Crafting Transferable Adversarial Examples [2.9815109163161204]
ブラックボックス攻撃は、機械学習システムに重大な脅威をもたらす。
代用モデルで生成された逆例は、しばしばターゲットモデルへの限定的な転送可能性に悩まされる。
我々は,既存のブラックボックス攻撃の転送可能性を高める新しい戦略PEASを提案する。
論文 参考訳(メタデータ) (2024-10-20T14:55:08Z) - Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Efficient Generation of Targeted and Transferable Adversarial Examples for Vision-Language Models Via Diffusion Models [17.958154849014576]
大規模視覚言語モデル(VLM)のロバスト性を評価するために、敵対的攻撃を用いることができる。
従来のトランスファーベースの敵攻撃は、高いイテレーション数と複雑なメソッド構造により、高いコストを発生させる。
本稿では, 拡散モデルを用いて, 自然, 制約のない, 対象とする対向的な例を生成するAdvDiffVLMを提案する。
論文 参考訳(メタデータ) (2024-04-16T07:19:52Z) - LFAA: Crafting Transferable Targeted Adversarial Examples with
Low-Frequency Perturbations [25.929492841042666]
本稿では,トランスファー可能な対象対向例を生成するための新しい手法を提案する。
画像の高周波成分の摂動にディープニューラルネットワークの脆弱性を利用する。
提案手法は最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-10-31T04:54:55Z) - Improving the Transferability of Adversarial Attacks on Face Recognition
with Beneficial Perturbation Feature Augmentation [26.032639566914114]
顔認識(FR)モデルは、良質な顔画像に知覚不能な摂動を加えることで、敵対的な例によって容易に騙される。
本稿では,既存のFRモデルの盲点を明らかにするために,対向顔例の移動性を改善する。
BPFA(Besticial Perturbation Feature Augmentation Attack)と呼ばれる新しい攻撃法を提案する。
論文 参考訳(メタデータ) (2022-10-28T13:25:59Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Random Transformation of Image Brightness for Adversarial Attack [5.405413975396116]
逆の例は、オリジナルの画像に小さな人間の知覚できないものを加えることで作られる。
ディープニューラルネットワークは、オリジナルの画像に小さな人間の知覚できないものを加えることで構築される敵の例に対して脆弱である。
本稿では,高速勾配符号法と統合可能な,この現象に基づく逆例生成手法を提案する。
本手法は,データ拡張に基づく他の攻撃方法よりもブラックボックス攻撃の成功率が高い。
論文 参考訳(メタデータ) (2021-01-12T07:00:04Z) - Adversarial Semantic Data Augmentation for Human Pose Estimation [96.75411357541438]
本研究では,セマンティックデータ拡張法 (SDA) を提案する。
また,適応的セマンティックデータ拡張 (ASDA) を提案する。
最先端の結果は、挑戦的なベンチマークで得られます。
論文 参考訳(メタデータ) (2020-08-03T07:56:04Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。