論文の概要: Regional Image Perturbation Reduces $L_p$ Norms of Adversarial Examples
While Maintaining Model-to-model Transferability
- arxiv url: http://arxiv.org/abs/2007.03198v2
- Date: Sat, 18 Jul 2020 08:23:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 18:31:32.179128
- Title: Regional Image Perturbation Reduces $L_p$ Norms of Adversarial Examples
While Maintaining Model-to-model Transferability
- Title(参考訳): モデル間転送性を維持しつつ, 逆例のノルムを低減した局所画像摂動
- Authors: Utku Ozbulak, Jonathan Peck, Wesley De Neve, Bart Goossens, Yvan Saeys
and Arnout Van Messem
- Abstract要約: 複雑な手法を使わずに効果的な地域摂動を創出できることを示す。
我々は,クロスエントロピー符号を用いた非常に単純な地域対向的摂動攻撃法を開発した。
複数のモデルを用いたImageNet実験では, 平均して, 生成した敵対例の76%がモデル-モデル間転送性を維持していることがわかった。
- 参考スコア(独自算出の注目度): 3.578666449629947
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Regional adversarial attacks often rely on complicated methods for generating
adversarial perturbations, making it hard to compare their efficacy against
well-known attacks. In this study, we show that effective regional
perturbations can be generated without resorting to complex methods. We develop
a very simple regional adversarial perturbation attack method using
cross-entropy sign, one of the most commonly used losses in adversarial machine
learning. Our experiments on ImageNet with multiple models reveal that, on
average, $76\%$ of the generated adversarial examples maintain model-to-model
transferability when the perturbation is applied to local image regions.
Depending on the selected region, these localized adversarial examples require
significantly less $L_p$ norm distortion (for $p \in \{0, 2, \infty\}$)
compared to their non-local counterparts. These localized attacks therefore
have the potential to undermine defenses that claim robustness under the
aforementioned norms.
- Abstract(参考訳): 地域敵対攻撃は、しばしば敵の摂動を発生させる複雑な方法に依存しており、その効果をよく知られた攻撃と比較することは困難である。
本研究では,複雑な手法を使わずに効果的に局所摂動を発生できることを示す。
直交エントロピー符号を用いた極めて単純な対向的摂動攻撃法を開発し, 対向機械学習において最もよく用いられる損失の1つである。
複数のモデルを用いたImageNet実験の結果, 摂動が局所的な画像領域に適用された場合, 生成した逆数例のうち平均7, 6 % がモデル間転送性を維持していることがわかった。
選択された領域によっては、これらの局所化された対数例は、非局所的対数よりもかなり少ない$L_p$ノルム歪み($p \in \{0, 2, \infty\}$)を必要とする。
これらの局所攻撃は、上記の規範の下で堅牢性を主張する防衛を弱める可能性がある。
関連論文リスト
- Boosting the Targeted Transferability of Adversarial Examples via Salient Region & Weighted Feature Drop [2.176586063731861]
敵攻撃に対する一般的なアプローチは、敵の例の転送可能性に依存する。
SWFD(Salient Region & Weighted Feature Drop)をベースとした新しいフレームワークは,敵対的事例のターゲット転送可能性を高める。
論文 参考訳(メタデータ) (2024-11-11T08:23:37Z) - Boosting Adversarial Transferability by Achieving Flat Local Maxima [23.91315978193527]
近年、様々な敵の攻撃が出現し、異なる視点から敵の移動可能性を高めている。
本研究では, 平坦な局所領域における逆例が良好な伝達性を持つ傾向があることを仮定し, 実証的に検証する。
目的関数の勾配更新を簡略化する近似最適化法を提案する。
論文 参考訳(メタデータ) (2023-06-08T14:21:02Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - The Enemy of My Enemy is My Friend: Exploring Inverse Adversaries for
Improving Adversarial Training [72.39526433794707]
敵の訓練とその変種は、敵の例に対抗して最も効果的なアプローチであることが示されている。
本稿では,モデルが類似した出力を生成することを奨励する,新たな対角訓練手法を提案する。
本手法は,最先端のロバスト性および自然な精度を実現する。
論文 参考訳(メタデータ) (2022-11-01T15:24:26Z) - Frequency Domain Model Augmentation for Adversarial Attack [91.36850162147678]
ブラックボックス攻撃の場合、代用モデルと被害者モデルの間のギャップは通常大きい。
そこで本研究では,通常の訓練モデルと防衛モデルの両方に対して,より伝達可能な対角線モデルを構築するための新しいスペクトルシミュレーション攻撃を提案する。
論文 参考訳(メタデータ) (2022-07-12T08:26:21Z) - Latent Boundary-guided Adversarial Training [61.43040235982727]
モデルトレーニングに敵の例を注入する最も効果的な戦略は、敵のトレーニングであることが証明されている。
本稿では, LAtent bounDary-guided aDvErsarial tRaining という新たな逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-08T07:40:55Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Generating Structured Adversarial Attacks Using Frank-Wolfe Method [7.84752424025677]
異なるノルムによる逆探索の制約は、異なる構成の逆の例をもたらす。
構造化逆数例は、モデルをより堅牢にしたり、構造的に異なるデータセット上での性能を向上させるために、モデルの逆正則化に使用することができる。
論文 参考訳(メタデータ) (2021-02-15T06:36:50Z) - Detecting Localized Adversarial Examples: A Generic Approach using
Critical Region Analysis [19.352676977713966]
本稿では,TintRadarと呼ばれる汎用防衛システムを提案する。
既存の防御ソリューションと比較すると、TaintRadarは高度に局所化された部分攻撃を効果的に捉えることができる。
デジタルと物理の両方の世界において、防衛の有効性と堅牢性を検証するための総合的な実験が実施されている。
論文 参考訳(メタデータ) (2021-02-10T03:31:16Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。