論文の概要: Generating Structured Adversarial Attacks Using Frank-Wolfe Method
- arxiv url: http://arxiv.org/abs/2102.07360v1
- Date: Mon, 15 Feb 2021 06:36:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-16 16:13:49.638274
- Title: Generating Structured Adversarial Attacks Using Frank-Wolfe Method
- Title(参考訳): Frank-Wolfe 法による構造的対向攻撃の生成
- Authors: Ehsan Kazemi, Thomas Kerdreux and Liquang Wang
- Abstract要約: 異なるノルムによる逆探索の制約は、異なる構成の逆の例をもたらす。
構造化逆数例は、モデルをより堅牢にしたり、構造的に異なるデータセット上での性能を向上させるために、モデルの逆正則化に使用することができる。
- 参考スコア(独自算出の注目度): 7.84752424025677
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: White box adversarial perturbations are generated via iterative optimization
algorithms most often by minimizing an adversarial loss on a $\ell_p$
neighborhood of the original image, the so-called distortion set. Constraining
the adversarial search with different norms results in disparately structured
adversarial examples. Here we explore several distortion sets with
structure-enhancing algorithms. These new structures for adversarial examples
might provide challenges for provable and empirical robust mechanisms. Because
adversarial robustness is still an empirical field, defense mechanisms should
also reasonably be evaluated against differently structured attacks. Besides,
these structured adversarial perturbations may allow for larger distortions
size than their $\ell_p$ counter-part while remaining imperceptible or
perceptible as natural distortions of the image. We will demonstrate in this
work that the proposed structured adversarial examples can significantly bring
down the classification accuracy of adversarialy trained classifiers while
showing low $\ell_2$ distortion rate. For instance, on ImagNet dataset the
structured attacks drop the accuracy of adversarial model to near zero with
only 50\% of $\ell_2$ distortion generated using white-box attacks like PGD. As
a byproduct, our finding on structured adversarial examples can be used for
adversarial regularization of models to make models more robust or improve
their generalization performance on datasets which are structurally different.
- Abstract(参考訳): ホワイトボックスの逆転摂動は、しばしば、原画像の$\ell_p$近傍における逆転損失を最小限に抑えることで、反復最適化アルゴリズムによって生成される。
逆探索を異なるノルムで制限すると、異なる構成の逆の例が得られる。
ここでは,構造エンハンシングアルゴリズムを用いた歪み集合について検討する。
これらの敵対的な例のための新しい構造は、証明可能で経験的なロバストなメカニズムの課題をもたらすかもしれない。
敵の堅牢性はまだ実証的な分野であるため、防御機構は異なる構成の攻撃に対して合理的に評価されるべきである。
さらに、これらの構造的対向摂動は、画像の自然な歪みとして知覚できないか知覚できないまま、$\ell_p$カウンタ部よりも大きな歪みを許容する。
本研究では,提案する構造的敵意例が,高い$\ell_2$歪率を示しながら,敵が訓練した分類器の分類精度を著しく低下させることを実証する。
例えば、ImagNetデータセットでは、構造化攻撃により、PGDのようなホワイトボックスアタックを使用して生成された$\ell_2$歪みのわずか50%で、敵モデルの精度がほぼゼロに低下する。
副産物として、構造化された逆転例の発見は、モデルをより堅牢にしたり、構造的に異なるデータセット上での一般化パフォーマンスを向上させるためにモデルの逆転正規化に使用することができる。
関連論文リスト
- Improving Adversarial Training using Vulnerability-Aware Perturbation
Budget [7.430861908931903]
敵対的訓練(AT)は、敵対的攻撃に対するディープニューラルネットワーク(DNN)の堅牢性を効果的に改善する。
本稿では,AT の逆例に摂動境界を割り当てる簡易で安価な脆弱性認識型再重み付け関数を提案する。
実験の結果,提案手法は様々な攻撃に対してATアルゴリズムの頑健さを真に向上させることがわかった。
論文 参考訳(メタデータ) (2024-03-06T21:50:52Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Frequency-driven Imperceptible Adversarial Attack on Semantic Similarity [22.28011382580367]
敵対的攻撃研究は、慎重に構築された摂動に対する学習ベースの分類器の脆弱性を明らかにする。
特徴表現における意味的類似性を攻撃する新しいアルゴリズムを提案する。
本稿では,高周波成分の摂動を制限するために低周波制約を導入する。
論文 参考訳(メタデータ) (2022-03-10T04:46:51Z) - Towards Compositional Adversarial Robustness: Generalizing Adversarial
Training to Composite Semantic Perturbations [70.05004034081377]
まず,合成逆数例を生成する新しい手法を提案する。
本手法は, コンポーネントワイド射影勾配勾配を利用して最適攻撃組成を求める。
次に,モデルロバスト性を$ell_p$-ballから複合意味摂動へ拡張するための一般化逆トレーニング(GAT)を提案する。
論文 参考訳(メタデータ) (2022-02-09T02:41:56Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Adversarially Robust Classifier with Covariate Shift Adaptation [25.39995678746662]
既存の敵の訓練されたモデルは通常、テスト例に対して互いに独立して推論を行う。
単純な適応バッチ正規化(BN)技術は、ランダムな摂動に対してこれらのモデルのロバスト性を大幅に向上させることができることを示す。
さらに,適応BN手法は,敵攻撃に対する性能を高めつつも,一般的な汚職に対する堅牢性を著しく向上させることを示した。
論文 参考訳(メタデータ) (2021-02-09T19:51:56Z) - Detecting Adversarial Examples by Input Transformations, Defense
Perturbations, and Voting [71.57324258813674]
畳み込みニューラルネットワーク(CNN)は、視覚認識タスクにおいて超人的性能に達することが証明されている。
CNNは敵の例、すなわち不正な出力をネットワークに強制する悪意のある画像によって簡単に騙される。
本稿では,画像変換による敵例の検出を幅広く検討し,新しい手法を提案する。
論文 参考訳(メタデータ) (2021-01-27T14:50:41Z) - Towards Defending Multiple $\ell_p$-norm Bounded Adversarial
Perturbations via Gated Batch Normalization [120.99395850108422]
既存の敵防衛は、個々の摂動に対するモデル堅牢性を改善するのが一般的である。
最近の手法では、複数の$ell_p$球における敵攻撃に対するモデルロバスト性を改善するが、各摂動型に対するそれらの性能は、まだ十分ではない。
我々は,複数の$ell_pの有界摂動を守るために,摂動不変予測器を逆向きに訓練するGated Batch Normalization (GBN)を提案する。
論文 参考訳(メタデータ) (2020-12-03T02:26:01Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - Trace-Norm Adversarial Examples [24.091216490378567]
逆探索を異なるノルムで制限すると、異なる構成の逆の例が得られる。
構造的対向摂動は、その$l_p$カウンターパートよりも大きな歪みを許容する。
それらは、(局所的な)曖昧さのように、敵の摂動の発生をある程度制御することができる。
論文 参考訳(メタデータ) (2020-07-02T13:37:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。