論文の概要: Reliable Robustness Evaluation via Automatically Constructed Attack
Ensembles
- arxiv url: http://arxiv.org/abs/2211.12713v1
- Date: Wed, 23 Nov 2022 05:21:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 13:55:41.156466
- Title: Reliable Robustness Evaluation via Automatically Constructed Attack
Ensembles
- Title(参考訳): 自動構築アタックアンサンブルによる信頼性ロバスト性評価
- Authors: Shengcai Liu, Fu Peng, Ke Tang
- Abstract要約: 本稿では,AEを自動構築するための概念的にシンプルなアプローチであるAutoAEを提案する。
理論的には、AutoAEが与えられた防御に最適の定数要素の範囲内でAEを確実に得ることを示す。
1例を除いて、既存のAEと同等以上の堅牢性評価を達成しており、特に29例では、最もよく知られたものよりもロバスト性評価を達成している。
- 参考スコア(独自算出の注目度): 27.967480639403796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Attack Ensemble (AE), which combines multiple attacks together, provides a
reliable way to evaluate adversarial robustness. In practice, AEs are often
constructed and tuned by human experts, which however tends to be sub-optimal
and time-consuming. In this work, we present AutoAE, a conceptually simple
approach for automatically constructing AEs. In brief, AutoAE repeatedly adds
the attack and its iteration steps to the ensemble that maximizes ensemble
improvement per additional iteration consumed. We show theoretically that
AutoAE yields AEs provably within a constant factor of the optimal for a given
defense. We then use AutoAE to construct two AEs for $l_{\infty}$ and $l_2$
attacks, and apply them without any tuning or adaptation to 45 top adversarial
defenses on the RobustBench leaderboard. In all except one cases we achieve
equal or better (often the latter) robustness evaluation than existing AEs, and
notably, in 29 cases we achieve better robustness evaluation than the best
known one. Such performance of AutoAE shows itself as a reliable evaluation
protocol for adversarial robustness, which further indicates the huge potential
of automatic AE construction. Code is available at
\url{https://github.com/LeegerPENG/AutoAE}.
- Abstract(参考訳): 複数の攻撃を組み合わせるアタック・アンサンブル(AE)は、敵の堅牢性を評価する信頼性の高い方法を提供する。
実際には、AEは人間の専門家によって構築され、調整されることが多いが、これは準最適で時間を要する傾向がある。
本稿では,AEを自動構築するための概念的にシンプルなアプローチであるAutoAEを提案する。
簡単に言うと、autoaeはアタックとそのイテレーションステップをアンサンブルに追加し、追加のイテレーションに対してアンサンブルの改善を最大化する。
理論上、AutoAEは与えられた防御に最適の定数係数でAEを確実に得ることを示す。
次に、AutoAEを使用して、$l_{\infty}$と$l_2$攻撃用の2つのAEを構築し、ロバストベンチリーダーボード上の45のトップ敵防衛にチューニングや適応をせずにそれらを適用します。
1つのケースを除いて、既存のaesよりもロバスト性評価が等しく(しばしば後者)、特に29ケースでは、最もよく知られたものよりもロバスト性評価が優れています。
このようなAutoAEの性能は、自身を敵の堅牢性に対する信頼性の高い評価プロトコルとして示しており、さらに自動AE構築の可能性を示している。
コードは \url{https://github.com/LeegerPENG/AutoAE} で入手できる。
関連論文リスト
- Auto-Encoding or Auto-Regression? A Reality Check on Causality of Self-Attention-Based Sequential Recommenders [25.74765016730563]
我々は,自己注意型シーケンシャルレコメンデータのためのAEモデルとARモデルとして機能するBERT4RecとSASRecを比較した。
ARモデルは一般的に、逐次推奨でAEモデルを上回ることが分かりました。
AE/ARのパフォーマンスに関する2つの重要な視点から、潜在的な説明と洞察を提供する。
論文 参考訳(メタデータ) (2024-06-04T07:29:59Z) - Be Your Own Neighborhood: Detecting Adversarial Example by the
Neighborhood Relations Built on Self-Supervised Learning [64.78972193105443]
本稿では,予測に有効な新しいAE検出フレームワークを提案する。
AEの異常な関係と拡張バージョンを区別して検出を行う。
表現を抽出し、ラベルを予測するために、既製の自己監視学習(SSL)モデルが使用される。
論文 参考訳(メタデータ) (2022-08-31T08:18:44Z) - LAS-AT: Adversarial Training with Learnable Attack Strategy [82.88724890186094]
LAS-ATと呼ばれる「学習可能な攻撃戦略」は、モデル堅牢性を改善するための攻撃戦略を自動生成することを学ぶ。
当社のフレームワークは,強靭性向上のためのトレーニングにAEを使用するターゲットネットワークと,AE生成を制御するための攻撃戦略を生成する戦略ネットワークで構成されている。
論文 参考訳(メタデータ) (2022-03-13T10:21:26Z) - Practical Evaluation of Adversarial Robustness via Adaptive Auto Attack [96.50202709922698]
実用的な評価手法は、便利な(パラメータフリー)、効率的な(イテレーションの少ない)、信頼性を持つべきである。
本稿では,パラメータフリーな適応オートアタック (A$3$) 評価手法を提案する。
論文 参考訳(メタデータ) (2022-03-10T04:53:54Z) - What You See is Not What the Network Infers: Detecting Adversarial
Examples Based on Semantic Contradiction [14.313178290347293]
敵対的な例(AE)は、ディープニューラルネットワーク(DNN)の安全クリティカルドメインへの応用に深刻な脅威をもたらす。
本稿では,AEの本質に基づいた新しいAE検出フレームワークを提案する。
ContraNetは、特にアダプティブアタックにおいて、既存のソリューションよりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2022-01-24T13:15:31Z) - Effective and Imperceptible Adversarial Textual Attack via
Multi-objectivization [35.465844373469096]
我々はHydraTextが、最近提案された攻撃アプローチよりも、競争力のある攻撃成功率と攻撃非受容性を一貫して達成していることを示す。
人間による評価では、HydraTextによって作られたAEsは人間によるテキストと区別がつかないことが示されている。
論文 参考訳(メタデータ) (2021-11-02T12:10:58Z) - Momentum Contrastive Autoencoder: Using Contrastive Learning for Latent
Space Distribution Matching in WAE [51.09507030387935]
Wasserstein autoencoder (WAE) は、2つの分布が一致することは、このAEの潜在空間が予め指定された事前分布と一致するという制約の下で、単純なオートエンコーダ(AE)損失を最小限にすることと同値であることを示している。
本稿では,この問題を解決する手段として,自己指導型表現学習に有効であることを示すコントラスト学習フレームワークを提案する。
WAEの損失を最適化するために、対照的な学習フレームワークを使用することで、WAEの一般的なアルゴリズムと比較して、より高速に収束し、より安定した最適化が達成できることを示す。
論文 参考訳(メタデータ) (2021-10-19T22:55:47Z) - MixDefense: A Defense-in-Depth Framework for Adversarial Example
Detection Based on Statistical and Semantic Analysis [14.313178290347293]
AE検出のための多層ディフェンス・イン・ディープス・フレームワーク(MixDefense)を提案する。
入力から抽出した雑音の特徴を利用して、自然画像と改ざん画像の統計的差異を抽出し、AE検出を行う。
提案したMixDefenseソリューションは,既存のAE検出技術よりもかなり優れていることを示す。
論文 参考訳(メタデータ) (2021-04-20T15:57:07Z) - ARAE: Adversarially Robust Training of Autoencoders Improves Novelty
Detection [6.992807725367106]
オートエンコーダ(AE)は新規性検出問題にアプローチするために広く利用されている。
より意味論的に意味のある特徴を学習できる新しいAEを提案する。
よりシンプルなアーキテクチャを使用しているにもかかわらず、提案されたAEは、3つのベンチマークデータセットで最先端の競合に勝っているか、あるいは競合していることを示す。
論文 参考訳(メタデータ) (2020-03-12T09:06:41Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z) - Boosting Adversarial Training with Hypersphere Embedding [53.75693100495097]
敵対的訓練は、ディープラーニングモデルに対する敵対的攻撃に対する最も効果的な防御の1つである。
本研究では,超球埋め込み機構をATプロシージャに組み込むことを提唱する。
我々は,CIFAR-10 と ImageNet データセットに対する幅広い敵対攻撃の下で本手法を検証した。
論文 参考訳(メタデータ) (2020-02-20T08:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。