論文の概要: Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks
- arxiv url: http://arxiv.org/abs/2003.01690v2
- Date: Tue, 4 Aug 2020 18:31:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 21:51:29.074876
- Title: Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks
- Title(参考訳): 多様なパラメータフリーアタックのアンサンブルによる対向ロバスト性の評価
- Authors: Francesco Croce, Matthias Hein
- Abstract要約: 本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
- 参考スコア(独自算出の注目度): 65.20660287833537
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The field of defense strategies against adversarial attacks has significantly
grown over the last years, but progress is hampered as the evaluation of
adversarial defenses is often insufficient and thus gives a wrong impression of
robustness. Many promising defenses could be broken later on, making it
difficult to identify the state-of-the-art. Frequent pitfalls in the evaluation
are improper tuning of hyperparameters of the attacks, gradient obfuscation or
masking. In this paper we first propose two extensions of the PGD-attack
overcoming failures due to suboptimal step size and problems of the objective
function. We then combine our novel attacks with two complementary existing
ones to form a parameter-free, computationally affordable and user-independent
ensemble of attacks to test adversarial robustness. We apply our ensemble to
over 50 models from papers published at recent top machine learning and
computer vision venues. In all except one of the cases we achieve lower robust
test accuracy than reported in these papers, often by more than $10\%$,
identifying several broken defenses.
- Abstract(参考訳): 敵意攻撃に対する防衛戦略の分野は近年大きく成長してきたが、敵意攻撃の評価が不十分な場合が多く、強固さの誤った印象を与えるため、進歩は妨げられている。
多くの有望な防御は後に破られる可能性があり、最新技術を特定するのは難しい。
評価における落とし穴は、攻撃のハイパーパラメータの不適切なチューニング、勾配難読化、マスキングである。
本稿ではまず,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
次に,新たな攻撃を2つの補完的既存攻撃と組み合わせることで,パラメータフリーで計算可能で,ユーザに依存しない攻撃のアンサンブルを形成し,対向ロバスト性をテストする。
最近のトップ機械学習とコンピュータビジョンの会場で発表された論文から、50以上のモデルにアンサンブルを適用した。
そのうちの1つを除いて、これらの論文で報告されたよりもロバストなテスト精度が低く、しばしば10\%以上の費用で、いくつかの壊れた防御を特定できる。
関連論文リスト
- Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - RECESS Vaccine for Federated Learning: Proactive Defense Against Model Poisoning Attacks [20.55681622921858]
モデル中毒は、フェデレートラーニング(FL)の適用を著しく阻害する
本研究では,モデル中毒に対するRECESSという新しいプロアクティブ・ディフェンスを提案する。
各イテレーションをスコアする従来の方法とは異なり、RECESSはクライアントのパフォーマンス相関を複数のイテレーションで考慮し、信頼スコアを見積もる。
論文 参考訳(メタデータ) (2023-10-09T06:09:01Z) - MultiRobustBench: Benchmarking Robustness Against Multiple Attacks [86.70417016955459]
機械学習(ML)モデルに対するマルチアタックを検討するための,最初の統一フレームワークを提案する。
我々のフレームワークは、テストタイムの敵について異なるレベルの学習者の知識をモデル化することができる。
9種類の攻撃に対して16種類の防御モデルの有効性を評価した。
論文 参考訳(メタデータ) (2023-02-21T20:26:39Z) - Rethinking Textual Adversarial Defense for Pre-trained Language Models [79.18455635071817]
文献レビューでは、事前訓練された言語モデル(PrLM)が敵の攻撃に弱いことが示されている。
本稿では、現在の敵攻撃アプローチにより、より自然で知覚不能な敵の例を生成するための新しい指標(異常の度合い)を提案する。
我々は,我々のユニバーサル・ディフェンス・フレームワークが,他の特定のディフェンスと同等あるいはそれ以上のアフターアタック・ディフェンスの精度を達成することを示す。
論文 参考訳(メタデータ) (2022-07-21T07:51:45Z) - Increasing Confidence in Adversarial Robustness Evaluations [53.2174171468716]
本稿では,弱い攻撃を識別し,防御評価を弱めるテストを提案する。
本テストでは,各サンプルに対する逆例の存在を保証するため,ニューラルネットワークをわずかに修正した。
これまでに公表された13の防衛のうち、11の防衛について、元の防衛評価は我々のテストに失敗し、これらの防衛を破る強力な攻撃はそれを通過する。
論文 参考訳(メタデータ) (2022-06-28T13:28:13Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Attack as Defense: Characterizing Adversarial Examples using Robustness [9.020456982421958]
本稿では,攻撃を防御(A2D)と呼ぶ新しい防御フレームワークを提案する。
A2Dは、堅牢性評価のために入力を攻撃するコストを使用し、これらの堅牢度の低い例を逆数と識別します。
MNIST、CIFAR10、ImageNetの実験結果は、A2Dが最近の有望なアプローチよりも効果的であることを示している。
論文 参考訳(メタデータ) (2021-03-13T06:29:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。