論文の概要: Gradient Masking All-at-Once: Ensemble Everything Everywhere Is Not Robust
- arxiv url: http://arxiv.org/abs/2411.14834v1
- Date: Fri, 22 Nov 2024 10:17:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-25 18:36:35.085276
- Title: Gradient Masking All-at-Once: Ensemble Everything Everywhere Is Not Robust
- Title(参考訳): あらゆるものを組み立てるグラディエント・マスク「All-at-Once」
- Authors: Jie Zhang, Kristina Nikolić, Nicholas Carlini, Florian Tramèr,
- Abstract要約: あらゆるものをアンサンブルすることは、敵の例に対する防御である。
この防御は敵の攻撃に対して堅牢ではないことを示す。
次に、標準的なアダプティブアタック技術を用いて、防御の堅牢な精度を低下させる。
- 参考スコア(独自算出の注目度): 65.95797963483729
- License:
- Abstract: Ensemble everything everywhere is a defense to adversarial examples that was recently proposed to make image classifiers robust. This defense works by ensembling a model's intermediate representations at multiple noisy image resolutions, producing a single robust classification. This defense was shown to be effective against multiple state-of-the-art attacks. Perhaps even more convincingly, it was shown that the model's gradients are perceptually aligned: attacks against the model produce noise that perceptually resembles the targeted class. In this short note, we show that this defense is not robust to adversarial attack. We first show that the defense's randomness and ensembling method cause severe gradient masking. We then use standard adaptive attack techniques to reduce the defense's robust accuracy from 48% to 1% on CIFAR-100 and from 62% to 4% on CIFAR-10, under the $\ell_\infty$-norm threat model with $\varepsilon=8/255$.
- Abstract(参考訳): あらゆるものをアンサンブルすることは、画像分類器を堅牢にするために最近提案された敵の例に対する防御である。
この防御は、モデルの中間表現を複数のノイズの多い画像解像度でアンサンブルすることで機能し、単一のロバストな分類を生成する。
この防御は、複数の最先端攻撃に対して有効であることが示されている。
さらに説得力のあることには、モデルの勾配が知覚的に一致していることが示されている: モデルに対する攻撃は、知覚的にターゲットクラスに類似するノイズを生み出す。
本報告では,この防御は敵の攻撃に対して堅牢ではないことを示す。
まず,防御のランダム性とアンサンブル法が重度の勾配マスキングを引き起こすことを示す。
次に、標準適応攻撃手法を用いて、CIFAR-100では48%から1%、CIFAR-10では62%から4%に、$\ell_\infty$-normの脅威モデルで$\varepsilon=8/255$で防御の堅牢な精度を下げる。
関連論文リスト
- Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - PubDef: Defending Against Transfer Attacks From Public Models [6.0012551318569285]
本稿では,公用サロゲートモデルによる転送攻撃を敵が頼りにする,新たな実用的脅威モデルを提案する。
本研究では,この環境での移動攻撃を評価し,ゲーム理論の観点から専門的な防御手法を提案する。
この脅威モデルの下では、我々の防衛であるPubDefは、最先端のホワイトボックス対敵訓練を、通常の精度でほとんど損なわない大きなマージンで上回っている。
論文 参考訳(メタデータ) (2023-10-26T17:58:08Z) - The Best Defense is a Good Offense: Adversarial Augmentation against
Adversarial Attacks [91.56314751983133]
A5$は、手元の入力に対する攻撃が失敗することを保証するために防御的摂動を構築するためのフレームワークである。
我々は,地上の真理ラベルを無視するロバスト化ネットワークを用いて,実機での防御強化を効果的に示す。
また、A5$を適用して、確実に堅牢な物理オブジェクトを作成する方法も示します。
論文 参考訳(メタデータ) (2023-05-23T16:07:58Z) - MORA: Improving Ensemble Robustness Evaluation with Model-Reweighing
Attack [26.37741124166643]
敵攻撃は、入力データに小さな摂動を加えることで、ニューラルネットワークを騙すことができる。
敵の攻撃戦略は、アンサンブル防御を確実に評価することができず、その頑健さをかなり過大評価できることを示す。
我々は, モデル勾配の重要性を再考することにより, モデル修正攻撃であるMORAを紹介した。
論文 参考訳(メタデータ) (2022-11-15T09:45:32Z) - Adversarial Defense via Image Denoising with Chaotic Encryption [65.48888274263756]
攻撃者には秘密鍵以外の全てを利用できると仮定する新しい防御法を提案する。
我々のフレームワークは、離散化ベイカーマップによる暗号化と併用した画像復号化手法を用いている。
論文 参考訳(メタデータ) (2022-03-19T10:25:02Z) - Fighting Gradients with Gradients: Dynamic Defenses against Adversarial
Attacks [72.59081183040682]
我々は,防御エントロピー最小化(dent)により,テスト中にモデルと入力に適応する動的防御を提案する。
dentは、CIFAR-10/100およびImageNetに対する、敵に訓練された防御と名指しで訓練されたモデルの堅牢性を改善する。
論文 参考訳(メタデータ) (2021-05-18T17:55:07Z) - "What's in the box?!": Deflecting Adversarial Attacks by Randomly
Deploying Adversarially-Disjoint Models [71.91835408379602]
敵の例は長い間、機械学習モデルに対する真の脅威と考えられてきた。
我々は、従来のホワイトボックスやブラックボックスの脅威モデルを超えた、配置ベースの防衛パラダイムを提案する。
論文 参考訳(メタデータ) (2021-02-09T20:07:13Z) - Ensemble of Models Trained by Key-based Transformed Images for
Adversarially Robust Defense Against Black-box Attacks [17.551718914117917]
ブロックワイズ変換された画像と秘密鍵を用いて、対向的に頑健な防御のために訓練されたモデルの投票アンサンブルを提案する。
鍵ベースの敵防衛は、勾配に基づく(ホワイトボックス)攻撃に対する最先端の防御よりも優れていた。
我々は,モデルの投票アンサンブルを用いて,ブラックボックス攻撃に対する堅牢性を高めることを目的としている。
論文 参考訳(メタデータ) (2020-11-16T02:48:37Z) - Encryption Inspired Adversarial Defense for Visual Classification [17.551718914117917]
本稿では,画像暗号化方式に触発された新たな敵防御手法を提案する。
提案手法は秘密鍵を用いたブロックワイズ画素シャッフル方式を用いる。
精度が高い(クリーン画像91.55、CIFAR-10データセットでノイズ距離8/255の逆例89.66)。
論文 参考訳(メタデータ) (2020-05-16T14:18:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。