論文の概要: Beware the Black-Box: on the Robustness of Recent Defenses to
Adversarial Examples
- arxiv url: http://arxiv.org/abs/2006.10876v2
- Date: Thu, 20 May 2021 19:55:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 13:04:47.622403
- Title: Beware the Black-Box: on the Robustness of Recent Defenses to
Adversarial Examples
- Title(参考訳): ブラックボックスに気をつけて:最近の防御の強固さから逆境の例へ
- Authors: Kaleel Mahmood, Deniz Gurevin, Marten van Dijk, Phuong Ha Nguyen
- Abstract要約: 我々はこれらの防御分析を拡張し、適応的なブラックボックス攻撃を含むようにした。
CIFAR-10とFashionNISTMデータセットに対する2つのブラックボックス対向モデルと6つの広く研究されている対向攻撃を用いて検討を行った。
防御は、安全とみなすためには、徹底的なホワイトボックス分析とブラックボックス分析の両方が必要である。
- 参考スコア(独自算出の注目度): 11.117775891953018
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many defenses have recently been proposed at venues like NIPS, ICML, ICLR and
CVPR. These defenses are mainly focused on mitigating white-box attacks. They
do not properly examine black-box attacks. In this paper, we expand upon the
analysis of these defenses to include adaptive black-box adversaries. Our
evaluation is done on nine defenses including Barrage of Random Transforms,
ComDefend, Ensemble Diversity, Feature Distillation, The Odds are Odd, Error
Correcting Codes, Distribution Classifier Defense, K-Winner Take All and Buffer
Zones. Our investigation is done using two black-box adversarial models and six
widely studied adversarial attacks for CIFAR-10 and Fashion-MNIST datasets. Our
analyses show most recent defenses (7 out of 9) provide only marginal
improvements in security ($<25\%$), as compared to undefended networks. For
every defense, we also show the relationship between the amount of data the
adversary has at their disposal, and the effectiveness of adaptive black-box
attacks. Overall, our results paint a clear picture: defenses need both
thorough white-box and black-box analyses to be considered secure. We provide
this large scale study and analyses to motivate the field to move towards the
development of more robust black-box defenses.
- Abstract(参考訳): NIPS、ICML、ICLR、CVPRなど、多くの防衛策が提案されている。
これらの防御は主にホワイトボックス攻撃の緩和に焦点を当てている。
ブラックボックス攻撃を適切に調べることはできない。
本稿では,これらの防御を解析し,アダプティブブラックボックス攻撃を含むように拡張する。
我々は,ランダム変換のバリア,コムデフェンド,アンサンブル多様性,特徴蒸留,オッドはオッド,エラー訂正符号,分布分類法,K-Winner Take All,Buffer Zonesの9つの防衛について評価を行った。
本研究は,2つのブラックボックス・アドバーサリアンモデルと,cifar-10とファッション・ムニストデータセットに対する6つのアドバーサリアン攻撃を用いて行う。
当社の分析によると、最近の防御策(9つ中7つ)は、未定義のネットワークに比べてセキュリティの限界的な改善(<25\%$)しか提供していない。
また, 各防衛対策において, 敵が処理したデータ量と適応的ブラックボックス攻撃の有効性の関連性を示す。
総じて、我々の結果は明らかなイメージを描いている。防御は、安全とみなすためには、徹底的なホワイトボックスとブラックボックスの両方の分析が必要である。
この大規模研究と分析により、より堅牢なブラックボックス・ディフェンスの開発に向けて、フィールドを動機づける。
関連論文リスト
- Privacy-preserving Universal Adversarial Defense for Black-box Models [20.968518031455503]
本稿では,対象モデルのパラメータやアーキテクチャへのアクセスを必要としない,汎用的なブラックボックス防御手法であるDUCDを紹介する。
このアプローチでは、データをクエリすることでターゲットモデルをクエリし、データのプライバシを保持しながら、ホワイトボックスサロゲートを生成します。
複数の画像分類データセットの実験では、DUCDは既存のブラックボックスディフェンスよりも優れており、ホワイトボックスディフェンスの精度と一致している。
論文 参考訳(メタデータ) (2024-08-20T08:40:39Z) - Counter-Samples: A Stateless Strategy to Neutralize Black Box Adversarial Attacks [2.9815109163161204]
本稿では,ブラックボックス攻撃に対する新たな防御法を提案する。
入力サンプルの衛生化に依存する従来の前処理防御とは異なり、我々の戦略は攻撃プロセス自体に対処する。
我々のアプローチは最先端のブラックボックス攻撃に対して極めて効果的であり、CIFAR-10とImageNetデータセットの双方で既存の防御性能を上回っていることを実証する。
論文 参考訳(メタデータ) (2024-03-14T10:59:54Z) - The Best Defense is a Good Offense: Adversarial Augmentation against
Adversarial Attacks [91.56314751983133]
A5$は、手元の入力に対する攻撃が失敗することを保証するために防御的摂動を構築するためのフレームワークである。
我々は,地上の真理ラベルを無視するロバスト化ネットワークを用いて,実機での防御強化を効果的に示す。
また、A5$を適用して、確実に堅牢な物理オブジェクトを作成する方法も示します。
論文 参考訳(メタデータ) (2023-05-23T16:07:58Z) - Stateful Defenses for Machine Learning Models Are Not Yet Secure Against
Black-box Attacks [28.93464970650329]
我々は、ステートフルディフェンスモデル(SDM)が、新しいタイプの適応ブラックボックス攻撃に対して非常に脆弱であることを示す。
我々はOracle-Guided Adaptive Rejection Smpling (OARS)と呼ばれる新しい適応ブラックボックス攻撃戦略を提案する。
本研究では,6つの共通ブラックボックス攻撃を強化する戦略を,現行のSDMに対して効果的に適用する方法を示す。
論文 参考訳(メタデータ) (2023-03-11T02:10:21Z) - Randomness in ML Defenses Helps Persistent Attackers and Hinders
Evaluators [49.52538232104449]
堅牢なMLディフェンスを設計することがますます重要になっている。
近年の研究では、当初最先端の攻撃に抵抗する多くの防衛は、適応的な敵によって破壊される可能性があることが判明している。
我々は、防御設計をシンプルにし、ホワイトボックスの防御は可能な限りランダム性を損なうべきだと論じる。
論文 参考訳(メタデータ) (2023-02-27T01:33:31Z) - Are Defenses for Graph Neural Networks Robust? [72.1389952286628]
グラフニューラルネットワーク(GNN)のディフェンスのほとんどは、未定義のベースラインに比べて、限界的な改善がまったく、あるいはのみであることを示す。
我々は、カスタムアダプティブアタックをゴールドスタンダードとして使用することを提唱し、そのようなアタックをうまく設計して学んだ教訓を概説する。
私たちの多彩な摂動グラフのコレクションは、モデルの堅牢性について一目でわかる(ブラックボックス)単体テストを形成します。
論文 参考訳(メタデータ) (2023-01-31T15:11:48Z) - Adversarial Defense via Image Denoising with Chaotic Encryption [65.48888274263756]
攻撃者には秘密鍵以外の全てを利用できると仮定する新しい防御法を提案する。
我々のフレームワークは、離散化ベイカーマップによる暗号化と併用した画像復号化手法を用いている。
論文 参考訳(メタデータ) (2022-03-19T10:25:02Z) - Output Randomization: A Novel Defense for both White-box and Black-box
Adversarial Models [8.189696720657247]
敵対的な例は、さまざまなシナリオでディープニューラルネットワークモデルに脅威をもたらす。
ブラックボックスモデルとホワイトボックスモデルの両方における攻撃に対する防御手段としての出力ランダム化の利用について検討する。
論文 参考訳(メタデータ) (2021-07-08T12:27:19Z) - Fighting Gradients with Gradients: Dynamic Defenses against Adversarial
Attacks [72.59081183040682]
我々は,防御エントロピー最小化(dent)により,テスト中にモデルと入力に適応する動的防御を提案する。
dentは、CIFAR-10/100およびImageNetに対する、敵に訓練された防御と名指しで訓練されたモデルの堅牢性を改善する。
論文 参考訳(メタデータ) (2021-05-18T17:55:07Z) - Theoretical Study of Random Noise Defense against Query-Based Black-Box
Attacks [72.8152874114382]
本研究では、クエリベースのブラックボックス攻撃に対するランダムノイズ防御(RND)と呼ばれる単純だが有望な防御手法を検討する。
軽量で、既製のモデルやその他の防衛戦略と直接組み合わせることができます。
本研究では,クエリベースのブラックボックス攻撃に対する rnd の防御効果と対応する適応攻撃がマグニチュード比に大きく依存することを示すための理論的解析を行った。
論文 参考訳(メタデータ) (2021-04-23T08:39:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。