論文の概要: Theoretical Study of Random Noise Defense against Query-Based Black-Box
Attacks
- arxiv url: http://arxiv.org/abs/2104.11470v1
- Date: Fri, 23 Apr 2021 08:39:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-26 19:05:48.183451
- Title: Theoretical Study of Random Noise Defense against Query-Based Black-Box
Attacks
- Title(参考訳): クエリベースブラックボックス攻撃に対するランダムノイズ防御に関する理論的研究
- Authors: Zeyu Qin, Yanbo Fan, Hongyuan Zha, Baoyuan Wu
- Abstract要約: 本研究では、クエリベースのブラックボックス攻撃に対するランダムノイズ防御(RND)と呼ばれる単純だが有望な防御手法を検討する。
軽量で、既製のモデルやその他の防衛戦略と直接組み合わせることができます。
本研究では,クエリベースのブラックボックス攻撃に対する rnd の防御効果と対応する適応攻撃がマグニチュード比に大きく依存することを示すための理論的解析を行った。
- 参考スコア(独自算出の注目度): 72.8152874114382
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The query-based black-box attacks, which don't require any knowledge about
the attacked models and datasets, have raised serious threats to machine
learning models in many real applications. In this work, we study a simple but
promising defense technique, dubbed Random Noise Defense (RND) against
query-based black-box attacks, which adds proper Gaussian noise to each query.
It is lightweight and can be directly combined with any off-the-shelf models
and other defense strategies. However, the theoretical guarantee of random
noise defense is missing, and the actual effectiveness of this defense is not
yet fully understood. In this work, we present solid theoretical analyses to
demonstrate that the defense effect of RND against the query-based black-box
attack and the corresponding adaptive attack heavily depends on the magnitude
ratio between the random noise added by the defender (i.e., RND) and the random
noise added by the attacker for gradient estimation. Extensive experiments on
CIFAR-10 and ImageNet verify our theoretical studies. Based on RND, we also
propose a stronger defense method that combines RND with Gaussian augmentation
training (RND-GT) and achieves better defense performance.
- Abstract(参考訳): クエリベースのブラックボックス攻撃は、攻撃されたモデルやデータセットに関する知識を必要とせず、多くの実際のアプリケーションで機械学習モデルに深刻な脅威をもたらしている。
本研究では,クエリベースのブラックボックス攻撃に対して,Random Noise Defense (RND) と呼ばれるシンプルだが有望な防御手法について検討する。
軽量で、既製のモデルや他の防御戦略と直接組み合わせることができる。
しかし、無作為な防音の理論的な保証は失われており、この防御の実際の効果はまだ完全には分かっていない。
本研究では,問合せベースのブラックボックス攻撃に対するRNDの防御効果と,それに対応する適応攻撃が,ディフェンダー(RND)が付加するランダムノイズと,アタッカーがグラデーション推定のために付加するランダムノイズとの大きさ比に大きく依存していることを示す。
CIFAR-10とImageNetの大規模な実験は、我々の理論的研究を検証する。
また,RNDとガウシアン増強訓練(RND-GT)を組み合わせたより強力な防御手法を提案し,より優れた防御性能を実現する。
関連論文リスト
- Noise as a Double-Edged Sword: Reinforcement Learning Exploits Randomized Defenses in Neural Networks [1.788784870849724]
本研究では,騒音による防御が,特定のシナリオにおける回避攻撃を不注意に支援する可能性について検討する。
ノイズベースの防御は、RL攻撃者に有益な敵の訓練ループを不注意に作成する場合もある。
ランダム性は、回避攻撃に対する防衛を普遍的に強化する、という仮定に挑戦する。
論文 参考訳(メタデータ) (2024-10-31T12:22:19Z) - From Attack to Defense: Insights into Deep Learning Security Measures in Black-Box Settings [1.8006345220416338]
敵のサンプルは深刻な脅威となり、モデルがそのようなアプリケーションの性能を誤解し、損なう可能性がある。
ディープラーニングモデルの堅牢性に対処することは、敵の攻撃を理解し防御するために重要になっている。
我々の研究は、SimBA、HopSkipJump、MGAAttack、境界攻撃などのブラックボックス攻撃、およびプリプロセッサベースの防御機構に焦点を当てている。
論文 参考訳(メタデータ) (2024-05-03T09:40:47Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Understanding the Robustness of Randomized Feature Defense Against
Query-Based Adversarial Attacks [23.010308600769545]
ディープニューラルネットワークは、元の画像に近いサンプルを見つける敵の例に弱いが、モデルを誤分類させる可能性がある。
モデル中間層における隠れた特徴にランダムノイズを付加することにより,ブラックボックス攻撃に対する簡易かつ軽量な防御法を提案する。
本手法は,スコアベースと決定ベースの両方のブラックボックス攻撃に対するモデルのレジリエンスを効果的に向上させる。
論文 参考訳(メタデータ) (2023-10-01T03:53:23Z) - Isolation and Induction: Training Robust Deep Neural Networks against
Model Stealing Attacks [51.51023951695014]
既存のモデル盗難防衛は、被害者の後部確率に偽りの摂動を加え、攻撃者を誤解させる。
本稿では,モデルステルス防衛のための新規かつ効果的なトレーニングフレームワークである分離誘導(InI)を提案する。
モデルの精度を損なうモデル予測に摂動を加えるのとは対照的に、我々はモデルを訓練して、盗むクエリに対して非形式的なアウトプットを生成する。
論文 参考訳(メタデータ) (2023-08-02T05:54:01Z) - Small Input Noise is Enough to Defend Against Query-based Black-box
Attacks [23.712389625037442]
本稿では,クエリベースのブラックボックス攻撃に対して,ノイズ防御がいかに小さいかを示す。
小さな追加入力ノイズでも、ほとんどのクエリベースの攻撃を中和できます。
強力な防御能力を持つSNDは、元のクリーンな精度と計算速度をほぼ維持します。
論文 参考訳(メタデータ) (2021-01-13T01:45:59Z) - MAD-VAE: Manifold Awareness Defense Variational Autoencoder [0.0]
本稿では,防衛モデルの堅牢性を改善するためのいくつかの手法を紹介する。
MNISTデータセットに関する広範な実験により,本アルゴリズムの有効性を実証した。
また,既存の逆潜時空間攻撃の適用可能性についても論じる。
論文 参考訳(メタデータ) (2020-10-31T09:04:25Z) - Attack Agnostic Adversarial Defense via Visual Imperceptible Bound [70.72413095698961]
本研究の目的は、目視攻撃と目視攻撃の両方に対して一定の範囲内で堅牢な防衛モデルを設計することである。
提案するディフェンスモデルは,MNIST,CIFAR-10,Tiny ImageNetデータベース上で評価される。
提案アルゴリズムは攻撃非依存であり,攻撃アルゴリズムの知識を必要としない。
論文 参考訳(メタデータ) (2020-10-25T23:14:26Z) - RayS: A Ray Searching Method for Hard-label Adversarial Attack [99.72117609513589]
我々は、レイサーチ攻撃(RayS)を提案し、これはハードラベル攻撃の有効性と効率を大幅に改善する。
モデルの正当性チェックとしても使用できる。
論文 参考訳(メタデータ) (2020-06-23T07:01:50Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。