論文の概要: Output Randomization: A Novel Defense for both White-box and Black-box
Adversarial Models
- arxiv url: http://arxiv.org/abs/2107.03806v1
- Date: Thu, 8 Jul 2021 12:27:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-09 16:53:57.649003
- Title: Output Randomization: A Novel Defense for both White-box and Black-box
Adversarial Models
- Title(参考訳): 出力ランダム化: ホワイトボックスとブラックボックスの両モデルに対する新しい防御
- Authors: Daniel Park, Haidar Khan, Azer Khan, Alex Gittens, B\"ulent Yener
- Abstract要約: 敵対的な例は、さまざまなシナリオでディープニューラルネットワークモデルに脅威をもたらす。
ブラックボックスモデルとホワイトボックスモデルの両方における攻撃に対する防御手段としての出力ランダム化の利用について検討する。
- 参考スコア(独自算出の注目度): 8.189696720657247
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial examples pose a threat to deep neural network models in a variety
of scenarios, from settings where the adversary has complete knowledge of the
model in a "white box" setting and to the opposite in a "black box" setting. In
this paper, we explore the use of output randomization as a defense against
attacks in both the black box and white box models and propose two defenses. In
the first defense, we propose output randomization at test time to thwart
finite difference attacks in black box settings. Since this type of attack
relies on repeated queries to the model to estimate gradients, we investigate
the use of randomization to thwart such adversaries from successfully creating
adversarial examples. We empirically show that this defense can limit the
success rate of a black box adversary using the Zeroth Order Optimization
attack to 0%. Secondly, we propose output randomization training as a defense
against white box adversaries. Unlike prior approaches that use randomization,
our defense does not require its use at test time, eliminating the Backward
Pass Differentiable Approximation attack, which was shown to be effective
against other randomization defenses. Additionally, this defense has low
overhead and is easily implemented, allowing it to be used together with other
defenses across various model architectures. We evaluate output randomization
training against the Projected Gradient Descent attacker and show that the
defense can reduce the PGD attack's success rate down to 12% when using
cross-entropy loss.
- Abstract(参考訳): 敵対的な例は、さまざまなシナリオにおけるディープニューラルネットワークモデルに対する脅威となる。"ホワイトボックス"設定でモデルを完全に理解している設定から、"ブラックボックス"設定でモデルと逆の設定までである。
本稿では,ブラックボックスモデルとホワイトボックスモデルの両方において,攻撃に対する防御として出力ランダム化の利用を検討し,二つの防御を提案する。
第1の弁護では,ブラックボックス設定における有限差分攻撃を回避するために,テスト時の出力ランダム化を提案する。
このタイプの攻撃は、モデルへの繰り返しクエリに依存して勾配を推定するので、そのような敵が逆の例を作成するのをうまく防ぐために、ランダム化の利用について検討する。
我々は、この防御がゼロ次最適化攻撃を用いてブラックボックス敵の成功率を0%に制限できることを実証的に示す。
次に,ホワイトボックス敵に対する防御として,出力ランダム化トレーニングを提案する。
ランダム化を使用する以前のアプローチとは異なり、我々の防御はテスト時にその使用を必要とせず、他のランダム化防御に対して有効であることが示されている後方通過微分可能な近似攻撃を排除する。
さらに、この防御はオーバーヘッドが少なく、容易に実装でき、様々なモデルアーキテクチャで他の防御と併用することができる。
提案手法は,プロジェクテッド・グラディエント・ディキスト・アタックに対する出力ランダム化訓練を評価した結果,クロスエントロピー損失を用いてPGD攻撃の成功率を12%に抑えることができた。
関連論文リスト
- Counter-Samples: A Stateless Strategy to Neutralize Black Box Adversarial Attacks [2.9815109163161204]
本稿では,ブラックボックス攻撃に対する新たな防御法を提案する。
入力サンプルの衛生化に依存する従来の前処理防御とは異なり、我々の戦略は攻撃プロセス自体に対処する。
我々のアプローチは最先端のブラックボックス攻撃に対して極めて効果的であり、CIFAR-10とImageNetデータセットの双方で既存の防御性能を上回っていることを実証する。
論文 参考訳(メタデータ) (2024-03-14T10:59:54Z) - Understanding the Robustness of Randomized Feature Defense Against
Query-Based Adversarial Attacks [23.010308600769545]
ディープニューラルネットワークは、元の画像に近いサンプルを見つける敵の例に弱いが、モデルを誤分類させる可能性がある。
モデル中間層における隠れた特徴にランダムノイズを付加することにより,ブラックボックス攻撃に対する簡易かつ軽量な防御法を提案する。
本手法は,スコアベースと決定ベースの両方のブラックボックス攻撃に対するモデルのレジリエンスを効果的に向上させる。
論文 参考訳(メタデータ) (2023-10-01T03:53:23Z) - Query Efficient Cross-Dataset Transferable Black-Box Attack on Action
Recognition [99.29804193431823]
ブラックボックスの敵攻撃は、行動認識システムに現実的な脅威をもたらす。
本稿では,摂動を発生させることにより,これらの欠点に対処する新たな行動認識攻撃を提案する。
提案手法は,最先端のクエリベースおよび転送ベース攻撃と比較して,8%,12%の偽装率を達成する。
論文 参考訳(メタデータ) (2022-11-23T17:47:49Z) - On the Limitations of Stochastic Pre-processing Defenses [42.80542472276451]
敵の例に対する防御は依然として未解決の問題である。
推論におけるランダム性は、逆入力を見つけるコストを増大させるという考え方が一般的である。
本稿では,そのような前処理の防御について検討し,その欠陥を実証する。
論文 参考訳(メタデータ) (2022-06-19T21:54:42Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Parallel Rectangle Flip Attack: A Query-based Black-box Attack against
Object Detection [89.08832589750003]
本稿では,攻撃領域近傍の準最適検出を回避するために,ランダム探索による並列矩形フリップ攻撃(PRFA)を提案する。
提案手法は, アンカーベースやアンカーフリーなど, 様々な人気物体検出装置を効果的かつ効率的に攻撃し, 転送可能な対向例を生成する。
論文 参考訳(メタデータ) (2022-01-22T06:00:17Z) - Theoretical Study of Random Noise Defense against Query-Based Black-Box
Attacks [72.8152874114382]
本研究では、クエリベースのブラックボックス攻撃に対するランダムノイズ防御(RND)と呼ばれる単純だが有望な防御手法を検討する。
軽量で、既製のモデルやその他の防衛戦略と直接組み合わせることができます。
本研究では,クエリベースのブラックボックス攻撃に対する rnd の防御効果と対応する適応攻撃がマグニチュード比に大きく依存することを示すための理論的解析を行った。
論文 参考訳(メタデータ) (2021-04-23T08:39:41Z) - Local Black-box Adversarial Attacks: A Query Efficient Approach [64.98246858117476]
アドリアックは、セキュリティに敏感なシナリオにおけるディープニューラルネットワークの適用を脅かしている。
ブラックボックス攻撃における限られたクエリ内でのみクリーンな例の識別領域を摂動させる新しいフレームワークを提案する。
攻撃成功率の高いブラックボックス摂動時のクエリ効率を大幅に改善できることを示すため,広範な実験を行った。
論文 参考訳(メタデータ) (2021-01-04T15:32:16Z) - A Game Theoretic Analysis of Additive Adversarial Attacks and Defenses [4.94950858749529]
均衡状態にある攻撃や防御を研究するためのゲーム理論の枠組みを提案する。
データ生成分布から有限個のサンプルからこの平衡防衛を近似する方法を示す。
論文 参考訳(メタデータ) (2020-09-14T15:51:15Z) - Adversarial Imitation Attack [63.76805962712481]
現実的な敵攻撃は、攻撃されたモデルの知識をできるだけ少なくする必要がある。
現在の代替攻撃では、敵の例を生成するために事前訓練されたモデルが必要である。
本研究では,新たな敵模倣攻撃を提案する。
論文 参考訳(メタデータ) (2020-03-28T10:02:49Z) - Using an ensemble color space model to tackle adversarial examples [22.732023268348787]
このような攻撃を防御する3段階の手法を提案する。
まず,統計的手法を用いて画像の識別を行う。
第二に、同じモデルに複数の色空間を採用することは、これらの敵対的攻撃と戦うのに役立ちます。
論文 参考訳(メタデータ) (2020-03-10T21:20:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。