論文の概要: Mitigating Black-Box Adversarial Attacks via Output Noise Perturbation
- arxiv url: http://arxiv.org/abs/2109.15160v1
- Date: Thu, 30 Sep 2021 14:24:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-01 19:27:43.407444
- Title: Mitigating Black-Box Adversarial Attacks via Output Noise Perturbation
- Title(参考訳): 出力雑音摂動によるブラックボックス攻撃の軽減
- Authors: Manjushree B. Aithal and Xiaohua Li
- Abstract要約: ブラックボックスの敵攻撃では、敵はディープニューラルネットワーク(DNN)に問い合わせる
本稿では,この攻撃を緩和するために,DNN出力に白色雑音を加える手法について検討する。
- 参考スコア(独自算出の注目度): 4.7591428725916245
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In black-box adversarial attacks, adversaries query the deep neural network
(DNN), use the output to reconstruct gradients, and then optimize the
adversarial inputs iteratively. In this paper, we study the method of adding
white noise to the DNN output to mitigate such attacks, with a unique focus on
the trade-off analysis of noise level and query cost. The attacker's query
count (QC) is derived mathematically as a function of noise standard deviation.
With this result, the defender can conveniently find the noise level needed to
mitigate attacks for the desired security level specified by QC and limited DNN
performance loss. Our analysis shows that the added noise is drastically
magnified by the small variation of DNN outputs, which makes the reconstructed
gradient have an extremely low signal-to-noise ratio (SNR). Adding slight white
noise with a standard deviation less than 0.01 is enough to increase QC by many
orders of magnitude without introducing any noticeable classification accuracy
reduction. Our experiments demonstrate that this method can effectively
mitigate both soft-label and hard-label black-box attacks under realistic QC
constraints. We also show that this method outperforms many other defense
methods and is robust to the attacker's countermeasures.
- Abstract(参考訳): ブラックボックスの敵攻撃では、敵はディープニューラルネットワーク(DNN)に問い合わせ、出力を使用して勾配を再構築し、敵の入力を反復的に最適化する。
本稿では,dnn出力にホワイトノイズを付加する手法について検討し,ノイズレベルとクエリコストのトレードオフ分析に着目した。
攻撃者のクエリカウント(QC)は、ノイズ標準偏差の関数として数学的に導出される。
これにより、ディフェンダは、QCが指定する所望のセキュリティレベルに対する攻撃とDNN性能損失の制限を緩和するために必要なノイズレベルを便利に見つけることができる。
解析の結果,DNN出力の小さな変動により付加雑音が大幅に拡大し,再構成された勾配は信号対雑音比(SNR)が極めて低いことがわかった。
標準偏差0.01未満の白色雑音を加えると、顕著な分類精度の低下を招くことなく、QCを桁違いに増大させることができる。
実験により,本手法は現実的なQC制約下でのソフトラベルとハードラベルのブラックボックス攻撃を効果的に軽減できることを示した。
また,本手法は他の多くの防御手法を上回っており,攻撃者の対策に頑健であることを示す。
関連論文リスト
- STBA: Towards Evaluating the Robustness of DNNs for Query-Limited Black-box Scenario [50.37501379058119]
本研究では,クエリ制限シナリオにおいて,悪意のある逆の例を作成するために,空間変換ブラックボックス攻撃(STBA)を提案する。
そこで本研究では,STBAが対向例の認識不能性を効果的に改善し,クエリ制限条件下での攻撃成功率を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-03-30T13:28:53Z) - Label Noise: Correcting the Forward-Correction [0.0]
ラベルノイズのあるデータセット上でニューラルネットワーク分類器を訓練することは、ノイズのあるラベルに過度に適合するリスクをもたらす。
ラベルノイズによる過度適合に対処する手法を提案する。
本研究は, オーバーフィッティングを緩和するために, トレーニング損失に低い限界を課すことを提案する。
論文 参考訳(メタデータ) (2023-07-24T19:41:19Z) - Dynamics-Aware Loss for Learning with Label Noise [73.75129479936302]
ディープニューラルネットワーク(DNN)にラベルノイズが深刻な脅威をもたらす
本稿では,この問題を解決するためにDAL(Dynamics-Aware Los)を提案する。
詳細な理論的解析と広範な実験結果の両方が,本手法の優位性を示している。
論文 参考訳(メタデータ) (2023-03-21T03:05:21Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - Neural Predictor for Black-Box Adversarial Attacks on Speech Recognition [4.5433950623674715]
本稿では, NP-Attackを提案する。NP-Attackは, 小さな対向摂動に対する探索を段階的に進化させる神経予測器に基づく手法である。
摂動方向が与えられた場合、我々の神経予測器は、誤転写を引き起こす最小の摂動を直接推定する。
実験の結果,NP-Attackは他の最先端のブラックボックス攻撃と競合する結果が得られた。
論文 参考訳(メタデータ) (2022-03-18T10:37:20Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Patch-wise++ Perturbation for Adversarial Targeted Attacks [132.58673733817838]
トランスファビリティの高い対比例の作成を目的としたパッチワイズ反復法(PIM)を提案する。
具体的には、各イテレーションのステップサイズに増幅係数を導入し、$epsilon$-constraintをオーバーフローする1ピクセルの全体的な勾配が、その周辺領域に適切に割り当てられる。
現在の攻撃方法と比較して、防御モデルでは35.9%、通常訓練されたモデルでは32.7%、成功率を大幅に向上させた。
論文 参考訳(メタデータ) (2020-12-31T08:40:42Z) - QUANOS- Adversarial Noise Sensitivity Driven Hybrid Quantization of
Neural Networks [3.2242513084255036]
QUINOSは、逆雑音感度(ANS)に基づく層特異的ハイブリッド量子化を行うフレームワークである
CIFAR10, CIFAR100データセットを用いた実験により, QUINOSは対向ロバスト性の観点から, 均一に量子化された8ビット精度のベースラインより優れていることが示された。
論文 参考訳(メタデータ) (2020-04-22T15:56:31Z) - Towards Query-Efficient Black-Box Adversary with Zeroth-Order Natural
Gradient Descent [92.4348499398224]
ブラックボックスの敵攻撃手法は、実用性や単純さから特に注目されている。
敵攻撃を設計するためのゼロ階自然勾配降下法(ZO-NGD)を提案する。
ZO-NGDは、最先端攻撃法と比較して、モデルクエリの複雑さが大幅に低い。
論文 参考訳(メタデータ) (2020-02-18T21:48:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。