論文の概要: Blacklight: Scalable Defense for Neural Networks against Query-Based
Black-Box Attacks
- arxiv url: http://arxiv.org/abs/2006.14042v3
- Date: Thu, 9 Jun 2022 05:11:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 12:42:32.435400
- Title: Blacklight: Scalable Defense for Neural Networks against Query-Based
Black-Box Attacks
- Title(参考訳): Blacklight:クエリベースのブラックボックス攻撃に対するニューラルネットワークのスケーラブルな防御
- Authors: Huiying Li, Shawn Shan, Emily Wenger, Jiayun Zhang, Haitao Zheng, Ben
Y. Zhao
- Abstract要約: 我々は、クエリベースのブラックボックス攻撃に対する新たな防御であるブラックライトを提案する。
Blacklightはクエリベースのブラックボックス攻撃を検出する。
我々はBlacklightを8つの最先端攻撃に対して、様々なモデルと画像分類タスクで評価する。
- 参考スコア(独自算出の注目度): 34.04323550970413
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning systems are known to be vulnerable to adversarial examples. In
particular, query-based black-box attacks do not require knowledge of the deep
learning model, but can compute adversarial examples over the network by
submitting queries and inspecting returns. Recent work largely improves the
efficiency of those attacks, demonstrating their practicality on today's
ML-as-a-service platforms.
We propose Blacklight, a new defense against query-based black-box
adversarial attacks. The fundamental insight driving our design is that, to
compute adversarial examples, these attacks perform iterative optimization over
the network, producing image queries highly similar in the input space.
Blacklight detects query-based black-box attacks by detecting highly similar
queries, using an efficient similarity engine operating on probabilistic
content fingerprints. We evaluate Blacklight against eight state-of-the-art
attacks, across a variety of models and image classification tasks. Blacklight
identifies them all, often after only a handful of queries. By rejecting all
detected queries, Blacklight prevents any attack to complete, even when
attackers persist to submit queries after account ban or query rejection.
Blacklight is also robust against several powerful countermeasures, including
an optimal black-box attack that approximates white-box attacks in efficiency.
Finally, we illustrate how Blacklight generalizes to other domains like text
classification.
- Abstract(参考訳): ディープラーニングシステムは敵の例に弱いことが知られている。
特に、クエリベースのブラックボックス攻撃は、ディープラーニングモデルの知識を必要としないが、クエリを送信してリターンを検査することで、ネットワーク上の敵例を計算することができる。
最近の作業は、これらの攻撃の効率を大幅に改善し、今日のML-as-a-serviceプラットフォームにおける実用性を実証している。
我々は,クエリベースのブラックボックス攻撃に対する新たな防御手法であるblacklightを提案する。
我々の設計を導く基本的な洞察は、敵の例を計算するために、これらの攻撃はネットワーク上で反復的な最適化を行い、入力空間で非常によく似た画像クエリを生成することである。
Blacklightは、確率的コンテンツ指紋で動作する効率的な類似性エンジンを使用して、非常に類似したクエリを検出することで、クエリベースのブラックボックス攻撃を検出する。
我々はBlacklightを8つの最先端攻撃に対して、様々なモデルと画像分類タスクで評価する。
Blacklightは、ほんの数クエリの後に、それらをすべて特定する。
すべての検出されたクエリを拒否することで、攻撃者がアカウント禁止やクエリ拒否の後にクエリを送信し続ける場合でも、攻撃が完了するのを防ぎます。
ブラックライトは、ホワイトボックス攻撃を効率良く近似するブラックボックス攻撃など、いくつかの強力な対策にも耐えられる。
最後に、blacklightがテキスト分類のような他のドメインにどのように一般化するかを説明します。
関連論文リスト
- BruSLeAttack: A Query-Efficient Score-Based Black-Box Sparse Adversarial Attack [22.408968332454062]
モデルクエリに対するスコアベースの応答を単純に観察することで、スパース対逆サンプルを生成するという、独特であまりよく理解されていない問題について検討する。
この問題に対するBruSLeAttackアルゴリズムを開発した。
私たちの作業は、モデル脆弱性の迅速な評価を促進し、デプロイされたシステムの安全性、セキュリティ、信頼性に対する警戒を高めます。
論文 参考訳(メタデータ) (2024-04-08T08:59:26Z) - Certifiable Black-Box Attacks with Randomized Adversarial Examples: Breaking Defenses with Provable Confidence [34.35162562625252]
ブラックボックスの敵攻撃は、機械学習モデルを妥協する強力な可能性を示している。
証明可能な保証付きブラックボックス攻撃の新たなパラダイムについて検討する。
この新しいブラックボックス攻撃は、機械学習モデルの重大な脆弱性を露呈する。
論文 参考訳(メタデータ) (2023-04-10T01:12:09Z) - Stateful Defenses for Machine Learning Models Are Not Yet Secure Against
Black-box Attacks [28.93464970650329]
我々は、ステートフルディフェンスモデル(SDM)が、新しいタイプの適応ブラックボックス攻撃に対して非常に脆弱であることを示す。
我々はOracle-Guided Adaptive Rejection Smpling (OARS)と呼ばれる新しい適応ブラックボックス攻撃戦略を提案する。
本研究では,6つの共通ブラックボックス攻撃を強化する戦略を,現行のSDMに対して効果的に適用する方法を示す。
論文 参考訳(メタデータ) (2023-03-11T02:10:21Z) - Query Efficient Cross-Dataset Transferable Black-Box Attack on Action
Recognition [99.29804193431823]
ブラックボックスの敵攻撃は、行動認識システムに現実的な脅威をもたらす。
本稿では,摂動を発生させることにより,これらの欠点に対処する新たな行動認識攻撃を提案する。
提案手法は,最先端のクエリベースおよび転送ベース攻撃と比較して,8%,12%の偽装率を達成する。
論文 参考訳(メタデータ) (2022-11-23T17:47:49Z) - Distributed Black-box Attack: Do Not Overestimate Black-box Attacks [4.764637544913963]
ブラックボックスの敵攻撃は、モデル構造や重みへのアクセスを必要とせずに、画像分類器を誤分類する可能性がある。
最近の研究によると、攻撃の成功率は95%以上で、クエリは1000未満である。
本稿では,ローカルモデルではなく,クラウドAPIに直接ブラックボックス攻撃を適用する。
論文 参考訳(メタデータ) (2022-10-28T19:14:03Z) - Towards Lightweight Black-Box Attacks against Deep Neural Networks [70.9865892636123]
ブラックボックス攻撃は、いくつかのテストサンプルしか利用できない実用的な攻撃を引き起こす可能性があると我々は主張する。
いくつかのサンプルが必要なので、これらの攻撃を軽量なブラックボックス攻撃と呼ぶ。
近似誤差を軽減するために,Error TransFormer (ETF) を提案する。
論文 参考訳(メタデータ) (2022-09-29T14:43:03Z) - Parallel Rectangle Flip Attack: A Query-based Black-box Attack against
Object Detection [89.08832589750003]
本稿では,攻撃領域近傍の準最適検出を回避するために,ランダム探索による並列矩形フリップ攻撃(PRFA)を提案する。
提案手法は, アンカーベースやアンカーフリーなど, 様々な人気物体検出装置を効果的かつ効率的に攻撃し, 転送可能な対向例を生成する。
論文 参考訳(メタデータ) (2022-01-22T06:00:17Z) - Local Black-box Adversarial Attacks: A Query Efficient Approach [64.98246858117476]
アドリアックは、セキュリティに敏感なシナリオにおけるディープニューラルネットワークの適用を脅かしている。
ブラックボックス攻撃における限られたクエリ内でのみクリーンな例の識別領域を摂動させる新しいフレームワークを提案する。
攻撃成功率の高いブラックボックス摂動時のクエリ効率を大幅に改善できることを示すため,広範な実験を行った。
論文 参考訳(メタデータ) (2021-01-04T15:32:16Z) - Improving Query Efficiency of Black-box Adversarial Attack [75.71530208862319]
ニューラルプロセスに基づくブラックボックス対逆攻撃(NP-Attack)を提案する。
NP-Attackはブラックボックス設定でクエリ数を大幅に削減できる。
論文 参考訳(メタデータ) (2020-09-24T06:22:56Z) - Spanning Attack: Reinforce Black-box Attacks with Unlabeled Data [96.92837098305898]
Black-box攻撃は、機械学習モデルのインプット・アウトプットペアをクエリすることで、敵の摂動を発生させることを目的としている。
ブラックボックス攻撃はしばしば、入力空間の高次元性のためにクエリ非効率性の問題に悩まされる。
本研究では,低次元部分空間における逆摂動を,補助的なラベルのないデータセットに分散させることで抑制するスパンニング攻撃と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-05-11T05:57:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。