論文の概要: Certifiable Black-Box Attack: Ensuring Provably Successful Attack for
Adversarial Examples
- arxiv url: http://arxiv.org/abs/2304.04343v1
- Date: Mon, 10 Apr 2023 01:12:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 16:15:50.600342
- Title: Certifiable Black-Box Attack: Ensuring Provably Successful Attack for
Adversarial Examples
- Title(参考訳): 証明可能なブラックボックス攻撃: 敵の例に対する確実な攻撃の保証
- Authors: Hanbin Hong and Yuan Hong
- Abstract要約: ブラックボックスの敵攻撃は、機械学習モデルを逆転させる強い可能性を示している。
我々は、攻撃の成功率を保証できる認証されたブラックボックス攻撃という、敵対的攻撃の新しいパラダイムを研究するための第一歩を踏み出します。
理論的および実験的な結果により、提案した認証攻撃の有効性が検証された。
- 参考スコア(独自算出の注目度): 11.88824824539345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Black-box adversarial attacks have shown strong potential to subvert machine
learning models. Existing black-box adversarial attacks craft the adversarial
examples by iteratively querying the target model and/or leveraging the
transferability of a local surrogate model. Whether such attack can succeed
remains unknown to the adversary when empirically designing the attack. In this
paper, to our best knowledge, we take the first step to study a new paradigm of
adversarial attacks -- certifiable black-box attack that can guarantee the
attack success rate of the crafted adversarial examples. Specifically, we
revise the randomized smoothing to establish novel theories for ensuring the
attack success rate of the adversarial examples. To craft the adversarial
examples with the certifiable attack success rate (CASR) guarantee, we design
several novel techniques, including a randomized query method to query the
target model, an initialization method with smoothed self-supervised
perturbation to derive certifiable adversarial examples, and a geometric
shifting method to reduce the perturbation size of the certifiable adversarial
examples for better imperceptibility. We have comprehensively evaluated the
performance of the certifiable black-box attack on CIFAR10 and ImageNet
datasets against different levels of defenses. Both theoretical and
experimental results have validated the effectiveness of the proposed
certifiable attack.
- Abstract(参考訳): ブラックボックスの敵攻撃は、機械学習モデルを覆す強力な可能性を示している。
既存のブラックボックス敵攻撃は、ターゲットモデルを反復的にクエリし、またはローカルサロゲートモデルの転送可能性を活用することで敵の例を作る。
このような攻撃が成功するかどうかはまだ明らかになっていない。
本稿では, 敵攻撃の新たなパラダイムとして, 敵攻撃の成功率を保証できる認証されたブラックボックス攻撃について, 最善を尽くすための第一歩を踏み出した。
具体的には, ランダム化平滑化法を改訂し, 攻撃成功率を確保するための新理論を確立した。
検証可能な攻撃成功率(CASR)を保証するために,対象モデルを問合せするためのランダムなクエリ手法,認証可能な敵を導出するためのスムーズな自己教師型摂動の初期化手法,認証可能な敵の摂動サイズを削減する幾何学的シフト手法など,いくつかの新しい手法を設計する。
我々は、CIFAR10およびImageNetデータセットに対する認証ブラックボックス攻撃の性能を、異なるレベルの防御に対して総合的に評価した。
理論および実験の結果から,提案する検証可能な攻撃の有効性が検証された。
関連論文リスト
- BruSLeAttack: A Query-Efficient Score-Based Black-Box Sparse Adversarial Attack [22.408968332454062]
モデルクエリに対するスコアベースの応答を単純に観察することで、スパース対逆サンプルを生成するという、独特であまりよく理解されていない問題について検討する。
この問題に対するBruSLeAttackアルゴリズムを開発した。
私たちの作業は、モデル脆弱性の迅速な評価を促進し、デプロイされたシステムの安全性、セキュリティ、信頼性に対する警戒を高めます。
論文 参考訳(メタデータ) (2024-04-08T08:59:26Z) - A Random Ensemble of Encrypted Vision Transformers for Adversarially
Robust Defense [6.476298483207895]
ディープニューラルネットワーク(DNN)は、敵の例(AE)に弱いことがよく知られている。
ホワイトボックス攻撃とブラックボックス攻撃の双方に対してロバスト性を高めるために,暗号化されたモデルのランダムアンサンブルである視覚変換器(ViT)を用いた新しい手法を提案する。
実験では, 画像分類作業において, ホワイトボックス攻撃だけでなくブラックボックス攻撃に対しても頑健であることが実証された。
論文 参考訳(メタデータ) (2024-02-11T12:35:28Z) - Understanding the Robustness of Randomized Feature Defense Against
Query-Based Adversarial Attacks [23.010308600769545]
ディープニューラルネットワークは、元の画像に近いサンプルを見つける敵の例に弱いが、モデルを誤分類させる可能性がある。
モデル中間層における隠れた特徴にランダムノイズを付加することにより,ブラックボックス攻撃に対する簡易かつ軽量な防御法を提案する。
本手法は,スコアベースと決定ベースの両方のブラックボックス攻撃に対するモデルのレジリエンスを効果的に向上させる。
論文 参考訳(メタデータ) (2023-10-01T03:53:23Z) - Ensemble-based Blackbox Attacks on Dense Prediction [16.267479602370543]
慎重に設計されたアンサンブルは、多くの犠牲者モデルに対して効果的な攻撃を発生させることができることを示す。
特に,個々のモデルに対する重み付けの正規化が,攻撃の成功に重要な役割を担っていることを示す。
提案手法は同時に複数のブラックボックス検出とセグメンテーションモデルを騙すことができる単一摂動を生成することができる。
論文 参考訳(メタデータ) (2023-03-25T00:08:03Z) - MultiRobustBench: Benchmarking Robustness Against Multiple Attacks [86.70417016955459]
機械学習(ML)モデルに対するマルチアタックを検討するための,最初の統一フレームワークを提案する。
我々のフレームワークは、テストタイムの敵について異なるレベルの学習者の知識をモデル化することができる。
9種類の攻撃に対して16種類の防御モデルの有効性を評価した。
論文 参考訳(メタデータ) (2023-02-21T20:26:39Z) - Towards Lightweight Black-Box Attacks against Deep Neural Networks [70.9865892636123]
ブラックボックス攻撃は、いくつかのテストサンプルしか利用できない実用的な攻撃を引き起こす可能性があると我々は主張する。
いくつかのサンプルが必要なので、これらの攻撃を軽量なブラックボックス攻撃と呼ぶ。
近似誤差を軽減するために,Error TransFormer (ETF) を提案する。
論文 参考訳(メタデータ) (2022-09-29T14:43:03Z) - Small Input Noise is Enough to Defend Against Query-based Black-box
Attacks [23.712389625037442]
本稿では,クエリベースのブラックボックス攻撃に対して,ノイズ防御がいかに小さいかを示す。
小さな追加入力ノイズでも、ほとんどのクエリベースの攻撃を中和できます。
強力な防御能力を持つSNDは、元のクリーンな精度と計算速度をほぼ維持します。
論文 参考訳(メタデータ) (2021-01-13T01:45:59Z) - Improving Query Efficiency of Black-box Adversarial Attack [75.71530208862319]
ニューラルプロセスに基づくブラックボックス対逆攻撃(NP-Attack)を提案する。
NP-Attackはブラックボックス設定でクエリ数を大幅に削減できる。
論文 参考訳(メタデータ) (2020-09-24T06:22:56Z) - Simple and Efficient Hard Label Black-box Adversarial Attacks in Low
Query Budget Regimes [80.9350052404617]
そこで我々は,ブラックボックス攻撃の簡易かつ効率的なベイズ最適化(BO)に基づく手法を提案する。
高次元におけるBOの性能に関する問題は、構造化された低次元部分空間における逆例を探すことによって回避される。
提案手法は,10倍から20倍のクエリを必要としながら,攻撃成功率を2倍から10倍に向上させる。
論文 参考訳(メタデータ) (2020-07-13T04:34:57Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z) - Spanning Attack: Reinforce Black-box Attacks with Unlabeled Data [96.92837098305898]
Black-box攻撃は、機械学習モデルのインプット・アウトプットペアをクエリすることで、敵の摂動を発生させることを目的としている。
ブラックボックス攻撃はしばしば、入力空間の高次元性のためにクエリ非効率性の問題に悩まされる。
本研究では,低次元部分空間における逆摂動を,補助的なラベルのないデータセットに分散させることで抑制するスパンニング攻撃と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-05-11T05:57:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。