論文の概要: Spanning Attack: Reinforce Black-box Attacks with Unlabeled Data
- arxiv url: http://arxiv.org/abs/2005.04871v2
- Date: Tue, 10 Nov 2020 03:54:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-04 19:35:24.719069
- Title: Spanning Attack: Reinforce Black-box Attacks with Unlabeled Data
- Title(参考訳): Spanning攻撃: ラベルのないデータでブラックボックス攻撃を強化
- Authors: Lu Wang, Huan Zhang, Jinfeng Yi, Cho-Jui Hsieh, Yuan Jiang
- Abstract要約: Black-box攻撃は、機械学習モデルのインプット・アウトプットペアをクエリすることで、敵の摂動を発生させることを目的としている。
ブラックボックス攻撃はしばしば、入力空間の高次元性のためにクエリ非効率性の問題に悩まされる。
本研究では,低次元部分空間における逆摂動を,補助的なラベルのないデータセットに分散させることで抑制するスパンニング攻撃と呼ばれる新しい手法を提案する。
- 参考スコア(独自算出の注目度): 96.92837098305898
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial black-box attacks aim to craft adversarial perturbations by
querying input-output pairs of machine learning models. They are widely used to
evaluate the robustness of pre-trained models. However, black-box attacks often
suffer from the issue of query inefficiency due to the high dimensionality of
the input space, and therefore incur a false sense of model robustness. In this
paper, we relax the conditions of the black-box threat model, and propose a
novel technique called the spanning attack. By constraining adversarial
perturbations in a low-dimensional subspace via spanning an auxiliary unlabeled
dataset, the spanning attack significantly improves the query efficiency of a
wide variety of existing black-box attacks. Extensive experiments show that the
proposed method works favorably in both soft-label and hard-label black-box
attacks. Our code is available at https://github.com/wangwllu/spanning_attack.
- Abstract(参考訳): 敵対的ブラックボックス攻撃は、機械学習モデルの入出力ペアをクエリすることで、敵の摂動を発生させることを目的としている。
これらは、事前訓練されたモデルの堅牢性を評価するために広く利用されている。
しかし、ブラックボックス攻撃は入力空間の高次元性によってクエリ非効率の問題に陥り、モデルロバスト性の誤った感覚を生じさせることが多い。
本稿では,ブラックボックス脅威モデルの条件を緩和し,スパンディング攻撃と呼ばれる新しい手法を提案する。
補助的なラベル付きデータセットを分散することで、低次元のサブ空間における敵の摂動を制限することにより、分散攻撃は、様々なブラックボックス攻撃のクエリ効率を大幅に改善する。
広汎な実験により,提案手法はソフトラベルとハードラベルのブラックボックス攻撃の両方で有効であることがわかった。
私たちのコードはhttps://github.com/wangwllu/spanning_attackで利用可能です。
関連論文リスト
- Query Efficient Cross-Dataset Transferable Black-Box Attack on Action
Recognition [99.29804193431823]
ブラックボックスの敵攻撃は、行動認識システムに現実的な脅威をもたらす。
本稿では,摂動を発生させることにより,これらの欠点に対処する新たな行動認識攻撃を提案する。
提案手法は,最先端のクエリベースおよび転送ベース攻撃と比較して,8%,12%の偽装率を達成する。
論文 参考訳(メタデータ) (2022-11-23T17:47:49Z) - Distributed Black-box Attack: Do Not Overestimate Black-box Attacks [4.764637544913963]
ブラックボックスの敵攻撃は、モデル構造や重みへのアクセスを必要とせずに、画像分類器を誤分類する可能性がある。
最近の研究によると、攻撃の成功率は95%以上で、クエリは1000未満である。
本稿では,ローカルモデルではなく,クラウドAPIに直接ブラックボックス攻撃を適用する。
論文 参考訳(メタデータ) (2022-10-28T19:14:03Z) - Towards Lightweight Black-Box Attacks against Deep Neural Networks [70.9865892636123]
ブラックボックス攻撃は、いくつかのテストサンプルしか利用できない実用的な攻撃を引き起こす可能性があると我々は主張する。
いくつかのサンプルが必要なので、これらの攻撃を軽量なブラックボックス攻撃と呼ぶ。
近似誤差を軽減するために,Error TransFormer (ETF) を提案する。
論文 参考訳(メタデータ) (2022-09-29T14:43:03Z) - Parallel Rectangle Flip Attack: A Query-based Black-box Attack against
Object Detection [89.08832589750003]
本稿では,攻撃領域近傍の準最適検出を回避するために,ランダム探索による並列矩形フリップ攻撃(PRFA)を提案する。
提案手法は, アンカーベースやアンカーフリーなど, 様々な人気物体検出装置を効果的かつ効率的に攻撃し, 転送可能な対向例を生成する。
論文 参考訳(メタデータ) (2022-01-22T06:00:17Z) - Improving Query Efficiency of Black-box Adversarial Attack [75.71530208862319]
ニューラルプロセスに基づくブラックボックス対逆攻撃(NP-Attack)を提案する。
NP-Attackはブラックボックス設定でクエリ数を大幅に削減できる。
論文 参考訳(メタデータ) (2020-09-24T06:22:56Z) - Adversarial Eigen Attack on Black-Box Models [23.624958605512365]
ブラックボックスの敵攻撃は、AIの安全性を実践するために多くの研究の関心を集めている。
攻撃効率を改善する一般的な方法は、事前訓練された転送可能なホワイトボックスモデルからサポートを引き出すことである。
本稿では,移動可能なブラックボックス攻撃の新たな設定を提案する。攻撃者は,ネットワークパラメータが利用可能な事前学習モデルから外部情報を利用することができる。
論文 参考訳(メタデータ) (2020-08-27T07:37:43Z) - Simple and Efficient Hard Label Black-box Adversarial Attacks in Low
Query Budget Regimes [80.9350052404617]
そこで我々は,ブラックボックス攻撃の簡易かつ効率的なベイズ最適化(BO)に基づく手法を提案する。
高次元におけるBOの性能に関する問題は、構造化された低次元部分空間における逆例を探すことによって回避される。
提案手法は,10倍から20倍のクエリを必要としながら,攻撃成功率を2倍から10倍に向上させる。
論文 参考訳(メタデータ) (2020-07-13T04:34:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。