論文の概要: Learning Black-Box Attackers with Transferable Priors and Query Feedback
- arxiv url: http://arxiv.org/abs/2010.11742v1
- Date: Wed, 21 Oct 2020 05:43:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 22:29:59.076262
- Title: Learning Black-Box Attackers with Transferable Priors and Query Feedback
- Title(参考訳): 転送可能なプリミティブとクエリフィードバックによるブラックボックスアタッカーの学習
- Authors: Jiancheng Yang, Yangzhou Jiang, Xiaoyang Huang, Bingbing Ni, Chenglong
Zhao
- Abstract要約: 本稿では,被害者モデルの分類信頼度のみを利用できるブラックボックス敵攻撃問題に対処する。
異なる視覚モデル間の視覚的サリエンシの整合性から着想を得たサロゲートモデルでは,移動性による攻撃性能の向上が期待されている。
シュロゲートモデルを用いた驚くほど単純なベースラインアプローチ(SimBA++)を提案する。
- 参考スコア(独自算出の注目度): 40.41083684665537
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper addresses the challenging black-box adversarial attack problem,
where only classification confidence of a victim model is available. Inspired
by consistency of visual saliency between different vision models, a surrogate
model is expected to improve the attack performance via transferability. By
combining transferability-based and query-based black-box attack, we propose a
surprisingly simple baseline approach (named SimBA++) using the surrogate
model, which significantly outperforms several state-of-the-art methods.
Moreover, to efficiently utilize the query feedback, we update the surrogate
model in a novel learning scheme, named High-Order Gradient Approximation
(HOGA). By constructing a high-order gradient computation graph, we update the
surrogate model to approximate the victim model in both forward and backward
pass. The SimBA++ and HOGA result in Learnable Black-Box Attack (LeBA), which
surpasses previous state of the art by considerable margins: the proposed LeBA
significantly reduces queries, while keeping higher attack success rates close
to 100% in extensive ImageNet experiments, including attacking vision
benchmarks and defensive models. Code is open source at
https://github.com/TrustworthyDL/LeBA.
- Abstract(参考訳): 本稿では,被害者モデルの分類信頼度のみを利用できるブラックボックス敵攻撃問題に対処する。
異なる視覚モデル間の視覚的サリエンシの整合性から着想を得たサロゲートモデルでは,移動性による攻撃性能の向上が期待されている。
転送可能性に基づくブラックボックス攻撃とクエリベースのブラックボックス攻撃を組み合わせることで,サロゲートモデルを用いた驚くほど単純なベースラインアプローチ(SimBA++)を提案する。
さらに,クエリフィードバックを効率的に活用するために,高次勾配近似(HOGA)と呼ばれる新しい学習手法を用いて代理モデルを更新する。
高次勾配計算グラフを構築することで、サロゲートモデルを更新し、前方と後方の両方で被害者モデルを近似する。
simba++とhogaは学習可能なブラックボックスアタック(leba)となり、それまでの最先端をかなりのマージンで越えている: 提案されたlebaはクエリを大幅に削減すると同時に、視覚ベンチマークや防御モデル攻撃を含む広範なimagenet実験において、攻撃成功率を100%に近いものに保ちながら、クエリを大幅に削減する。
コードはhttps://github.com/TrustworthyDL/LeBAで公開されている。
関連論文リスト
- Efficient Black-box Adversarial Attacks via Bayesian Optimization Guided by a Function Prior [36.101904669291436]
本稿では,入力クエリの出力フィードバックのみを用いて,ブラックボックスモデルに対するサンプル生成を目的としたブラックボックス逆攻撃について検討する。
ブラックボックス攻撃前の大域関数として代理モデルを利用する事前誘導ベイズ最適化(P-BO)アルゴリズムを提案する。
後悔境界に関する理論的解析は、P-BOの性能が悪影響を受けていることを示唆している。
論文 参考訳(メタデータ) (2024-05-29T14:05:16Z) - Defense Against Model Extraction Attacks on Recommender Systems [53.127820987326295]
本稿では、モデル抽出攻撃に対するリコメンデータシステムに対する防御のために、グラディエントベースのランキング最適化(GRO)を導入する。
GROは、攻撃者の代理モデルの損失を最大化しながら、保護対象モデルの損失を最小限にすることを目的としている。
その結果,モデル抽出攻撃に対するGROの防御効果は良好であった。
論文 参考訳(メタデータ) (2023-10-25T03:30:42Z) - Query Efficient Cross-Dataset Transferable Black-Box Attack on Action
Recognition [99.29804193431823]
ブラックボックスの敵攻撃は、行動認識システムに現実的な脅威をもたらす。
本稿では,摂動を発生させることにより,これらの欠点に対処する新たな行動認識攻撃を提案する。
提案手法は,最先端のクエリベースおよび転送ベース攻撃と比較して,8%,12%の偽装率を達成する。
論文 参考訳(メタデータ) (2022-11-23T17:47:49Z) - T-SEA: Transfer-based Self-Ensemble Attack on Object Detection [9.794192858806905]
複数のブラックボックス検出器に対する高信頼度対向攻撃を実現するために, 1 つのモデルのみを用いて, モノ検出に対する単一モデル転送ベースブラックボックス攻撃を提案する。
我々は、パッチ最適化を正規モデル最適化と類似させ、入力データ、攻撃モデル、および敵パッチに一連の自己アンサンブルアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-16T10:27:06Z) - Adversarial Pixel Restoration as a Pretext Task for Transferable
Perturbations [54.1807206010136]
トランスファー可能な敵攻撃は、事前訓練された代理モデルと既知のラベル空間から敵を最適化し、未知のブラックボックスモデルを騙す。
本稿では,効果的なサロゲートモデルをスクラッチからトレーニングするための自己教師型代替手段として,Adversarial Pixel Restorationを提案する。
我々のトレーニングアプローチは、敵の目標を通したオーバーフィッティングを減らすmin-maxの目標に基づいています。
論文 参考訳(メタデータ) (2022-07-18T17:59:58Z) - How to Robustify Black-Box ML Models? A Zeroth-Order Optimization
Perspective [74.47093382436823]
入力クエリと出力フィードバックだけでブラックボックスモデルを堅牢化する方法?
我々は,ブラックボックスモデルに適用可能な防御操作の一般的な概念を提案し,それを復号化スムーシング(DS)のレンズを通して設計する。
我々は,ZO-AE-DSが既存のベースラインよりも精度,堅牢性,クエリの複雑さを向上できることを実証的に示す。
論文 参考訳(メタデータ) (2022-03-27T03:23:32Z) - Black-box Adversarial Attacks in Autonomous Vehicle Technology [4.215251065887861]
ブラックボックスの逆転攻撃は、自動運転車が他の車両や歩行者に衝突する重要なシーン要素の重大な誤分類を引き起こします。
転送ベース攻撃法におけるWhite-box Sourceの使用を克服するために,Modified Simple Black-box attack (M-SimBA) と呼ばれる新しいクエリベースの攻撃手法を提案する。
提案モデルは, 伝達型投影勾配降下(t-pgd), simbaといった既存モデルよりも収束時間, 混乱したクラス確率分布の平坦化, 真のクラスに対する信頼度の低い逆サンプルの生成に優れることを示した。
論文 参考訳(メタデータ) (2021-01-15T13:18:18Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。