論文の概要: Efficient Black-box Adversarial Attacks via Bayesian Optimization Guided by a Function Prior
- arxiv url: http://arxiv.org/abs/2405.19098v1
- Date: Wed, 29 May 2024 14:05:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-30 17:00:54.880361
- Title: Efficient Black-box Adversarial Attacks via Bayesian Optimization Guided by a Function Prior
- Title(参考訳): 関数前処理によるベイズ最適化によるブラックボックス対向攻撃の効率化
- Authors: Shuyu Cheng, Yibo Miao, Yinpeng Dong, Xiao Yang, Xiao-Shan Gao, Jun Zhu,
- Abstract要約: 本稿では,入力クエリの出力フィードバックのみを用いて,ブラックボックスモデルに対するサンプル生成を目的としたブラックボックス逆攻撃について検討する。
ブラックボックス攻撃前の大域関数として代理モデルを利用する事前誘導ベイズ最適化(P-BO)アルゴリズムを提案する。
後悔境界に関する理論的解析は、P-BOの性能が悪影響を受けていることを示唆している。
- 参考スコア(独自算出の注目度): 36.101904669291436
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies the challenging black-box adversarial attack that aims to generate adversarial examples against a black-box model by only using output feedback of the model to input queries. Some previous methods improve the query efficiency by incorporating the gradient of a surrogate white-box model into query-based attacks due to the adversarial transferability. However, the localized gradient is not informative enough, making these methods still query-intensive. In this paper, we propose a Prior-guided Bayesian Optimization (P-BO) algorithm that leverages the surrogate model as a global function prior in black-box adversarial attacks. As the surrogate model contains rich prior information of the black-box one, P-BO models the attack objective with a Gaussian process whose mean function is initialized as the surrogate model's loss. Our theoretical analysis on the regret bound indicates that the performance of P-BO may be affected by a bad prior. Therefore, we further propose an adaptive integration strategy to automatically adjust a coefficient on the function prior by minimizing the regret bound. Extensive experiments on image classifiers and large vision-language models demonstrate the superiority of the proposed algorithm in reducing queries and improving attack success rates compared with the state-of-the-art black-box attacks. Code is available at https://github.com/yibo-miao/PBO-Attack.
- Abstract(参考訳): 本稿では,ブラックボックスモデルに対して,入力クエリの出力フィードバックのみを用いることで,ブラックボックスモデルに対する敵対的な例を生成することを目的とした,挑戦的なブラックボックス敵攻撃について検討する。
従来の手法では, 代用ホワイトボックスモデルの勾配を逆転送性によるクエリベースの攻撃に組み込むことで, クエリ効率を向上する。
しかし、局所的な勾配は十分な情報を持たず、これらの手法は依然としてクエリ集約的である。
本稿では,ブラックボックス攻撃前のグローバル関数としてサロゲートモデルを利用する事前誘導ベイズ最適化(P-BO)アルゴリズムを提案する。
代理モデルにはブラックボックスの豊富な事前情報が含まれているため、P-BOは攻撃対象を、代理モデルの損失として平均関数が初期化されるガウス過程でモデル化する。
後悔境界に関する理論的解析は、P-BOの性能が悪影響を受けていることを示唆している。
そこで本研究では,不備境界を最小化することにより,関数上の係数を自動的に調整する適応積分法を提案する。
画像分類器と大規模視覚言語モデルに対する大規模な実験により、提案アルゴリズムは、最先端のブラックボックス攻撃と比較して、クエリの削減と攻撃成功率の向上に優れていることを示した。
コードはhttps://github.com/yibo-miao/PBO-Attack.comで入手できる。
関連論文リスト
- Black-Box Tuning of Vision-Language Models with Effective Gradient
Approximation [71.21346469382821]
ブラックボックスモデルに対するテキストプロンプト最適化と出力特徴適応のための協調ブラックボックスチューニング(CBBT)を導入する。
CBBTは11のダウンストリームベンチマークで広範囲に評価され、既存のブラックボックスVL適応法と比較して顕著に改善されている。
論文 参考訳(メタデータ) (2023-12-26T06:31:28Z) - Defense Against Model Extraction Attacks on Recommender Systems [53.127820987326295]
本稿では、モデル抽出攻撃に対するリコメンデータシステムに対する防御のために、グラディエントベースのランキング最適化(GRO)を導入する。
GROは、攻撃者の代理モデルの損失を最大化しながら、保護対象モデルの損失を最小限にすることを目的としている。
その結果,モデル抽出攻撃に対するGROの防御効果は良好であった。
論文 参考訳(メタデータ) (2023-10-25T03:30:42Z) - Minimizing Maximum Model Discrepancy for Transferable Black-box Targeted
Attacks [30.863450425927613]
モデル差分の観点から,ブラックボックスの標的攻撃問題について検討する。
我々は,ブラックボックス攻撃に対する一般化誤差を提示し,攻撃の成功を保証するための厳密な理論的解析を行う。
我々は理論解析に基づいてブラックボックス攻撃のための新しいアルゴリズムを導出する。
論文 参考訳(メタデータ) (2022-12-18T08:19:08Z) - Query Efficient Cross-Dataset Transferable Black-Box Attack on Action
Recognition [99.29804193431823]
ブラックボックスの敵攻撃は、行動認識システムに現実的な脅威をもたらす。
本稿では,摂動を発生させることにより,これらの欠点に対処する新たな行動認識攻撃を提案する。
提案手法は,最先端のクエリベースおよび転送ベース攻撃と比較して,8%,12%の偽装率を達成する。
論文 参考訳(メタデータ) (2022-11-23T17:47:49Z) - T-SEA: Transfer-based Self-Ensemble Attack on Object Detection [9.794192858806905]
複数のブラックボックス検出器に対する高信頼度対向攻撃を実現するために, 1 つのモデルのみを用いて, モノ検出に対する単一モデル転送ベースブラックボックス攻撃を提案する。
我々は、パッチ最適化を正規モデル最適化と類似させ、入力データ、攻撃モデル、および敵パッチに一連の自己アンサンブルアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-16T10:27:06Z) - Query-Efficient and Scalable Black-Box Adversarial Attacks on Discrete
Sequential Data via Bayesian Optimization [10.246596695310176]
ブラックボックス設定における離散的な逐次データに基づくモデルに対する敵攻撃の問題に焦点をあてる。
我々はベイジアン最適化を用いたクエリ効率の良いブラックボックス攻撃を提案し、重要な位置を動的に計算する。
そこで我々は,摂動サイズを小さくした逆例を求めるポスト最適化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-06-17T06:11:36Z) - How to Robustify Black-Box ML Models? A Zeroth-Order Optimization
Perspective [74.47093382436823]
入力クエリと出力フィードバックだけでブラックボックスモデルを堅牢化する方法?
我々は,ブラックボックスモデルに適用可能な防御操作の一般的な概念を提案し,それを復号化スムーシング(DS)のレンズを通して設計する。
我々は,ZO-AE-DSが既存のベースラインよりも精度,堅牢性,クエリの複雑さを向上できることを実証的に示す。
論文 参考訳(メタデータ) (2022-03-27T03:23:32Z) - Query-Efficient Black-box Adversarial Attacks Guided by a Transfer-based
Prior [50.393092185611536]
対象モデルの勾配にアクセスできることなく、敵が敵の例を作らなければならないブラックボックスの敵設定を考える。
従来の手法では、代用ホワイトボックスモデルの転送勾配を用いたり、モデルクエリのフィードバックに基づいて真の勾配を近似しようとした。
偏りサンプリングと勾配平均化に基づく2つの事前誘導型ランダム勾配フリー(PRGF)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-13T04:06:27Z) - Learning Black-Box Attackers with Transferable Priors and Query Feedback [40.41083684665537]
本稿では,被害者モデルの分類信頼度のみを利用できるブラックボックス敵攻撃問題に対処する。
異なる視覚モデル間の視覚的サリエンシの整合性から着想を得たサロゲートモデルでは,移動性による攻撃性能の向上が期待されている。
シュロゲートモデルを用いた驚くほど単純なベースラインアプローチ(SimBA++)を提案する。
論文 参考訳(メタデータ) (2020-10-21T05:43:11Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。