論文の概要: Switching Transferable Gradient Directions for Query-Efficient Black-Box
Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2009.07191v2
- Date: Thu, 13 May 2021 12:47:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 06:42:01.693780
- Title: Switching Transferable Gradient Directions for Query-Efficient Black-Box
Adversarial Attacks
- Title(参考訳): クエリ効率の良いブラックボックス攻撃に対する転送可能なグラディエント方向の切り替え
- Authors: Chen Ma, Shuyu Cheng, Li Chen, Jun Zhu, Junhai Yong
- Abstract要約: SWITCH という,単純でクエリ効率のよいブラックボックス攻撃を提案する。
SWITCHは、サロゲートモデルの勾配を非常に効率的かつ効果的に利用している。
CIFAR-10, CIFAR-100, TinyImageNetで行った実験の結果, SWITCHは良好な攻撃成功率を示した。
- 参考スコア(独自算出の注目度): 38.91061792696202
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a simple and highly query-efficient black-box adversarial attack
named SWITCH, which has a state-of-the-art performance in the score-based
setting. SWITCH features a highly efficient and effective utilization of the
gradient of a surrogate model $\hat{\mathbf{g}}$ w.r.t. the input image, i.e.,
the transferable gradient. In each iteration, SWITCH first tries to update the
current sample along the direction of $\hat{\mathbf{g}}$, but considers
switching to its opposite direction $-\hat{\mathbf{g}}$ if our algorithm
detects that it does not increase the value of the attack objective function.
We justify the choice of switching to the opposite direction by a local
approximate linearity assumption. In SWITCH, only one or two queries are needed
per iteration, but it is still effective due to the rich information provided
by the transferable gradient, thereby resulting in unprecedented query
efficiency. To improve the robustness of SWITCH, we further propose
SWITCH$_\text{RGF}$ in which the update follows the direction of a random
gradient-free (RGF) estimate when neither $\hat{\mathbf{g}}$ nor its opposite
direction can increase the objective, while maintaining the advantage of SWITCH
in terms of query efficiency. Experimental results conducted on CIFAR-10,
CIFAR-100 and TinyImageNet show that compared with other methods, SWITCH
achieves a satisfactory attack success rate using much fewer queries, and
SWITCH$_\text{RGF}$ achieves the state-of-the-art attack success rate with
fewer queries overall. Our approach can serve as a strong baseline for future
black-box attacks because of its simplicity. The PyTorch source code is
released on https://github.com/machanic/SWITCH.
- Abstract(参考訳): 本稿では,スコアベース設定において最先端の性能を持つswitchという,単純かつ高クエリ効率なブラックボックス敵攻撃を提案する。
switch は、入力画像、すなわち転送可能な勾配に対して、サロゲートモデル $\hat{\mathbf{g}}$ w.r.t の勾配を高度に効率的かつ効果的な利用を特徴としている。
各イテレーションにおいて、SWITCHはまず、現在のサンプルを$\hat{\mathbf{g}}$の方向に沿って更新しようと試みるが、攻撃対象関数の値が上昇しないことをアルゴリズムが検出した場合、その反対方向の$-\hat{\mathbf{g}}$に切り替えることを検討する。
局所近似線型性仮定により、逆方向への切り替えの選択を正当化する。
SWITCHでは、イテレーション毎に1つまたは2つのクエリしか必要としないが、転送可能な勾配によって提供される豊富な情報のために、依然として有効である。
SWITCHのロバスト性を改善するために、SWITCH$_\text{RGF}$を、クエリ効率の観点からSWITCHの利点を維持しつつも、$\hat{\mathbf{g}}$もその逆方向も目的を増すことができない場合に、ランダムな勾配のない(RGF)推定の方向に従うSWITCH$_\text{RGF}$を提案する。
CIFAR-10, CIFAR-100, TinyImageNet で行った実験結果から,SWITCH はクエリ数が少なく,SWITCH$_\text{RGF}$ はクエリ数が少なく,攻撃成功率が満足できることがわかった。
我々のアプローチは、その単純さから将来のブラックボックス攻撃の強力なベースラインとして機能する。
PyTorchのソースコードはhttps://github.com/machanic/SWITCHで公開されている。
関連論文リスト
- Rethinking PGD Attack: Is Sign Function Necessary? [131.6894310945647]
本稿では,このような手話に基づく更新アルゴリズムが段階的攻撃性能にどのように影響するかを理論的に分析する。
本稿では,手話の使用を排除したRGDアルゴリズムを提案する。
提案したRGDアルゴリズムの有効性は実験で広く実証されている。
論文 参考訳(メタデータ) (2023-12-03T02:26:58Z) - Sampling-based Fast Gradient Rescaling Method for Highly Transferable
Adversarial Attacks [19.917677500613788]
勾配ベースのアプローチは一般的に、プロセスの最後に摂動を生成するために$sign$関数を使用する。
そこで本研究では,S-FGRM(Saming-based Fast Gradient Rescaling Method)を提案する。
論文 参考訳(メタデータ) (2022-04-06T15:12:20Z) - Attacking deep networks with surrogate-based adversarial black-box
methods is easy [7.804269142923776]
ブラックボックスの敵攻撃に関する最近の研究は、サロゲートモデルからの転送の使用を復活させた。
そこで本研究では,検索によって最先端の結果を得る,簡潔で簡潔なアルゴリズムを提案する。
このアルゴリズムの導く前提は、研究対象のネットワークが、類似した関数を学習する基本的な意味で存在するということである。
論文 参考訳(メタデータ) (2022-03-16T16:17:18Z) - Fast Gradient Non-sign Methods [67.56549792690706]
Fast Gradient Non-sign Method (FGNM) は一般的なルーチンであり、グラデーションベースの攻撃において従来の$sign$操作をシームレスに置き換えることができる。
我々の手法は、textbf27.5% と textbf9.5% でそれらを上回ります。
論文 参考訳(メタデータ) (2021-10-25T08:46:00Z) - Adversarial Attacks on Gaussian Process Bandits [47.84198626686564]
本研究では,攻撃者の強さや事前情報に異なる仮定で様々な敵攻撃手法を提案する。
我々の目標は,GPバンディットに対する敵攻撃を理論的・実践的両面から理解することである。
GP帯域に対する敵攻撃は,攻撃予算が低い場合でも,$mathcalR_rmターゲットに対してアルゴリズムを強制的に強制することに成功した。
論文 参考訳(メタデータ) (2021-10-16T02:39:10Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Transferable Sparse Adversarial Attack [62.134905824604104]
オーバーフィッティング問題を緩和するジェネレータアーキテクチャを導入し、転送可能なスパース対逆例を効率的に作成する。
提案手法は,他の最適化手法よりも700$times$高速な推論速度を実現する。
論文 参考訳(メタデータ) (2021-05-31T06:44:58Z) - Boosting Gradient for White-Box Adversarial Attacks [60.422511092730026]
そこで本研究では,ADV-ReLUと呼ばれる,勾配に基づくホワイトボックス攻撃アルゴリズムの性能向上を目的とした,汎用的な逆例生成手法を提案する。
提案手法では,損失関数とネットワーク入力の勾配を算出し,その値をスコアにマップし,その一部を選択して誤導勾配を更新する。
論文 参考訳(メタデータ) (2020-10-21T02:13:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。