論文の概要: Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution
- arxiv url: http://arxiv.org/abs/2006.08538v4
- Date: Thu, 18 Mar 2021 08:56:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 04:09:51.352921
- Title: Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution
- Title(参考訳): 部分移動条件付き逆数分布によるブラックボックス攻撃の増強
- Authors: Yan Feng, Baoyuan Wu, Yanbo Fan, Li Liu, Zhifeng Li, Shutao Xia
- Abstract要約: 深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
- 参考スコア(独自算出の注目度): 83.02632136860976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work studies black-box adversarial attacks against deep neural networks
(DNNs), where the attacker can only access the query feedback returned by the
attacked DNN model, while other information such as model parameters or the
training datasets are unknown. One promising approach to improve attack
performance is utilizing the adversarial transferability between some white-box
surrogate models and the target model (i.e., the attacked model). However, due
to the possible differences on model architectures and training datasets
between surrogate and target models, dubbed "surrogate biases", the
contribution of adversarial transferability to improving the attack performance
may be weakened. To tackle this issue, we innovatively propose a black-box
attack method by developing a novel mechanism of adversarial transferability,
which is robust to the surrogate biases. The general idea is transferring
partial parameters of the conditional adversarial distribution (CAD) of
surrogate models, while learning the untransferred parameters based on queries
to the target model, to keep the flexibility to adjust the CAD of the target
model on any new benign sample. Extensive experiments on benchmark datasets and
attacking against real-world API demonstrate the superior attack performance of
the proposed method.
- Abstract(参考訳): 本研究は、ディープニューラルネットワーク(dnn)に対するブラックボックスの逆攻撃について研究し、攻撃者は攻撃されたdnnモデルによって返されたクエリフィードバックのみにアクセスできるが、モデルパラメータやトレーニングデータセットなどの他の情報は未知である。
攻撃性能を改善するための有望なアプローチの1つは、いくつかのホワイトボックスサーロゲートモデルとターゲットモデル(すなわち攻撃モデル)の間の敵対的な転送可能性を利用することである。
しかしながら、サロゲートモデルとターゲットモデルの間のモデルアーキテクチャの違いやトレーニングデータセットが「サロゲートバイアス」と呼ばれるため、攻撃性能を改善するための敵の移動可能性の寄与が弱まる可能性がある。
この問題に対処するため,我々は,代理バイアスにロバストな新たな逆移動性メカニズムを考案し,ブラックボックス攻撃法を革新的に提案する。
一般的な考え方は、サロゲートモデルの条件逆分布(CAD)の部分パラメータを、ターゲットモデルへのクエリに基づく未参照パラメータを学習しながら、新しい良性サンプル上でターゲットモデルのCADを調整する柔軟性を維持することである。
ベンチマークデータセットの大規模な実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
関連論文リスト
- Learning to Learn Transferable Generative Attack for Person Re-Identification [17.26567195924685]
既存の攻撃は、異なるドメインでトレーニングされたモデルを摂動するクロステスト能力を無視して、クロスデータセットとクロスモデル転送可能性のみを考慮する。
実世界のre-idモデルのロバスト性を調べるために,MTGA法を提案する。
我々のMTGAは平均mAP低下率でSOTA法を21.5%、平均11.3%で上回っている。
論文 参考訳(メタデータ) (2024-09-06T11:57:17Z) - An Adaptive Model Ensemble Adversarial Attack for Boosting Adversarial
Transferability [26.39964737311377]
我々はAdaEAと呼ばれる適応型アンサンブル攻撃を提案し、各モデルからの出力の融合を適応的に制御する。
我々は、様々なデータセットに対する既存のアンサンブル攻撃よりも大幅に改善した。
論文 参考訳(メタデータ) (2023-08-05T15:12:36Z) - Query Efficient Cross-Dataset Transferable Black-Box Attack on Action
Recognition [99.29804193431823]
ブラックボックスの敵攻撃は、行動認識システムに現実的な脅威をもたらす。
本稿では,摂動を発生させることにより,これらの欠点に対処する新たな行動認識攻撃を提案する。
提案手法は,最先端のクエリベースおよび転送ベース攻撃と比較して,8%,12%の偽装率を達成する。
論文 参考訳(メタデータ) (2022-11-23T17:47:49Z) - Adversarial Pixel Restoration as a Pretext Task for Transferable
Perturbations [54.1807206010136]
トランスファー可能な敵攻撃は、事前訓練された代理モデルと既知のラベル空間から敵を最適化し、未知のブラックボックスモデルを騙す。
本稿では,効果的なサロゲートモデルをスクラッチからトレーニングするための自己教師型代替手段として,Adversarial Pixel Restorationを提案する。
我々のトレーニングアプローチは、敵の目標を通したオーバーフィッティングを減らすmin-maxの目標に基づいています。
論文 参考訳(メタデータ) (2022-07-18T17:59:58Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Stochastic Variance Reduced Ensemble Adversarial Attack for Boosting the
Adversarial Transferability [20.255708227671573]
ブラックボックスの敵攻撃は、あるモデルから別のモデルに転送することができる。
本研究では,分散縮小アンサンブル攻撃と呼ばれる新しいアンサンブル攻撃法を提案する。
実験結果から,提案手法は既存のアンサンブル攻撃を著しく上回り,対向移動性を向上する可能性が示唆された。
論文 参考訳(メタデータ) (2021-11-21T06:33:27Z) - Training Meta-Surrogate Model for Transferable Adversarial Attack [98.13178217557193]
クエリーを許可しない場合、ブラックボックスモデルに対する逆攻撃を考える。
この設定では、多くの手法が代理モデルを直接攻撃し、得られた敵の例をターゲットモデルを騙すために転送する。
メタサロゲートモデル(Meta-Surrogate Model:MSM)は,このモデルに対する攻撃が,他のモデルに容易に転送できることを示す。
論文 参考訳(メタデータ) (2021-09-05T03:27:46Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。