論文の概要: T-SEA: Transfer-based Self-Ensemble Attack on Object Detection
- arxiv url: http://arxiv.org/abs/2211.09773v1
- Date: Wed, 16 Nov 2022 10:27:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 15:27:15.293499
- Title: T-SEA: Transfer-based Self-Ensemble Attack on Object Detection
- Title(参考訳): T-SEA:オブジェクト検出におけるトランスファーベースセルフアンサンブルアタック
- Authors: Hao Huang, Ziyan Chen, Huanran Chen, Yongtao Wang, Kevin Zhang
- Abstract要約: 複数のブラックボックス検出器に対する高信頼度対向攻撃を実現するために, 1 つのモデルのみを用いて, モノ検出に対する単一モデル転送ベースブラックボックス攻撃を提案する。
我々は、パッチ最適化を正規モデル最適化と類似させ、入力データ、攻撃モデル、および敵パッチに一連の自己アンサンブルアプローチを提案する。
- 参考スコア(独自算出の注目度): 9.794192858806905
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Compared to query-based black-box attacks, transfer-based black-box attacks
do not require any information of the attacked models, which ensures their
secrecy. However, most existing transfer-based approaches rely on ensembling
multiple models to boost the attack transferability, which is time- and
resource-intensive, not to mention the difficulty of obtaining diverse models
on the same task. To address this limitation, in this work, we focus on the
single-model transfer-based black-box attack on object detection, utilizing
only one model to achieve a high-transferability adversarial attack on multiple
black-box detectors. Specifically, we first make observations on the patch
optimization process of the existing method and propose an enhanced attack
framework by slightly adjusting its training strategies. Then, we analogize
patch optimization with regular model optimization, proposing a series of
self-ensemble approaches on the input data, the attacked model, and the
adversarial patch to efficiently make use of the limited information and
prevent the patch from overfitting. The experimental results show that the
proposed framework can be applied with multiple classical base attack methods
(e.g., PGD and MIM) to greatly improve the black-box transferability of the
well-optimized patch on multiple mainstream detectors, meanwhile boosting
white-box performance. Our code is available at
https://github.com/VDIGPKU/T-SEA.
- Abstract(参考訳): クエリベースのブラックボックス攻撃と比較して、転送ベースのブラックボックス攻撃は攻撃されたモデルの情報を一切必要とせず、その機密性を保証する。
しかしながら、既存のトランスファーベースのアプローチの多くは、同じタスクで多様なモデルを取得することの難しさを言うまでもなく、時間とリソース集約的な攻撃転送可能性を高めるために複数のモデルをセンセンシングすることに依存している。
この制限に対処するため,本研究では,オブジェクト検出に対する単一モデル転送ベースのブラックボックス攻撃に着目し,複数のブラックボックス検出器に対する高透過性攻撃を実現するために,単一のモデルのみを活用する。
具体的には,まず既存の手法のパッチ最適化過程を観察し,そのトレーニング戦略を微調整した攻撃フレームワークを提案する。
次に, パッチ最適化を正規モデル最適化と類似させ, 入力データ, 攻撃モデル, 敵パッチに対する一連の自己感覚的アプローチを提案し, 限られた情報を有効に活用し, パッチの過剰フィットを防止する。
実験の結果,提案手法を複数の古典的ベースアタック手法(PGDやMIMなど)で適用することにより,複数の主流検出器に対する最適化パッチのブラックボックス転送性を大幅に向上し,一方,ホワイトボックス性能の向上を図っている。
私たちのコードはhttps://github.com/VDIGPKU/T-SEA.comで公開されています。
関連論文リスト
- Learning to Learn Transferable Generative Attack for Person Re-Identification [17.26567195924685]
既存の攻撃は、異なるドメインでトレーニングされたモデルを摂動するクロステスト能力を無視して、クロスデータセットとクロスモデル転送可能性のみを考慮する。
実世界のre-idモデルのロバスト性を調べるために,MTGA法を提案する。
我々のMTGAは平均mAP低下率でSOTA法を21.5%、平均11.3%で上回っている。
論文 参考訳(メタデータ) (2024-09-06T11:57:17Z) - Efficient Black-box Adversarial Attacks via Bayesian Optimization Guided by a Function Prior [36.101904669291436]
本稿では,入力クエリの出力フィードバックのみを用いて,ブラックボックスモデルに対するサンプル生成を目的としたブラックボックス逆攻撃について検討する。
ブラックボックス攻撃前の大域関数として代理モデルを利用する事前誘導ベイズ最適化(P-BO)アルゴリズムを提案する。
後悔境界に関する理論的解析は、P-BOの性能が悪影響を受けていることを示唆している。
論文 参考訳(メタデータ) (2024-05-29T14:05:16Z) - Transferable Attack for Semantic Segmentation [59.17710830038692]
敵が攻撃し、ソースモデルから生成された敵の例がターゲットモデルを攻撃するのに失敗するのを観察します。
本研究では, セマンティックセグメンテーションのためのアンサンブルアタックを提案する。
論文 参考訳(メタデータ) (2023-07-31T11:05:55Z) - Ensemble-based Blackbox Attacks on Dense Prediction [16.267479602370543]
慎重に設計されたアンサンブルは、多くの犠牲者モデルに対して効果的な攻撃を発生させることができることを示す。
特に,個々のモデルに対する重み付けの正規化が,攻撃の成功に重要な役割を担っていることを示す。
提案手法は同時に複数のブラックボックス検出とセグメンテーションモデルを騙すことができる単一摂動を生成することができる。
論文 参考訳(メタデータ) (2023-03-25T00:08:03Z) - Query Efficient Cross-Dataset Transferable Black-Box Attack on Action
Recognition [99.29804193431823]
ブラックボックスの敵攻撃は、行動認識システムに現実的な脅威をもたらす。
本稿では,摂動を発生させることにより,これらの欠点に対処する新たな行動認識攻撃を提案する。
提案手法は,最先端のクエリベースおよび転送ベース攻撃と比較して,8%,12%の偽装率を達成する。
論文 参考訳(メタデータ) (2022-11-23T17:47:49Z) - How to Robustify Black-Box ML Models? A Zeroth-Order Optimization
Perspective [74.47093382436823]
入力クエリと出力フィードバックだけでブラックボックスモデルを堅牢化する方法?
我々は,ブラックボックスモデルに適用可能な防御操作の一般的な概念を提案し,それを復号化スムーシング(DS)のレンズを通して設計する。
我々は,ZO-AE-DSが既存のベースラインよりも精度,堅牢性,クエリの複雑さを向上できることを実証的に示す。
論文 参考訳(メタデータ) (2022-03-27T03:23:32Z) - Query-Efficient Black-box Adversarial Attacks Guided by a Transfer-based
Prior [50.393092185611536]
対象モデルの勾配にアクセスできることなく、敵が敵の例を作らなければならないブラックボックスの敵設定を考える。
従来の手法では、代用ホワイトボックスモデルの転送勾配を用いたり、モデルクエリのフィードバックに基づいて真の勾配を近似しようとした。
偏りサンプリングと勾配平均化に基づく2つの事前誘導型ランダム勾配フリー(PRGF)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-13T04:06:27Z) - Meta Gradient Adversarial Attack [64.5070788261061]
本稿では,MGAA(Metaversa Gradient Adrial Attack)と呼ばれる新しいアーキテクチャを提案する。
具体的には、モデル動物園から複数のモデルをランダムにサンプリングし、異なるタスクを構成するとともに、各タスクにおけるホワイトボックス攻撃とブラックボックス攻撃を反復的にシミュレートする。
ブラックボックス攻撃における勾配方向とブラックボックス攻撃の差を狭めることにより、ブラックボックス設定における逆例の転送性を向上させることができる。
論文 参考訳(メタデータ) (2021-08-09T17:44:19Z) - Learning Black-Box Attackers with Transferable Priors and Query Feedback [40.41083684665537]
本稿では,被害者モデルの分類信頼度のみを利用できるブラックボックス敵攻撃問題に対処する。
異なる視覚モデル間の視覚的サリエンシの整合性から着想を得たサロゲートモデルでは,移動性による攻撃性能の向上が期待されている。
シュロゲートモデルを用いた驚くほど単純なベースラインアプローチ(SimBA++)を提案する。
論文 参考訳(メタデータ) (2020-10-21T05:43:11Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。