論文の概要: Query Efficient Cross-Dataset Transferable Black-Box Attack on Action
Recognition
- arxiv url: http://arxiv.org/abs/2211.13171v1
- Date: Wed, 23 Nov 2022 17:47:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 16:08:58.341038
- Title: Query Efficient Cross-Dataset Transferable Black-Box Attack on Action
Recognition
- Title(参考訳): 行動認識における効率的なクロスデータセット転送可能なブラックボックス攻撃
- Authors: Rohit Gupta, Naveed Akhtar, Gaurav Kumar Nayak, Ajmal Mian and Mubarak
Shah
- Abstract要約: ブラックボックスの敵攻撃は、行動認識システムに現実的な脅威をもたらす。
本稿では,摂動を発生させることにより,これらの欠点に対処する新たな行動認識攻撃を提案する。
提案手法は,最先端のクエリベースおよび転送ベース攻撃と比較して,8%,12%の偽装率を達成する。
- 参考スコア(独自算出の注目度): 99.29804193431823
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Black-box adversarial attacks present a realistic threat to action
recognition systems. Existing black-box attacks follow either a query-based
approach where an attack is optimized by querying the target model, or a
transfer-based approach where attacks are generated using a substitute model.
While these methods can achieve decent fooling rates, the former tends to be
highly query-inefficient while the latter assumes extensive knowledge of the
black-box model's training data. In this paper, we propose a new attack on
action recognition that addresses these shortcomings by generating
perturbations to disrupt the features learned by a pre-trained substitute model
to reduce the number of queries. By using a nearly disjoint dataset to train
the substitute model, our method removes the requirement that the substitute
model be trained using the same dataset as the target model, and leverages
queries to the target model to retain the fooling rate benefits provided by
query-based methods. This ultimately results in attacks which are more
transferable than conventional black-box attacks. Through extensive
experiments, we demonstrate highly query-efficient black-box attacks with the
proposed framework. Our method achieves 8% and 12% higher deception rates
compared to state-of-the-art query-based and transfer-based attacks,
respectively.
- Abstract(参考訳): ブラックボックス攻撃は、アクション認識システムに現実的な脅威をもたらす。
既存のブラックボックス攻撃は、ターゲットモデルをクエリすることで攻撃を最適化するクエリベースのアプローチか、代替モデルを使用して攻撃を生成する転送ベースのアプローチのいずれかに従う。
これらの手法はまともな騙し率を達成することができるが、前者はクエリ非効率であり、後者はブラックボックスモデルのトレーニングデータの広範な知識を前提としている。
本稿では,事前訓練した代用モデルで学習した特徴を乱し,クエリ数を減らすことで,これらの欠点に対処する新たな行動認識攻撃を提案する。
提案手法は,ほぼ不規則なデータセットを用いて代替モデルをトレーニングすることにより,対象モデルと同じデータセットを用いて代用モデルをトレーニングすることの必要性を排除し,クエリベースの手法によって提供される不正率のメリットを維持するために,ターゲットモデルに対するクエリを利用する。
その結果、従来のブラックボックス攻撃よりも転送可能な攻撃が発生する。
広範な実験を通じて,提案フレームワークを用いたクエリ効率の高いブラックボックス攻撃を実証する。
提案手法は,最先端のクエリベースおよび転送ベースの攻撃と比較して,8%,12%高い遅延率を達成する。
関連論文リスト
- Hard-label based Small Query Black-box Adversarial Attack [2.041108289731398]
本稿では,事前訓練したサロゲートモデルによって誘導される最適化プロセスを用いて,ハードラベルに基づく攻撃の実用的設定を提案する。
提案手法は,ベンチマークの約5倍の攻撃成功率を達成する。
論文 参考訳(メタデータ) (2024-03-09T21:26:22Z) - Defense Against Model Extraction Attacks on Recommender Systems [53.127820987326295]
本稿では、モデル抽出攻撃に対するリコメンデータシステムに対する防御のために、グラディエントベースのランキング最適化(GRO)を導入する。
GROは、攻撃者の代理モデルの損失を最大化しながら、保護対象モデルの損失を最小限にすることを目的としている。
その結果,モデル抽出攻撃に対するGROの防御効果は良好であった。
論文 参考訳(メタデータ) (2023-10-25T03:30:42Z) - Generalizable Black-Box Adversarial Attack with Meta Learning [54.196613395045595]
ブラックボックス攻撃では、ターゲットモデルのパラメータが不明であり、攻撃者はクエリのフィードバックに基づいて、クエリの予算に基づいて摂動を成功させることを目指している。
本稿では,実例レベルの逆転可能性という,過去の攻撃に対するフィードバック情報を活用することを提案する。
この2種類の逆転送性を持つフレームワークは,市販のクエリベースのアタック手法と自然に組み合わせて性能を向上させることができる。
論文 参考訳(メタデータ) (2023-01-01T07:24:12Z) - T-SEA: Transfer-based Self-Ensemble Attack on Object Detection [9.794192858806905]
複数のブラックボックス検出器に対する高信頼度対向攻撃を実現するために, 1 つのモデルのみを用いて, モノ検出に対する単一モデル転送ベースブラックボックス攻撃を提案する。
我々は、パッチ最適化を正規モデル最適化と類似させ、入力データ、攻撃モデル、および敵パッチに一連の自己アンサンブルアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-16T10:27:06Z) - Query-Efficient Black-box Adversarial Attacks Guided by a Transfer-based
Prior [50.393092185611536]
対象モデルの勾配にアクセスできることなく、敵が敵の例を作らなければならないブラックボックスの敵設定を考える。
従来の手法では、代用ホワイトボックスモデルの転送勾配を用いたり、モデルクエリのフィードバックに基づいて真の勾配を近似しようとした。
偏りサンプリングと勾配平均化に基づく2つの事前誘導型ランダム勾配フリー(PRGF)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-13T04:06:27Z) - Can Targeted Adversarial Examples Transfer When the Source and Target
Models Have No Label Space Overlap? [36.96777303738315]
我々は,攻撃者のソースモデルとターゲットブラックボックスモデルがラベルスペースとトレーニングデータセットを持つ可能性がある環境に対して,ブラックボックス転送に基づく標的攻撃を設計する。
我々の方法論は、ホワイトボックスとブラックボックスラベルセットの間のクラス対応行列の構築から始まります。
我々は,我々の転送攻撃が,クエリベースの手法と統合された場合,強力な敵前処理として機能することを示す。
論文 参考訳(メタデータ) (2021-03-17T21:21:44Z) - Two Sides of the Same Coin: White-box and Black-box Attacks for Transfer
Learning [60.784641458579124]
ホワイトボックスFGSM攻撃によるモデルロバスト性を効果的に向上することを示す。
また,移動学習モデルに対するブラックボックス攻撃手法を提案する。
ホワイトボックス攻撃とブラックボックス攻撃の双方の効果を系統的に評価するために,ソースモデルからターゲットモデルへの変換可能性の評価手法を提案する。
論文 参考訳(メタデータ) (2020-08-25T15:04:32Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。