論文の概要: Temporal Consistency Constrained Transferable Adversarial Attacks with Background Mixup for Action Recognition
- arxiv url: http://arxiv.org/abs/2505.17807v1
- Date: Fri, 23 May 2025 12:24:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:34.058778
- Title: Temporal Consistency Constrained Transferable Adversarial Attacks with Background Mixup for Action Recognition
- Title(参考訳): 動作認識のための背景混在を伴う時間的一貫性制約付きトランスファタブル・アタック
- Authors: Ping Li, Jianan Ni, Bo Pang,
- Abstract要約: アクション認識モデルは、同じデータモダリティでトレーニングされた他のモデル間で転送可能な敵の例に対して脆弱である。
動作認識のための背景混合誘導時整合(BMTC)攻撃法を提案する。
本手法は,複数のアクション/イメージ認識モデル間での逆例の転送可能性を大幅に向上させる。
- 参考スコア(独自算出の注目度): 19.445711629904324
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Action recognition models using deep learning are vulnerable to adversarial examples, which are transferable across other models trained on the same data modality. Existing transferable attack methods face two major challenges: 1) they heavily rely on the assumption that the decision boundaries of the surrogate (a.k.a., source) model and the target model are similar, which limits the adversarial transferability; and 2) their decision boundary difference makes the attack direction uncertain, which may result in the gradient oscillation, weakening the adversarial attack. This motivates us to propose a Background Mixup-induced Temporal Consistency (BMTC) attack method for action recognition. From the input transformation perspective, we design a model-agnostic background adversarial mixup module to reduce the surrogate-target model dependency. In particular, we randomly sample one video from each category and make its background frame, while selecting the background frame with the top attack ability for mixup with the clean frame by reinforcement learning. Moreover, to ensure an explicit attack direction, we leverage the background category as guidance for updating the gradient of adversarial example, and design a temporal gradient consistency loss, which strengthens the stability of the attack direction on subsequent frames. Empirical studies on two video datasets, i.e., UCF101 and Kinetics-400, and one image dataset, i.e., ImageNet, demonstrate that our method significantly boosts the transferability of adversarial examples across several action/image recognition models. Our code is available at https://github.com/mlvccn/BMTC_TransferAttackVid.
- Abstract(参考訳): ディープラーニングを用いたアクション認識モデルは、同じデータモダリティでトレーニングされた他のモデル間で転送可能な敵例に対して脆弱である。
既存の移動可能な攻撃方法は2つの大きな課題に直面している。
1)サロゲートモデル(すなわちソースモデル)とターゲットモデルの決定境界が類似しているという前提に強く依存しており、敵の移動可能性を制限する。
2) 決定境界差により攻撃方向が不確定となり, 勾配振動が生じ, 対向攻撃が弱まる。
そこで本研究では,行動認識のための背景混合誘導時間一貫性(BMTC)攻撃法を提案する。
入力変換の観点から、サロゲート-ターゲットモデル依存性を低減するために、モデルに依存しない背景逆混合モジュールを設計する。
特に,各カテゴリから一本の動画をランダムにサンプリングして背景フレームを作成するとともに,背景フレームを最上位の攻撃能力で選択し,強化学習によりクリーンフレームと混在する。
さらに,明示的な攻撃方向を確保するため,攻撃方向の安定性を向上する時間的勾配整合損失を設計する上で,攻撃方向の勾配を更新するためのガイダンスとして背景カテゴリを利用する。
2つのビデオデータセット(UCF101とKinetics-400)と1つの画像データセット(ImageNet)に関する実証研究により、我々の手法は、複数のアクション/イメージ認識モデルにおける敵例の転送可能性を大幅に向上させることを示した。
私たちのコードはhttps://github.com/mlvccn/BMTC_TransferAttackVid.comから入手可能です。
関連論文リスト
- Make the Most of Everything: Further Considerations on Disrupting Diffusion-based Customization [11.704329867109237]
拡散カスタマイズを目的とした2段階の対向攻撃であるDual Anti-Diffusion (DADiff)を提案する。
様々な主流の顔データセットに対する実験結果は、クロスプロンプト、キーワードミスマッチ、クロスモデル、クロスメカニズムのアンチカストマイゼーションにおいて10%-30%の改善が示されている。
論文 参考訳(メタデータ) (2025-03-18T06:22:03Z) - Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Enhancing Adversarial Attacks: The Similar Target Method [6.293148047652131]
敵対的な例は、ディープニューラルネットワークのアプリケーションに脅威をもたらす。
ディープニューラルネットワークは敵の例に対して脆弱であり、モデルのアプリケーションに脅威を与え、セキュリティ上の懸念を提起する。
我々はSimisal Target(ST)という類似の攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-08-21T14:16:36Z) - Adversarial Pixel Restoration as a Pretext Task for Transferable
Perturbations [54.1807206010136]
トランスファー可能な敵攻撃は、事前訓練された代理モデルと既知のラベル空間から敵を最適化し、未知のブラックボックスモデルを騙す。
本稿では,効果的なサロゲートモデルをスクラッチからトレーニングするための自己教師型代替手段として,Adversarial Pixel Restorationを提案する。
我々のトレーニングアプローチは、敵の目標を通したオーバーフィッティングを減らすmin-maxの目標に基づいています。
論文 参考訳(メタデータ) (2022-07-18T17:59:58Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Modelling Adversarial Noise for Adversarial Defense [96.56200586800219]
敵の防御は、通常、敵の音を除去したり、敵の頑強な目標モデルを訓練するために、敵の例を活用することに焦点を当てる。
逆データと自然データの関係は、逆データからクリーンデータを推測し、最終的な正しい予測を得るのに役立ちます。
本研究では, ラベル空間の遷移関係を学習するために, 逆方向の雑音をモデル化し, 逆方向の精度を向上させることを目的とした。
論文 参考訳(メタデータ) (2021-09-21T01:13:26Z) - Perturbing Across the Feature Hierarchy to Improve Standard and Strict
Blackbox Attack Transferability [100.91186458516941]
我々は、ディープニューラルネットワーク(DNN)画像分類器の領域におけるブラックボックス転送に基づく敵攻撃脅威モデルを検討する。
我々は,多層摂動が可能なフレキシブルアタックフレームワークを設計し,最先端のターゲット転送性能を示す。
提案手法が既存の攻撃戦略より優れている理由を解析し,ブラックボックスモデルに対する限られたクエリが許された場合に,メソッドの拡張を示す。
論文 参考訳(メタデータ) (2020-04-29T16:00:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。