論文の概要: Towards Adaptive Meta-Gradient Adversarial Examples for Visual Tracking
- arxiv url: http://arxiv.org/abs/2505.08999v1
- Date: Tue, 13 May 2025 22:26:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 21:44:09.312072
- Title: Towards Adaptive Meta-Gradient Adversarial Examples for Visual Tracking
- Title(参考訳): 視覚追跡のための適応的メタグラディエント逆数例を目指して
- Authors: Wei-Long Tian, Peng Gao, Xiao Liu, Long Xu, Hamido Fujita, Hanan Aljuai, Mao-Li Wang,
- Abstract要約: 視覚的トラッキングのための適応的メタ段階的対向攻撃法(AMGA)を提案する。
その結果, AMGAは攻撃性能, 転送可能性, および敵対例の誤認を著しく改善することがわかった。
- 参考スコア(独自算出の注目度): 22.56488340107275
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In recent years, visual tracking methods based on convolutional neural networks and Transformers have achieved remarkable performance and have been successfully applied in fields such as autonomous driving. However, the numerous security issues exposed by deep learning models have gradually affected the reliable application of visual tracking methods in real-world scenarios. Therefore, how to reveal the security vulnerabilities of existing visual trackers through effective adversarial attacks has become a critical problem that needs to be addressed. To this end, we propose an adaptive meta-gradient adversarial attack (AMGA) method for visual tracking. This method integrates multi-model ensembles and meta-learning strategies, combining momentum mechanisms and Gaussian smoothing, which can significantly enhance the transferability and attack effectiveness of adversarial examples. AMGA randomly selects models from a large model repository, constructs diverse tracking scenarios, and iteratively performs both white- and black-box adversarial attacks in each scenario, optimizing the gradient directions of each model. This paradigm minimizes the gap between white- and black-box adversarial attacks, thus achieving excellent attack performance in black-box scenarios. Extensive experimental results on large-scale datasets such as OTB2015, LaSOT, and GOT-10k demonstrate that AMGA significantly improves the attack performance, transferability, and deception of adversarial examples. Codes and data are available at https://github.com/pgao-lab/AMGA.
- Abstract(参考訳): 近年,畳み込みニューラルネットワークやトランスフォーマーをベースとした視覚的トラッキング手法は目覚ましい性能を発揮しており,自律運転などの分野でも成功している。
しかし、ディープラーニングモデルによって明らかになった多くのセキュリティ問題は、現実のシナリオにおける視覚的トラッキング手法の信頼性に徐々に影響している。
したがって, 既存の視覚トラッカーのセキュリティ脆弱性を効果的に攻撃することによって明らかにする方法は, 対処すべき重要な問題となっている。
そこで本研究では,視覚追跡のための適応的メタ段階的対向攻撃(AMGA)手法を提案する。
本手法は,モーメント機構とガウス平滑化を組み合わせたマルチモデルアンサンブルとメタラーニング戦略を統合し,対向的な例の伝達性と攻撃性を大幅に向上させる。
AMGAは、大規模なモデルリポジトリからモデルをランダムに選択し、多様な追跡シナリオを構築し、各シナリオで白と黒のボックスの逆攻撃を反復的に実行し、各モデルの勾配方向を最適化する。
このパラダイムは、ホワイトボックスとブラックボックスの敵攻撃のギャップを最小限に抑え、ブラックボックスのシナリオにおいて優れた攻撃性能を実現する。
OTB2015, LaSOT, GOT-10kなどの大規模データセットに対する大規模な実験結果から, AMGAは攻撃性能, 転送可能性, および敵例の偽造を著しく改善することが示された。
コードとデータはhttps://github.com/pgao-lab/AMGAで公開されている。
関連論文リスト
- Learning to Learn Transferable Generative Attack for Person Re-Identification [17.26567195924685]
既存の攻撃は、異なるドメインでトレーニングされたモデルを摂動するクロステスト能力を無視して、クロスデータセットとクロスモデル転送可能性のみを考慮する。
実世界のre-idモデルのロバスト性を調べるために,MTGA法を提案する。
我々のMTGAは平均mAP低下率でSOTA法を21.5%、平均11.3%で上回っている。
論文 参考訳(メタデータ) (2024-09-06T11:57:17Z) - GE-AdvGAN: Improving the transferability of adversarial samples by
gradient editing-based adversarial generative model [69.71629949747884]
GAN(Generative Adversarial Networks)のような逆生成モデルは、様々な種類のデータを生成するために広く応用されている。
本研究では, GE-AdvGAN という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-11T16:43:16Z) - SA-Attack: Improving Adversarial Transferability of Vision-Language
Pre-training Models via Self-Augmentation [56.622250514119294]
ホワイトボックスの敵攻撃とは対照的に、転送攻撃は現実世界のシナリオをより反映している。
本稿では,SA-Attackと呼ばれる自己拡張型転送攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T09:08:50Z) - Enhancing Adversarial Attacks: The Similar Target Method [6.293148047652131]
敵対的な例は、ディープニューラルネットワークのアプリケーションに脅威をもたらす。
ディープニューラルネットワークは敵の例に対して脆弱であり、モデルのアプリケーションに脅威を与え、セキュリティ上の懸念を提起する。
我々はSimisal Target(ST)という類似の攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-08-21T14:16:36Z) - Meta Gradient Adversarial Attack [64.5070788261061]
本稿では,MGAA(Metaversa Gradient Adrial Attack)と呼ばれる新しいアーキテクチャを提案する。
具体的には、モデル動物園から複数のモデルをランダムにサンプリングし、異なるタスクを構成するとともに、各タスクにおけるホワイトボックス攻撃とブラックボックス攻撃を反復的にシミュレートする。
ブラックボックス攻撃における勾配方向とブラックボックス攻撃の差を狭めることにより、ブラックボックス設定における逆例の転送性を向上させることができる。
論文 参考訳(メタデータ) (2021-08-09T17:44:19Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。