論文の概要: DIMBA: Discretely Masked Black-Box Attack in Single Object Tracking
- arxiv url: http://arxiv.org/abs/2207.08044v1
- Date: Sun, 17 Jul 2022 00:17:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-19 16:38:13.003639
- Title: DIMBA: Discretely Masked Black-Box Attack in Single Object Tracking
- Title(参考訳): DIMBA:単一物体追跡におけるブラックボックス攻撃
- Authors: Xiangyu Yin, Wenjie Ruan, Jonathan Fieldsend
- Abstract要約: 敵攻撃は、CNNベースのモデルに、人間の知覚できない入力を巧みに操作することで、誤った出力を強制することができる。
ブラックボックス設定下での単一物体追跡のためのノイズを発生させる新しい逆攻撃法を提案する。
我々の手法は、競争力や攻撃性能を改善するために、ビデオのフレーム上でのクエリを少なくする。
- 参考スコア(独自算出の注目度): 5.672132510411465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The adversarial attack can force a CNN-based model to produce an incorrect
output by craftily manipulating human-imperceptible input. Exploring such
perturbations can help us gain a deeper understanding of the vulnerability of
neural networks, and provide robustness to deep learning against miscellaneous
adversaries. Despite extensive studies focusing on the robustness of image,
audio, and NLP, works on adversarial examples of visual object tracking --
especially in a black-box manner -- are quite lacking. In this paper, we
propose a novel adversarial attack method to generate noises for single object
tracking under black-box settings, where perturbations are merely added on
initial frames of tracking sequences, which is difficult to be noticed from the
perspective of a whole video clip. Specifically, we divide our algorithm into
three components and exploit reinforcement learning for localizing important
frame patches precisely while reducing unnecessary computational queries
overhead. Compared to existing techniques, our method requires fewer queries on
initialized frames of a video to manipulate competitive or even better attack
performance. We test our algorithm in both long-term and short-term datasets,
including OTB100, VOT2018, UAV123, and LaSOT. Extensive experiments demonstrate
the effectiveness of our method on three mainstream types of trackers:
discrimination, Siamese-based, and reinforcement learning-based trackers.
- Abstract(参考訳): 敵攻撃は、CNNベースのモデルに、人間の知覚できない入力を巧みに操作することで、誤った出力を強制することができる。
このような摂動を探索することで、ニューラルネットワークの脆弱性をより深く理解し、さまざまな敵に対するディープラーニングへの堅牢性が得られます。
画像、オーディオ、NLPの堅牢性に焦点を当てた広範な研究にもかかわらず、視覚的物体追跡(特にブラックボックス方式で)の敵対的な例に焦点を当てている。
本稿では,ブラックボックス設定下での単一物体追跡のためのノイズ生成手法を提案する。この手法では,トラッキングシーケンスの初期フレームに摂動を付加するだけで,ビデオクリップ全体の観点からは認識が難しい。
具体的には,アルゴリズムを3つのコンポーネントに分割し,重要なフレームパッチを精度よくローカライズするために強化学習を利用する。
既存の手法と比較して,ビデオの初期化フレームに対するクエリを少なくすることで,競合性や攻撃性能の面で優れる。
我々は,OTB100,VOT2018,UAV123,LaSOTなど,長期および短期両方のデータセットでアルゴリズムをテストする。
広汎な実験により,本手法が3種類の主流トラッカー – 識別,シームズベース,強化学習ベーストラッカー – に与える影響が示された。
関連論文リスト
- Beyond Pretrained Features: Noisy Image Modeling Provides Adversarial
Defense [52.66971714830943]
マスク付き画像モデリング(MIM)は、自己教師付き視覚表現学習のフレームワークとして普及している。
本稿では,この強力な自己教師型学習パラダイムが,下流の分類器に対して対角的ロバスト性を提供する方法について検討する。
本稿では,デノナイジングのためのデコーダを用いて,デノナイジングのための対角防御手法を提案する。
論文 参考訳(メタデータ) (2023-02-02T12:37:24Z) - RamBoAttack: A Robust Query Efficient Deep Neural Network Decision
Exploit [9.93052896330371]
本研究では,局所的な最小値の侵入を回避し,ノイズ勾配からのミスダイレクトを回避できる,堅牢なクエリ効率の高い攻撃法を開発した。
RamBoAttackは、敵クラスとターゲットクラスで利用可能な異なるサンプルインプットに対して、より堅牢である。
論文 参考訳(メタデータ) (2021-12-10T01:25:24Z) - PAT: Pseudo-Adversarial Training For Detecting Adversarial Videos [20.949656274807904]
我々は,攻撃の知識を必要とせず,映像中の対角フレームを検出するための,Pseudo-versa-Adrial Training (PAT) という,新しい単純なアルゴリズムを提案する。
UCF-101および20BN-Jesterデータセットによる実験結果から、PATは高い検出率で対向的なビデオフレームやビデオを検出することができることがわかった。
論文 参考訳(メタデータ) (2021-09-13T04:05:46Z) - IoU Attack: Towards Temporally Coherent Black-Box Adversarial Attack for
Visual Object Tracking [70.14487738649373]
アドリア攻撃は、深いニューラルネットワークが、知覚不能な摂動によって注入された入力サンプルを知覚する脆弱性によって起こる。
視覚的物体追跡のための決定に基づくブラックボックス攻撃法を提案する。
我々は、最先端のディープトラッカーに対するIoU攻撃を検証した。
論文 参考訳(メタデータ) (2021-03-27T16:20:32Z) - A black-box adversarial attack for poisoning clustering [78.19784577498031]
本稿では,クラスタリングアルゴリズムのロバスト性をテストするために,ブラックボックス対逆攻撃法を提案する。
我々の攻撃は、SVM、ランダムフォレスト、ニューラルネットワークなどの教師付きアルゴリズムに対しても転送可能であることを示す。
論文 参考訳(メタデータ) (2020-09-09T18:19:31Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z) - Robust Tracking against Adversarial Attacks [69.59717023941126]
まず,ビデオシーケンス上に敵の例を生成して,敵の攻撃に対するロバスト性を改善する。
提案手法を最先端のディープトラッキングアルゴリズムに適用する。
論文 参考訳(メタデータ) (2020-07-20T08:05:55Z) - Cooling-Shrinking Attack: Blinding the Tracker with Imperceptible Noises [87.53808756910452]
The method is proposed to deceive-of-the-the-art SiameseRPN-based tracker。
本手法は転送性に優れ,DaSiamRPN,DaSiamRPN-UpdateNet,DiMPなどの他のトップパフォーマンストラッカーを騙すことができる。
論文 参考訳(メタデータ) (2020-03-21T07:13:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。