論文の概要: IoU Attack: Towards Temporally Coherent Black-Box Adversarial Attack for
Visual Object Tracking
- arxiv url: http://arxiv.org/abs/2103.14938v1
- Date: Sat, 27 Mar 2021 16:20:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 15:06:30.435864
- Title: IoU Attack: Towards Temporally Coherent Black-Box Adversarial Attack for
Visual Object Tracking
- Title(参考訳): IoUアタック:ビジュアルオブジェクト追跡のための一時的にコヒーレントなブラックボックスアタックを目指す
- Authors: Shuai Jia, Yibing Song, Chao Ma, Xiaokang Yang
- Abstract要約: アドリア攻撃は、深いニューラルネットワークが、知覚不能な摂動によって注入された入力サンプルを知覚する脆弱性によって起こる。
視覚的物体追跡のための決定に基づくブラックボックス攻撃法を提案する。
我々は、最先端のディープトラッカーに対するIoU攻撃を検証した。
- 参考スコア(独自算出の注目度): 70.14487738649373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attack arises due to the vulnerability of deep neural networks to
perceive input samples injected with imperceptible perturbations. Recently,
adversarial attack has been applied to visual object tracking to evaluate the
robustness of deep trackers. Assuming that the model structures of deep
trackers are known, a variety of white-box attack approaches to visual tracking
have demonstrated promising results. However, the model knowledge about deep
trackers is usually unavailable in real applications. In this paper, we propose
a decision-based black-box attack method for visual object tracking. In
contrast to existing black-box adversarial attack methods that deal with static
images for image classification, we propose IoU attack that sequentially
generates perturbations based on the predicted IoU scores from both current and
historical frames. By decreasing the IoU scores, the proposed attack method
degrades the accuracy of temporal coherent bounding boxes (i.e., object
motions) accordingly. In addition, we transfer the learned perturbations to the
next few frames to initialize temporal motion attack. We validate the proposed
IoU attack on state-of-the-art deep trackers (i.e., detection based,
correlation filter based, and long-term trackers). Extensive experiments on the
benchmark datasets indicate the effectiveness of the proposed IoU attack
method. The source code is available at
https://github.com/VISION-SJTU/IoUattack.
- Abstract(参考訳): 敵の攻撃は、知覚不能な摂動によって注入された入力サンプルを知覚するディープニューラルネットワークの脆弱性によって生じる。
近年,ディープトラッカーのロバスト性を評価するために,視覚的物体追跡に対角攻撃を適用している。
ディープトラッカーのモデル構造が知られていると仮定すると、ビジュアルトラッキングに対する様々なホワイトボックス攻撃アプローチが有望な結果を示している。
しかし、ディープトラッカーに関するモデル知識は通常、実際のアプリケーションでは利用できない。
本稿では,ビジュアルオブジェクト追跡のための意思決定に基づくブラックボックス攻撃手法を提案する。
画像分類のための静的画像を扱う既存のブラックボックス対逆攻撃法とは対照的に,現在のフレームと歴史的フレームの両方から予測されたIoUスコアに基づいて逐次摂動を生成するIoU攻撃を提案する。
提案手法は,IoUスコアを小さくすることで,時間的コヒーレントなバウンディングボックス(物体の動き)の精度を低下させる。
さらに、学習した摂動を次の数フレームに移し、時間的動き攻撃を初期化する。
我々は、最先端のディープトラッカー(検出ベース、相関フィルタベース、長期トラッカー)に対するIoU攻撃を検証した。
ベンチマークデータセットの大規模な実験は、提案したIoU攻撃法の有効性を示している。
ソースコードはhttps://github.com/VISION-SJTU/IoU attackで入手できる。
関連論文リスト
- Distortion-Aware Adversarial Attacks on Bounding Boxes of Object Detectors [1.3493547928462395]
本研究では, 物体検出装置を騙し, 最先端検出器の脆弱性を露呈する新しい手法を提案する。
本手法は, テスト段階における各クラスに対する信頼度予測に不可欠である, トレーニング中に物体の信頼度を摂動することで, 対向画像を生成することを目的とする。
提案手法を検証するために, YOLOv8, Faster R-CNN, RetinaNet, Swin Transformer などの最新の最先端モデルを含む, 異なる物体検出器に対する対向攻撃を行う。
論文 参考訳(メタデータ) (2024-12-25T07:51:57Z) - Overload: Latency Attacks on Object Detection for Edge Devices [47.9744734181236]
本稿では,ディープラーニングアプリケーションに対する遅延攻撃について検討する。
誤分類に対する一般的な敵攻撃とは異なり、遅延攻撃の目標は推論時間を増やすことである。
このような攻撃がどのように動作するかを示すために、オブジェクト検出を使用します。
論文 参考訳(メタデータ) (2023-04-11T17:24:31Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Detect and Defense Against Adversarial Examples in Deep Learning using
Natural Scene Statistics and Adaptive Denoising [12.378017309516965]
本稿では,DNN を敵のサンプルから守るためのフレームワークを提案する。
この検出器は、自然の景観統計を利用してAEを検出することを目的としている。
提案手法は最先端の防御技術より優れている。
論文 参考訳(メタデータ) (2021-07-12T23:45:44Z) - Temporally-Transferable Perturbations: Efficient, One-Shot Adversarial
Attacks for Online Visual Object Trackers [81.90113217334424]
本研究では, オブジェクトテンプレート画像からのみ, 一時移動可能な対人的摂動を生成するフレームワークを提案する。
この摂動はあらゆる検索画像に追加され、事実上何のコストもかからないが、それでもトラッカーを騙すのに成功している。
論文 参考訳(メタデータ) (2020-12-30T15:05:53Z) - Efficient Adversarial Attacks for Visual Object Tracking [73.43180372379594]
本稿では,新たなドリフト損失と組込み機能損失を併用して,シームズネットワークベースのトラッカーを攻撃するエンド・ツー・エンド・エンド・ネットワークFANを提案する。
単一のGPUの下では、FANはトレーニング速度が効率的で、強力な攻撃性能を持つ。
論文 参考訳(メタデータ) (2020-08-01T08:47:58Z) - Robust Tracking against Adversarial Attacks [69.59717023941126]
まず,ビデオシーケンス上に敵の例を生成して,敵の攻撃に対するロバスト性を改善する。
提案手法を最先端のディープトラッキングアルゴリズムに適用する。
論文 参考訳(メタデータ) (2020-07-20T08:05:55Z) - Cooling-Shrinking Attack: Blinding the Tracker with Imperceptible Noises [87.53808756910452]
The method is proposed to deceive-of-the-the-art SiameseRPN-based tracker。
本手法は転送性に優れ,DaSiamRPN,DaSiamRPN-UpdateNet,DiMPなどの他のトップパフォーマンストラッカーを騙すことができる。
論文 参考訳(メタデータ) (2020-03-21T07:13:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。