論文の概要: Efficient Adversarial Attacks for Visual Object Tracking
- arxiv url: http://arxiv.org/abs/2008.00217v1
- Date: Sat, 1 Aug 2020 08:47:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 00:27:51.001665
- Title: Efficient Adversarial Attacks for Visual Object Tracking
- Title(参考訳): 視覚物体追跡のための効率的な逆襲
- Authors: Siyuan Liang, Xingxing Wei, Siyuan Yao and Xiaochun Cao
- Abstract要約: 本稿では,新たなドリフト損失と組込み機能損失を併用して,シームズネットワークベースのトラッカーを攻撃するエンド・ツー・エンド・エンド・ネットワークFANを提案する。
単一のGPUの下では、FANはトレーニング速度が効率的で、強力な攻撃性能を持つ。
- 参考スコア(独自算出の注目度): 73.43180372379594
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual object tracking is an important task that requires the tracker to find
the objects quickly and accurately. The existing state-ofthe-art object
trackers, i.e., Siamese based trackers, use DNNs to attain high accuracy.
However, the robustness of visual tracking models is seldom explored. In this
paper, we analyze the weakness of object trackers based on the Siamese network
and then extend adversarial examples to visual object tracking. We present an
end-to-end network FAN (Fast Attack Network) that uses a novel drift loss
combined with the embedded feature loss to attack the Siamese network based
trackers. Under a single GPU, FAN is efficient in the training speed and has a
strong attack performance. The FAN can generate an adversarial example at 10ms,
achieve effective targeted attack (at least 40% drop rate on OTB) and
untargeted attack (at least 70% drop rate on OTB).
- Abstract(参考訳): ビジュアルオブジェクトのトラッキングは、トラッカーがオブジェクトを迅速かつ正確に見つける必要がある重要なタスクである。
既存の最先端のオブジェクトトラッカー、すなわちシームズをベースとしたトラッカーは、DNNを使用して高精度を実現する。
しかし、視覚追跡モデルの堅牢性はほとんど調査されていない。
本稿では,Siameseネットワークに基づくオブジェクトトラッカーの弱点を分析し,その逆の例を視覚的オブジェクトトラッカーに拡張する。
本稿では,新たなドリフト損失と組込み機能損失を併用して,シームズネットワークベースのトラッカーを攻撃するエンド・ツー・エンドネットワークFANを提案する。
単一のGPUの下では、FANはトレーニング速度が効率的で、強力な攻撃性能を持つ。
FANは10msで敵の例を生成し、効果的な標的攻撃(OTBでは少なくとも40%の落差率)と未目標攻撃(OTBでは少なくとも70%の落差率)を達成する。
関連論文リスト
- RTrack: Accelerating Convergence for Visual Object Tracking via
Pseudo-Boxes Exploration [3.29854706649876]
単一のオブジェクト追跡(SOT)は、ターゲットオブジェクトをバウンディングボックスとして表現することに大きく依存している。
本稿では,新しいオブジェクト表現ベースライントラッカーRTrackを提案する。
RTrackは自動的に点を配置して空間範囲を定義し、局所領域をハイライトする。
論文 参考訳(メタデータ) (2023-09-23T04:41:59Z) - BEVTrack: A Simple and Strong Baseline for 3D Single Object Tracking in
Bird's-Eye View [59.283604507093116]
3Dシングルオブジェクトトラッキング(SOT)はコンピュータビジョンの基本課題であり、自律運転のようなアプリケーションに不可欠なことを証明している。
我々は,Bird's-Eye View(BEV)におけるトラッキングを行う,シンプルだが効果的なベースラインであるBEVTrackを提案する。
3つの大規模データセットで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-09-05T12:42:26Z) - Efficient universal shuffle attack for visual object tracking [12.338273740874891]
我々は,効率的なユニバーサルシャッフル攻撃という,オフラインのユニバーサル敵攻撃を提案する。
すべてのビデオでトラッカーの故障を引き起こすには、たった1回の摂動しかかからない。
実験結果から,EUSAは最先端トラッカーの性能を大幅に低下させることができることがわかった。
論文 参考訳(メタデータ) (2022-03-14T07:48:06Z) - ByteTrack: Multi-Object Tracking by Associating Every Detection Box [51.93588012109943]
マルチオブジェクトトラッキング(MOT)は、ビデオ内のオブジェクトのバウンディングボックスとIDを推定することを目的としている。
ほとんどの方法は、スコアがしきい値よりも高い検出ボックスを連想させることでアイデンティティを得る。
本稿では,BYTEと呼ばれるシンプルで効果的で汎用的なアソシエーション手法を提案する。
論文 参考訳(メタデータ) (2021-10-13T17:01:26Z) - IoU Attack: Towards Temporally Coherent Black-Box Adversarial Attack for
Visual Object Tracking [70.14487738649373]
アドリア攻撃は、深いニューラルネットワークが、知覚不能な摂動によって注入された入力サンプルを知覚する脆弱性によって起こる。
視覚的物体追跡のための決定に基づくブラックボックス攻撃法を提案する。
我々は、最先端のディープトラッカーに対するIoU攻撃を検証した。
論文 参考訳(メタデータ) (2021-03-27T16:20:32Z) - Temporally-Transferable Perturbations: Efficient, One-Shot Adversarial
Attacks for Online Visual Object Trackers [81.90113217334424]
本研究では, オブジェクトテンプレート画像からのみ, 一時移動可能な対人的摂動を生成するフレームワークを提案する。
この摂動はあらゆる検索画像に追加され、事実上何のコストもかからないが、それでもトラッカーを騙すのに成功している。
論文 参考訳(メタデータ) (2020-12-30T15:05:53Z) - Cooling-Shrinking Attack: Blinding the Tracker with Imperceptible Noises [87.53808756910452]
The method is proposed to deceive-of-the-the-art SiameseRPN-based tracker。
本手法は転送性に優れ,DaSiamRPN,DaSiamRPN-UpdateNet,DiMPなどの他のトップパフォーマンストラッカーを騙すことができる。
論文 参考訳(メタデータ) (2020-03-21T07:13:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。