論文の概要: Efficient Adversarial Attacks for Visual Object Tracking
- arxiv url: http://arxiv.org/abs/2008.00217v1
- Date: Sat, 1 Aug 2020 08:47:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 00:27:51.001665
- Title: Efficient Adversarial Attacks for Visual Object Tracking
- Title(参考訳): 視覚物体追跡のための効率的な逆襲
- Authors: Siyuan Liang, Xingxing Wei, Siyuan Yao and Xiaochun Cao
- Abstract要約: 本稿では,新たなドリフト損失と組込み機能損失を併用して,シームズネットワークベースのトラッカーを攻撃するエンド・ツー・エンド・エンド・ネットワークFANを提案する。
単一のGPUの下では、FANはトレーニング速度が効率的で、強力な攻撃性能を持つ。
- 参考スコア(独自算出の注目度): 73.43180372379594
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual object tracking is an important task that requires the tracker to find
the objects quickly and accurately. The existing state-ofthe-art object
trackers, i.e., Siamese based trackers, use DNNs to attain high accuracy.
However, the robustness of visual tracking models is seldom explored. In this
paper, we analyze the weakness of object trackers based on the Siamese network
and then extend adversarial examples to visual object tracking. We present an
end-to-end network FAN (Fast Attack Network) that uses a novel drift loss
combined with the embedded feature loss to attack the Siamese network based
trackers. Under a single GPU, FAN is efficient in the training speed and has a
strong attack performance. The FAN can generate an adversarial example at 10ms,
achieve effective targeted attack (at least 40% drop rate on OTB) and
untargeted attack (at least 70% drop rate on OTB).
- Abstract(参考訳): ビジュアルオブジェクトのトラッキングは、トラッカーがオブジェクトを迅速かつ正確に見つける必要がある重要なタスクである。
既存の最先端のオブジェクトトラッカー、すなわちシームズをベースとしたトラッカーは、DNNを使用して高精度を実現する。
しかし、視覚追跡モデルの堅牢性はほとんど調査されていない。
本稿では,Siameseネットワークに基づくオブジェクトトラッカーの弱点を分析し,その逆の例を視覚的オブジェクトトラッカーに拡張する。
本稿では,新たなドリフト損失と組込み機能損失を併用して,シームズネットワークベースのトラッカーを攻撃するエンド・ツー・エンドネットワークFANを提案する。
単一のGPUの下では、FANはトレーニング速度が効率的で、強力な攻撃性能を持つ。
FANは10msで敵の例を生成し、効果的な標的攻撃(OTBでは少なくとも40%の落差率)と未目標攻撃(OTBでは少なくとも70%の落差率)を達成する。
関連論文リスト
- Adversarial Bounding Boxes Generation (ABBG) Attack against Visual Object Trackers [6.6810237114686615]
敵対的摂動は、ニューラルネットワークを騙して不正確な結果を予測することを目的としている。
ビジュアルオブジェクトトラッカーでは、出力を操作することで摂動を発生させる敵攻撃が開発されている。
本稿では,1つのバウンディングボックスのみを用いて,トランスフォーマーバックボーンを用いた視覚オブジェクトトラッカーを攻撃するための,新しいホワイトボックス手法を提案する。
論文 参考訳(メタデータ) (2024-11-26T14:30:36Z) - RTrack: Accelerating Convergence for Visual Object Tracking via
Pseudo-Boxes Exploration [3.29854706649876]
単一のオブジェクト追跡(SOT)は、ターゲットオブジェクトをバウンディングボックスとして表現することに大きく依存している。
本稿では,新しいオブジェクト表現ベースライントラッカーRTrackを提案する。
RTrackは自動的に点を配置して空間範囲を定義し、局所領域をハイライトする。
論文 参考訳(メタデータ) (2023-09-23T04:41:59Z) - Few-Shot Backdoor Attacks on Visual Object Tracking [80.13936562708426]
視覚オブジェクト追跡(VOT)は、自律運転やインテリジェント監視システムなど、ミッションクリティカルなアプリケーションで広く採用されている。
学習過程の調整により,隠れたバックドアをVOTモデルに容易に埋め込むことができることを示す。
我々の攻撃は潜在的な防御に耐性があることを示し、潜在的なバックドア攻撃に対するVOTモデルの脆弱性を強調します。
論文 参考訳(メタデータ) (2022-01-31T12:38:58Z) - ByteTrack: Multi-Object Tracking by Associating Every Detection Box [51.93588012109943]
マルチオブジェクトトラッキング(MOT)は、ビデオ内のオブジェクトのバウンディングボックスとIDを推定することを目的としている。
ほとんどの方法は、スコアがしきい値よりも高い検出ボックスを連想させることでアイデンティティを得る。
本稿では,BYTEと呼ばれるシンプルで効果的で汎用的なアソシエーション手法を提案する。
論文 参考訳(メタデータ) (2021-10-13T17:01:26Z) - IoU Attack: Towards Temporally Coherent Black-Box Adversarial Attack for
Visual Object Tracking [70.14487738649373]
アドリア攻撃は、深いニューラルネットワークが、知覚不能な摂動によって注入された入力サンプルを知覚する脆弱性によって起こる。
視覚的物体追跡のための決定に基づくブラックボックス攻撃法を提案する。
我々は、最先端のディープトラッカーに対するIoU攻撃を検証した。
論文 参考訳(メタデータ) (2021-03-27T16:20:32Z) - Temporally-Transferable Perturbations: Efficient, One-Shot Adversarial
Attacks for Online Visual Object Trackers [81.90113217334424]
本研究では, オブジェクトテンプレート画像からのみ, 一時移動可能な対人的摂動を生成するフレームワークを提案する。
この摂動はあらゆる検索画像に追加され、事実上何のコストもかからないが、それでもトラッカーを騙すのに成功している。
論文 参考訳(メタデータ) (2020-12-30T15:05:53Z) - Cooling-Shrinking Attack: Blinding the Tracker with Imperceptible Noises [87.53808756910452]
The method is proposed to deceive-of-the-the-art SiameseRPN-based tracker。
本手法は転送性に優れ,DaSiamRPN,DaSiamRPN-UpdateNet,DiMPなどの他のトップパフォーマンストラッカーを騙すことができる。
論文 参考訳(メタデータ) (2020-03-21T07:13:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。