論文の概要: Cooling-Shrinking Attack: Blinding the Tracker with Imperceptible Noises
- arxiv url: http://arxiv.org/abs/2003.09595v1
- Date: Sat, 21 Mar 2020 07:13:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 13:07:44.756548
- Title: Cooling-Shrinking Attack: Blinding the Tracker with Imperceptible Noises
- Title(参考訳): 冷却シュリンキング攻撃:不可避なノイズでトラッカーを盲目にする
- Authors: Bin Yan and Dong Wang and Huchuan Lu and Xiaoyun Yang
- Abstract要約: The method is proposed to deceive-of-the-the-art SiameseRPN-based tracker。
本手法は転送性に優れ,DaSiamRPN,DaSiamRPN-UpdateNet,DiMPなどの他のトップパフォーマンストラッカーを騙すことができる。
- 参考スコア(独自算出の注目度): 87.53808756910452
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attack of CNN aims at deceiving models to misbehave by adding
imperceptible perturbations to images. This feature facilitates to understand
neural networks deeply and to improve the robustness of deep learning models.
Although several works have focused on attacking image classifiers and object
detectors, an effective and efficient method for attacking single object
trackers of any target in a model-free way remains lacking. In this paper, a
cooling-shrinking attack method is proposed to deceive state-of-the-art
SiameseRPN-based trackers. An effective and efficient perturbation generator is
trained with a carefully designed adversarial loss, which can simultaneously
cool hot regions where the target exists on the heatmaps and force the
predicted bounding box to shrink, making the tracked target invisible to
trackers. Numerous experiments on OTB100, VOT2018, and LaSOT datasets show that
our method can effectively fool the state-of-the-art SiameseRPN++ tracker by
adding small perturbations to the template or the search regions. Besides, our
method has good transferability and is able to deceive other top-performance
trackers such as DaSiamRPN, DaSiamRPN-UpdateNet, and DiMP. The source codes are
available at https://github.com/MasterBin-IIAU/CSA.
- Abstract(参考訳): cnnのadversarial attackは、イメージに不可避な摂動を追加することで、モデルを誤用することを目的としている。
この機能は、ニューラルネットワークを深く理解し、ディープラーニングモデルの堅牢性を改善するのに役立つ。
画像分類器や物体検出装置の攻撃に焦点をあてた研究はいくつかあるが、モデルなしの方法で標的の1つの物体追跡装置を攻撃するための効果的で効率的な手法はいまだに欠けている。
本稿では,シームセRPNをベースとしたトラッカーの冷却収縮攻撃手法を提案する。
効果的で効率的な摂動発生器は、熱マップ上にターゲットが存在するホット領域を同時に冷却し、予測された境界ボックスを縮小させ、追跡対象をトラッカーに見えないように、慎重に設計された逆方向損失で訓練される。
OTB100,VOT2018,LaSOTデータセットに対する多数の実験により,テンプレートや検索領域に小さな摂動を加えることで,最先端のSiameseRPN++トラッカーを効果的に騙すことができることが示された。
また,本手法は高い転送性を有し,DaSiamRPN,DaSiamRPN-UpdateNet,DiMPなどの他のトップパフォーマンストラッカーを騙すことができる。
ソースコードはhttps://github.com/MasterBin-IIAU/CSAで入手できる。
関連論文リスト
- TEN-GUARD: Tensor Decomposition for Backdoor Attack Detection in Deep
Neural Networks [3.489779105594534]
本稿では,ネットワークアクティベーションに適用した2つのテンソル分解法によるバックドア検出手法を提案する。
これは、複数のモデルを同時に分析する機能など、既存の検出方法と比較して、多くの利点がある。
その結果,現在の最先端手法よりも,バックドアネットワークを高精度かつ効率的に検出できることがわかった。
論文 参考訳(メタデータ) (2024-01-06T03:08:28Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - IoU Attack: Towards Temporally Coherent Black-Box Adversarial Attack for
Visual Object Tracking [70.14487738649373]
アドリア攻撃は、深いニューラルネットワークが、知覚不能な摂動によって注入された入力サンプルを知覚する脆弱性によって起こる。
視覚的物体追跡のための決定に基づくブラックボックス攻撃法を提案する。
我々は、最先端のディープトラッカーに対するIoU攻撃を検証した。
論文 参考訳(メタデータ) (2021-03-27T16:20:32Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Temporally-Transferable Perturbations: Efficient, One-Shot Adversarial
Attacks for Online Visual Object Trackers [81.90113217334424]
本研究では, オブジェクトテンプレート画像からのみ, 一時移動可能な対人的摂動を生成するフレームワークを提案する。
この摂動はあらゆる検索画像に追加され、事実上何のコストもかからないが、それでもトラッカーを騙すのに成功している。
論文 参考訳(メタデータ) (2020-12-30T15:05:53Z) - Efficient Adversarial Attacks for Visual Object Tracking [73.43180372379594]
本稿では,新たなドリフト損失と組込み機能損失を併用して,シームズネットワークベースのトラッカーを攻撃するエンド・ツー・エンド・エンド・ネットワークFANを提案する。
単一のGPUの下では、FANはトレーニング速度が効率的で、強力な攻撃性能を持つ。
論文 参考訳(メタデータ) (2020-08-01T08:47:58Z) - Miss the Point: Targeted Adversarial Attack on Multiple Landmark
Detection [29.83857022733448]
本稿では,CNNをベースとしたモデルが,逆方向の摂動に対する複数のランドマーク検出に与える影響を初めて検討した。
本稿では,複数のランドマーク検出における最先端モデルに対する適応的反復FGSM攻撃を提案する。
論文 参考訳(メタデータ) (2020-07-10T07:58:35Z) - Luring of transferable adversarial perturbations in the black-box
paradigm [0.0]
我々は、ブラックボックス転送攻撃に対するモデルの堅牢性を改善するための新しいアプローチを提案する。
除去可能な追加ニューラルネットワークが対象モデルに含まれており、テクスチャリング効果を誘導するように設計されている。
提案手法は,対象モデルの予測にのみアクセス可能であり,ラベル付きデータセットを必要としない。
論文 参考訳(メタデータ) (2020-04-10T06:48:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。