論文の概要: LRR: Language-Driven Resamplable Continuous Representation against Adversarial Tracking Attacks
- arxiv url: http://arxiv.org/abs/2404.06247v1
- Date: Tue, 9 Apr 2024 12:13:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-10 14:50:19.010031
- Title: LRR: Language-Driven Resamplable Continuous Representation against Adversarial Tracking Attacks
- Title(参考訳): LRR: 言語駆動型Resmplable Resmplable Continuous Representation for Adversarial Tracking Attacks
- Authors: Jianlang Chen, Xuhong Ren, Qing Guo, Felix Juefei-Xu, Di Lin, Wei Feng, Lei Ma, Jianjun Zhao,
- Abstract要約: 最先端トラッカー(SOTA)は、入ってくるフレームの対向的摂動に直面すると、しばしば失敗する。
関心対象の意味的テキストガイダンスを用いた時空間連続表現の構築を提案する。
本手法は,UAV123の相対的改善率約90%で,敵攻撃時の追跡精度を有意に向上させる。
- 参考スコア(独自算出の注目度): 27.251934234589967
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual object tracking plays a critical role in visual-based autonomous systems, as it aims to estimate the position and size of the object of interest within a live video. Despite significant progress made in this field, state-of-the-art (SOTA) trackers often fail when faced with adversarial perturbations in the incoming frames. This can lead to significant robustness and security issues when these trackers are deployed in the real world. To achieve high accuracy on both clean and adversarial data, we propose building a spatial-temporal continuous representation using the semantic text guidance of the object of interest. This novel continuous representation enables us to reconstruct incoming frames to maintain semantic and appearance consistency with the object of interest and its clean counterparts. As a result, our proposed method successfully defends against different SOTA adversarial tracking attacks while maintaining high accuracy on clean data. In particular, our method significantly increases tracking accuracy under adversarial attacks with around 90% relative improvement on UAV123, which is even higher than the accuracy on clean data.
- Abstract(参考訳): ビジュアルオブジェクトトラッキングは、ライブビデオ内の対象物の位置とサイズを推定することを目的として、視覚ベースの自律システムにおいて重要な役割を果たす。
この分野で大きな進歩があったにもかかわらず、最先端のSOTA(State-of-the-art)トラッカーは、入ってくるフレームの対向的摂動に直面すると、しばしば失敗する。
これにより、これらのトラッカーが現実世界にデプロイされると、大きな堅牢性とセキュリティ上の問題が発生する可能性がある。
クリーンデータと逆データの両方において高い精度を実現するために,関心対象の意味的テキストガイダンスを用いて空間的・時間的連続表現を構築することを提案する。
この新しい連続表現により、入ってくるフレームを再構築し、興味の対象とそのクリーンなフレームとのセマンティックおよび外観整合性を維持することができる。
その結果,提案手法は清潔なデータに対して高い精度を維持しつつ,異なるSOTA敵追尾攻撃に対する防御に成功している。
特に,UAV123の相対的改善率約90%で敵攻撃時の追跡精度が有意に向上し,クリーンデータの精度よりも高い値が得られた。
関連論文リスト
- OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - RTracker: Recoverable Tracking via PN Tree Structured Memory [71.05904715104411]
本稿では,木構造メモリを用いてトラッカーと検出器を動的に関連付け,自己回復を可能にするRTrackerを提案する。
具体的には,正負と負のターゲットサンプルを時系列に保存し,維持する正負のツリー構造メモリを提案する。
我々の中核となる考え方は、正と負の目標カテゴリーの支持サンプルを用いて、目標損失の信頼性評価のための相対的距離に基づく基準を確立することである。
論文 参考訳(メタデータ) (2024-03-28T08:54:40Z) - Spatio-Temporal Bi-directional Cross-frame Memory for Distractor Filtering Point Cloud Single Object Tracking [2.487142846438629]
LIDARポイント内の1つのオブジェクトトラッキングは、コンピュータビジョンにおける重要なタスクである。
既存の手法は、ネットワーク経由の外観マッチングのみに依存するか、連続したフレームからの情報を利用するが、重大な課題に遭遇する。
我々は、これらの課題を緩和するために、STMD-Trackerという、革新的なクロスフレームバイテンポラルモーショントラッカーを設計する。
論文 参考訳(メタデータ) (2024-03-23T13:15:44Z) - Context-aware Visual Tracking with Joint Meta-updating [11.226947525556813]
本稿では,シーケンス全体に沿った情報を活用することで,両ブランチを共同でメタ更新する,表現空間上のトラッカーを最適化するコンテキスト認識追跡モデルを提案する。
提案手法は,VOT2018におけるEAOスコアの0.514を40FPSの速度で達成し,基礎となるトラッカーの精度とロバスト性を向上できることを示す。
論文 参考訳(メタデータ) (2022-04-04T14:16:00Z) - Continuity-Discrimination Convolutional Neural Network for Visual Object
Tracking [150.51667609413312]
本稿では,視覚オブジェクト追跡のためのContinuity-Discrimination Convolutional Neural Network (CD-CNN) という新しいモデルを提案する。
この問題に対処するため、cd-cnnは時間的遅れの概念に基づいた時間的外観連続性をモデル化する。
不正確なターゲットの定位とドリフトを緩和するために,新しい概念 object-centroid を提案する。
論文 参考訳(メタデータ) (2021-04-18T06:35:03Z) - Temporally-Transferable Perturbations: Efficient, One-Shot Adversarial
Attacks for Online Visual Object Trackers [81.90113217334424]
本研究では, オブジェクトテンプレート画像からのみ, 一時移動可能な対人的摂動を生成するフレームワークを提案する。
この摂動はあらゆる検索画像に追加され、事実上何のコストもかからないが、それでもトラッカーを騙すのに成功している。
論文 参考訳(メタデータ) (2020-12-30T15:05:53Z) - Robust Tracking against Adversarial Attacks [69.59717023941126]
まず,ビデオシーケンス上に敵の例を生成して,敵の攻撃に対するロバスト性を改善する。
提案手法を最先端のディープトラッキングアルゴリズムに適用する。
論文 参考訳(メタデータ) (2020-07-20T08:05:55Z) - Spatiotemporal Attacks for Embodied Agents [119.43832001301041]
我々は、エンボディエージェントに対する敵攻撃を研究するための第一歩を踏み出した。
特に,時間次元と空間次元の両方の相互作用履歴を利用する逆例を生成する。
我々の摂動は強力な攻撃力と一般化能力を持っている。
論文 参考訳(メタデータ) (2020-05-19T01:38:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。