論文の概要: Learning to Adversarially Blur Visual Object Tracking
- arxiv url: http://arxiv.org/abs/2107.12085v1
- Date: Mon, 26 Jul 2021 10:09:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-27 16:23:56.809188
- Title: Learning to Adversarially Blur Visual Object Tracking
- Title(参考訳): 視覚的物体追跡の可視化学習
- Authors: Qing Guo and Ziyi Cheng and Felix Juefei-Xu and Lei Ma and Xiaofei Xie
and Yang Liu and Jianjun Zhao
- Abstract要約: 我々は、新しい角度、すなわち対向的ぼかし攻撃(ABA)による動きのぼかしに対する視覚的物体追跡器の頑健性を探る。
我々の主な目的は、入力フレームを天然のモーションブルーのフレームにオンライン転送し、最先端のトラッカーを誤解させることである。
4つの一般的なデータセットの実験は、我々の手法が4つの最先端トラッカーにかなりの精度の低下を引き起こすことを実証している。
- 参考スコア(独自算出の注目度): 20.09244487298934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motion blur caused by the moving of the object or camera during the exposure
can be a key challenge for visual object tracking, affecting tracking accuracy
significantly. In this work, we explore the robustness of visual object
trackers against motion blur from a new angle, i.e., adversarial blur attack
(ABA). Our main objective is to online transfer input frames to their natural
motion-blurred counterparts while misleading the state-of-the-art trackers
during the tracking process. To this end, we first design the motion blur
synthesizing method for visual tracking based on the generation principle of
motion blur, considering the motion information and the light accumulation
process. With this synthetic method, we propose \textit{optimization-based ABA
(OP-ABA)} by iteratively optimizing an adversarial objective function against
the tracking w.r.t. the motion and light accumulation parameters. The OP-ABA is
able to produce natural adversarial examples but the iteration can cause heavy
time cost, making it unsuitable for attacking real-time trackers. To alleviate
this issue, we further propose \textit{one-step ABA (OS-ABA)} where we design
and train a joint adversarial motion and accumulation predictive network
(JAMANet) with the guidance of OP-ABA, which is able to efficiently estimate
the adversarial motion and accumulation parameters in a one-step way. The
experiments on four popular datasets (\eg, OTB100, VOT2018, UAV123, and LaSOT)
demonstrate that our methods are able to cause significant accuracy drops on
four state-of-the-art trackers with high transferability. Please find the
source code at https://github.com/tsingqguo/ABA
- Abstract(参考訳): 被曝時の被写体やカメラの移動による運動のぼかしは、視覚的物体追跡にとって重要な課題であり、追跡精度に大きな影響を及ぼす。
本研究では,新たなアングル,すなわち対向的ぼかし攻撃(ABA)による動きのぼかしに対する視覚的物体追跡器の堅牢性について検討する。
当社の主な目的は、トラッキングプロセス中に最先端のトラッカーを誤解させながら、入力フレームを自然なモーションブララーにオンライン転送することにあります。
そこで我々はまず,モーション情報と光蓄積過程を考慮した,モーションブラーの生成原理に基づく視覚追跡のためのモーションブラー合成法を設計する。
この合成手法により、追跡w.r.tに対する対向目的関数を反復的に最適化し、textit{optimization-based ABA(OP-ABA)を提案する。
動きと光の蓄積パラメータ
OP-ABAは自然な敵の例を生成することができるが、このイテレーションは重い時間コストを引き起こす可能性があるため、リアルタイムトラッカーを攻撃するには適さない。
この問題を軽減するために, OP-ABAの誘導により, 対向運動・蓄積予測ネットワーク(JAMANet)を設計・訓練し, 対向運動・蓄積パラメータを1ステップで効率的に推定できる「textit{one-step ABA(OS-ABA)」を提案する。
一般的な4つのデータセット (\eg, OTB100, VOT2018, UAV123, LaSOT) に対する実験により、我々の手法は、高い転送性を持つ4つの最先端トラッカーに対して、大幅な精度低下を引き起こすことを示した。
ソースコードはhttps://github.com/tsingqguo/abaにある。
関連論文リスト
- Learning Motion Blur Robust Vision Transformers with Dynamic Early Exit for Real-Time UAV Tracking [14.382072224997074]
トレーニング済みのViTバックボーンを使用したシングルストリームアーキテクチャでは、パフォーマンス、効率、堅牢性が改善されている。
リアルタイムなUAV追跡のためにTransformerブロックを動的に終了する適応型フレームワークにすることで、このフレームワークの効率を向上する。
また, 動きのぼかし処理におけるViTsの有効性も改善した。これは, UAV, 追跡対象の速さ, あるいはその両方によって生じるUAVトラッキングの共通問題である。
論文 参考訳(メタデータ) (2024-07-07T14:10:04Z) - Spatio-Temporal Bi-directional Cross-frame Memory for Distractor Filtering Point Cloud Single Object Tracking [2.487142846438629]
LIDARポイント内の1つのオブジェクトトラッキングは、コンピュータビジョンにおける重要なタスクである。
既存の手法は、ネットワーク経由の外観マッチングのみに依存するか、連続したフレームからの情報を利用するが、重大な課題に遭遇する。
我々は、これらの課題を緩和するために、STMD-Trackerという、革新的なクロスフレームバイテンポラルモーショントラッカーを設計する。
論文 参考訳(メタデータ) (2024-03-23T13:15:44Z) - Dense Optical Tracking: Connecting the Dots [82.79642869586587]
DOTは、ビデオにおけるポイントトラッキングの問題を解決するための、新しくてシンプルで効率的な方法である。
OmniMotionのような高度な"ユニバーサルトラッカー"を上回り、CoTrackerのような最良のポイントトラッキングアルゴリズムと同等か、あるいはそれ以上の精度で、DOTが現在の光フロー技術よりもはるかに正確であることを示す。
論文 参考訳(メタデータ) (2023-12-01T18:59:59Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - DORT: Modeling Dynamic Objects in Recurrent for Multi-Camera 3D Object
Detection and Tracking [67.34803048690428]
本稿では、この問題を解決するためにRecurrenT(DORT)の動的オブジェクトをモデル化することを提案する。
DORTは、重い計算負担を軽減する動き推定のために、オブジェクトワイズローカルボリュームを抽出する。
フレキシブルで実用的で、ほとんどのカメラベースの3Dオブジェクト検出器に差し込むことができる。
論文 参考訳(メタデータ) (2023-03-29T12:33:55Z) - An Effective Motion-Centric Paradigm for 3D Single Object Tracking in
Point Clouds [50.19288542498838]
LiDARポイントクラウド(LiDAR SOT)における3Dシングルオブジェクトトラッキングは、自動運転において重要な役割を果たす。
現在のアプローチはすべて、外観マッチングに基づくシームズパラダイムに従っている。
我々は新たな視点からLiDAR SOTを扱うための動き中心のパラダイムを導入する。
論文 参考訳(メタデータ) (2023-03-21T17:28:44Z) - Propagate And Calibrate: Real-time Passive Non-line-of-sight Tracking [84.38335117043907]
本研究では,リレー壁のみを観察することで,見えない部屋を歩いている人を追跡する純粋受動的手法を提案する。
本研究では,リレー壁の映像の非知覚的変化を発掘するため,時間的局所的な動きの伝達に欠かせない特徴として差分フレームを導入する。
提案手法を評価するため,最初の動的受動NLOS追跡データセットであるNLOS-Trackを構築し,公開する。
論文 参考訳(メタデータ) (2023-03-21T12:18:57Z) - ArTIST: Autoregressive Trajectory Inpainting and Scoring for Tracking [80.02322563402758]
オンラインマルチオブジェクトトラッキング(MOT)フレームワークの中核的なコンポーネントの1つは、既存のトラックレットと新しい検出を関連付けることである。
そこで我々は,トラックレットが自然運動を表す可能性を直接測定することにより,トラックレットの提案を評価する確率論的自己回帰生成モデルを提案する。
論文 参考訳(メタデータ) (2020-04-16T06:43:11Z) - End-to-end Learning of Object Motion Estimation from Retinal Events for
Event-based Object Tracking [35.95703377642108]
イベントベースオブジェクト追跡のためのパラメトリックオブジェクトレベルの動き/変換モデルを学習し、回帰する新しいディープニューラルネットワークを提案する。
この目的を達成するために,線形時間減衰表現を用いた同期時間曲面を提案する。
我々は、TSLTDフレームのシーケンスを新しい網膜運動回帰ネットワーク(RMRNet)に供給し、エンド・ツー・エンドの5-DoFオブジェクト・モーション・レグレッションを実行する。
論文 参考訳(メタデータ) (2020-02-14T08:19:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。