論文の概要: Continuity-Discrimination Convolutional Neural Network for Visual Object
Tracking
- arxiv url: http://arxiv.org/abs/2104.08739v1
- Date: Sun, 18 Apr 2021 06:35:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 13:53:34.436908
- Title: Continuity-Discrimination Convolutional Neural Network for Visual Object
Tracking
- Title(参考訳): 物体追跡のための連続識別畳み込みニューラルネットワーク
- Authors: Shen Li, Bingpeng Ma, Hong Chang, Shiguang Shan, Xilin Chen
- Abstract要約: 本稿では,視覚オブジェクト追跡のためのContinuity-Discrimination Convolutional Neural Network (CD-CNN) という新しいモデルを提案する。
この問題に対処するため、cd-cnnは時間的遅れの概念に基づいた時間的外観連続性をモデル化する。
不正確なターゲットの定位とドリフトを緩和するために,新しい概念 object-centroid を提案する。
- 参考スコア(独自算出の注目度): 150.51667609413312
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper proposes a novel model, named Continuity-Discrimination
Convolutional Neural Network (CD-CNN), for visual object tracking. Existing
state-of-the-art tracking methods do not deal with temporal relationship in
video sequences, which leads to imperfect feature representations. To address
this problem, CD-CNN models temporal appearance continuity based on the idea of
temporal slowness. Mathematically, we prove that, by introducing temporal
appearance continuity into tracking, the upper bound of target appearance
representation error can be sufficiently small with high probability. Further,
in order to alleviate inaccurate target localization and drifting, we propose a
novel notion, object-centroid, to characterize not only objectness but also the
relative position of the target within a given patch. Both temporal appearance
continuity and object-centroid are jointly learned during offline training and
then transferred for online tracking. We evaluate our tracker through extensive
experiments on two challenging benchmarks and show its competitive tracking
performance compared with state-of-the-art trackers.
- Abstract(参考訳): 本稿では,視覚的物体追跡のための連続識別畳み込みニューラルネットワーク(CD-CNN)を提案する。
既存の最先端追跡手法は、ビデオシーケンスの時間的関係を扱わず、不完全な特徴表現をもたらす。
この問題に対処するため、cd-cnnは時間的遅れの概念に基づいた時間的外観連続性をモデル化する。
数学的には, 追跡に時間的出現連続性を導入することで, 目標出現表現誤差の上限が十分小さく, 確率の高い値であることが証明される。
さらに,不正確なターゲットの定位とドリフトを緩和するために,対象性だけでなく,パッチ内の対象の相対位置を特徴付ける新たな概念object-centroidを提案する。
時間的外観連続性とオブジェクト中心性は共にオフライントレーニング中に学び、オンライントラッキングに移される。
我々は,2つの難易度ベンチマークを用いた広範囲な実験を行い,最先端のトラッカと比較して,その競合追跡性能を示す。
関連論文リスト
- Spatio-Temporal Bi-directional Cross-frame Memory for Distractor Filtering Point Cloud Single Object Tracking [2.487142846438629]
LIDARポイント内の1つのオブジェクトトラッキングは、コンピュータビジョンにおける重要なタスクである。
既存の手法は、ネットワーク経由の外観マッチングのみに依存するか、連続したフレームからの情報を利用するが、重大な課題に遭遇する。
我々は、これらの課題を緩和するために、STMD-Trackerという、革新的なクロスフレームバイテンポラルモーショントラッカーを設計する。
論文 参考訳(メタデータ) (2024-03-23T13:15:44Z) - ACTrack: Adding Spatio-Temporal Condition for Visual Object Tracking [0.5371337604556311]
視覚的物体追跡(VOT)において,物体の時間的関係を効果的にモデル化することが重要な課題である
既存の手法は外観に基づく類似性や長期関係モデリングによって追跡され、連続するフレーム間の時間的コンテキストは容易に見過ごされてしまう。
本稿では,大規模な記憶条件を持つ付加的前時間追跡フレームワークであるACTrackについて述べる。このフレームワークは,そのパラメータを凍結することにより,トレーニング済みバックボーンの品質と性能を保ち,トラッキングにおける時間関係をモデル化するためのトレーニング可能な軽量付加性ネットを作成する。
我々は空間的特徴と時間的順序の整合性を確保するための付加的なシアム畳み込みネットワークを設計する。
論文 参考訳(メタデータ) (2024-02-27T07:34:08Z) - LEAP-VO: Long-term Effective Any Point Tracking for Visual Odometry [52.131996528655094]
本稿では,LEAP(Long-term Effective Any Point Tracking)モジュールについて述べる。
LEAPは、動的トラック推定のために、視覚的、トラック間、時間的キューと慎重に選択されたアンカーを革新的に組み合わせている。
これらの特徴に基づき,強靭な視力計測システムLEAP-VOを開発した。
論文 参考訳(メタデータ) (2024-01-03T18:57:27Z) - Uncovering the Missing Pattern: Unified Framework Towards Trajectory
Imputation and Prediction [60.60223171143206]
軌道予測は、観測されたシーケンスから実体運動や人間の行動を理解する上で重要な作業である。
現在の方法では、観測されたシーケンスが完了したと仮定し、欠落した値の可能性を無視する。
本稿では,グラフに基づく条件変動リカレントニューラルネットワーク (GC-VRNN) の統一フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-28T14:27:27Z) - Self-Regulated Learning for Egocentric Video Activity Anticipation [147.9783215348252]
自己制御学習(SRL)は、中間表現を連続的に制御し、現在のタイムスタンプのフレームにおける新しい情報を強調する表現を作り出すことを目的としている。
SRLは2つのエゴセントリックなビデオデータセットと2つの第三者のビデオデータセットにおいて、既存の最先端技術よりも大幅に優れています。
論文 参考訳(メタデータ) (2021-11-23T03:29:18Z) - Video Annotation for Visual Tracking via Selection and Refinement [74.08109740917122]
ビデオシーケンスのバウンディングボックスアノテーションを容易にするための新しいフレームワークを提案する。
目標位置の時間的コヒーレンスを捉えることのできる時間的アセスメントネットワークを提案する。
また、選択したトラッキング結果をさらに強化するために、ビジュアルジオメトリ・リファインメント・ネットワークが設計されている。
論文 参考訳(メタデータ) (2021-08-09T05:56:47Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z) - Deep Multi-Shot Network for modelling Appearance Similarity in
Multi-Person Tracking applications [0.0]
本稿では、人の観察における外観類似度(MS-DoAS)の測定のためのディープマルチショットニューラルモデルを提案する。
モデルは故意に訓練され、以前のアイデンティティスイッチの存在を管理し、処理されたトラックでの観察を見逃すことができる。
これは、新しい観測が特定の軌道に対応するときの識別能力の高さを示し、ハードテストで97%の分類精度を達成している。
論文 参考訳(メタデータ) (2020-04-07T16:43:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。