論文の概要: TSDM: Tracking by SiamRPN++ with a Depth-refiner and a Mask-generator
- arxiv url: http://arxiv.org/abs/2005.04063v1
- Date: Fri, 8 May 2020 14:25:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 12:53:26.257944
- Title: TSDM: Tracking by SiamRPN++ with a Depth-refiner and a Mask-generator
- Title(参考訳): tsdm: depth-refiner と mask-generator による siamrpn++ によるトラッキング
- Authors: Pengyao Zhao, Quanli Liu, Wei Wang and Qiang Guo
- Abstract要約: 本稿では,Mask-generator (M-g), SiamRPN++, Depth-refiner (D-r) からなるRGB-DトラッカーTSDMを提案する。
トラッカーは23FPSを達成しながら、最先端の技術を大きなマージンで上回ります。
- 参考スコア(独自算出の注目度): 6.578275740028436
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In a generic object tracking, depth (D) information provides informative cues
for foreground-background separation and target bounding box regression.
However, so far, few trackers have used depth information to play the important
role aforementioned due to the lack of a suitable model. In this paper, a RGB-D
tracker named TSDM is proposed, which is composed of a Mask-generator (M-g),
SiamRPN++ and a Depth-refiner (D-r). The M-g generates the background masks,
and updates them as the target 3D position changes. The D-r optimizes the
target bounding box estimated by SiamRPN++, based on the spatial depth
distribution difference between the target and the surrounding background.
Extensive evaluation on the Princeton Tracking Benchmark and the Visual Object
Tracking challenge shows that our tracker outperforms the state-of-the-art by a
large margin while achieving 23 FPS. In addition, a light-weight variant can
run at 31 FPS and thus it is practical for real world applications. Code and
models of TSDM are available at https://github.com/lql-team/TSDM.
- Abstract(参考訳): 汎用的なオブジェクト追跡では、深度(d)情報は前景-背景分離と目標バウンディングボックス回帰のための情報的手がかりを提供する。
しかし,これまでに適切なモデルがないため,上記の重要な役割を果たすために奥行き情報を利用したトラッカーは少ない。
本稿では,Mask-generator (M-g), SiamRPN++, Depth-refiner (D-r) からなるRGB-DトラッカーTSDMを提案する。
m-gは背景マスクを生成し、ターゲットの3d位置が変わると更新する。
D-rは、ターゲットと周辺背景の空間深さ分布差に基づいて、SiamRPN++によって推定されるターゲット境界ボックスを最適化する。
princeton tracking benchmarkとvisual object tracking challengeの広範な評価から、我々のトラッカーは23fpsで最先端を上回っていることが分かりました。
加えて、軽量な変種は31FPSで動作可能であり、現実の応用には実用的である。
TSDMのコードとモデルはhttps://github.com/lql-team/TSDMで公開されている。
関連論文リスト
- Enhanced Object Tracking by Self-Supervised Auxiliary Depth Estimation Learning [15.364238035194854]
MDETrackと呼ばれる新しい手法を提案する。この手法は,シーンの深度を理解するための追加機能を備えたトラッキングネットワークを訓練する。
その結果,実際の深度を伴わずとも追跡精度が向上した。
論文 参考訳(メタデータ) (2024-05-23T05:43:38Z) - SparseTrack: Multi-Object Tracking by Performing Scene Decomposition
based on Pseudo-Depth [84.64121608109087]
2次元画像から目標の相対的な深さを求めるための擬似深度推定法を提案する。
次に,得られた深度情報を用いて,高密度なターゲットセットを複数のスパースなターゲットサブセットに変換するディープカスケードマッチング(DCM)アルゴリズムを設計する。
擬似深度法とDCM戦略をデータアソシエーションプロセスに統合することにより、SparseTrackと呼ばれる新しいトラッカーを提案する。
論文 参考訳(メタデータ) (2023-06-08T14:36:10Z) - Learning Dual-Fused Modality-Aware Representations for RGBD Tracking [67.14537242378988]
従来のRGBオブジェクトトラッキングと比較して、奥行きモードの追加は、ターゲットとバックグラウンドの干渉を効果的に解決することができる。
既存のRGBDトラッカーでは2つのモードを別々に使用しており、特に有用な共有情報は無視されている。
DMTracker(Dual-fused Modality-aware Tracker)を提案する。DMTrackerは,RGBDのロバストな追跡のために,対象対象物の情報的および識別的表現を学習することを目的としている。
論文 参考訳(メタデータ) (2022-11-06T07:59:07Z) - Weighted Bayesian Gaussian Mixture Model for Roadside LiDAR Object
Detection [0.5156484100374059]
背景モデリングは、静的な背景成分を減じることで移動目標を検出するインテリジェントな監視システムに広く利用されている。
多くの道路沿いのLiDARオブジェクト検出手法は、新しいデータポイントと事前訓練されたバックグラウンド参照を比較して前景点をフィルタリングする。
本稿では,各LiDAR点の標高と方位値に基づいて,生のLiDARデータを構造化表現に変換する。
提案手法は,2つの最先端の道路背景モデル,コンピュータビジョンベンチマーク,深層学習ベースラインを比較し,交通量と難易度で評価された点,対象,経路レベルを比較した。
論文 参考訳(メタデータ) (2022-04-20T22:48:05Z) - Visible-Thermal UAV Tracking: A Large-Scale Benchmark and New Baseline [80.13652104204691]
本稿では,可視熱UAV追跡(VTUAV)のための高多様性の大規模ベンチマークを構築する。
本稿では, フレームレベルの属性を, チャレンジ固有のトラッカーの可能性を利用するための粗粒度属性アノテーションを提案する。
さらに,様々なレベルでRGB-Tデータを融合するHMFT(Hierarchical Multi-modal Fusion Tracker)という新しいRGB-Tベースラインを設計する。
論文 参考訳(メタデータ) (2022-04-08T15:22:33Z) - RGBD Object Tracking: An In-depth Review [89.96221353160831]
まず、RGBD融合、深度利用、追跡フレームワークなど、さまざまな視点からRGBDオブジェクトトラッカーをレビューする。
我々はRGBDトラッカーの代表セットをベンチマークし、その性能に基づいて詳細な分析を行う。
論文 参考訳(メタデータ) (2022-03-26T18:53:51Z) - Robust Visual Tracking by Segmentation [103.87369380021441]
対象範囲を推定することは、視覚的物体追跡において根本的な課題となる。
高精度なセグメンテーションマスクを生成するセグメンテーション中心のトラッキングパイプラインを提案する。
我々のトラッカーは、シーンのターゲットを背景コンテンツと明確に区別するターゲット表現をよりよく学習することができる。
論文 参考訳(メタデータ) (2022-03-21T17:59:19Z) - A Lightweight and Detector-free 3D Single Object Tracker on Point Clouds [50.54083964183614]
生のLiDARスキャンにおける物体の点雲は、通常スパースで不完全であるため、正確な目標固有検出を行うのは簡単ではない。
DMTは、複雑な3D検出器の使用を完全に除去する3Dトラッキングネットワークである。
論文 参考訳(メタデータ) (2022-03-08T17:49:07Z) - Depth-only Object Tracking [23.27677106839962]
大量の深度データを用いて訓練した場合、Dのみの追跡がどこまで進むかを検討する。
生成されたデータでスクラッチから"Depth-DiMP"をトレーニングし、利用可能な小さなRGBD追跡データセットで微調整します。
深度のみのDiMPは、深度のみのトラッキングにおいて優れた精度を実現し、オリジナルのRGB DiMPと組み合わせて、エンドツーエンドのトレーニングRGBD-DiMPは、最近のVOT 2020 RGBDの勝者よりも優れています。
論文 参考訳(メタデータ) (2021-10-22T09:59:31Z) - DepthTrack : Unveiling the Power of RGBD Tracking [29.457114656913944]
この作業では、新しいRGBDトラッキングデータセットであるDepth-Trackが導入されている。
既存の最大データセットの2倍のシーケンス(200)とシーンタイプ(40)を持つ。
シーケンスの平均長(1473)、変形可能なオブジェクト数(16)、追跡属性数(15)が増加する。
論文 参考訳(メタデータ) (2021-08-31T16:42:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。