論文の概要: DepTR-MOT: Unveiling the Potential of Depth-Informed Trajectory Refinement for Multi-Object Tracking
- arxiv url: http://arxiv.org/abs/2509.17323v1
- Date: Mon, 22 Sep 2025 02:58:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.216609
- Title: DepTR-MOT: Unveiling the Potential of Depth-Informed Trajectory Refinement for Multi-Object Tracking
- Title(参考訳): DepTR-MOT:多物体追跡のための深部インフォームド軌道修正の可能性
- Authors: Buyin Deng, Lingxin Huang, Kai Luo, Fei Teng, Kailun Yang,
- Abstract要約: DepTR-MOT(DepTR-MOT)をインスタンスレベルの深度情報で拡張したDepTR-MOT(DepTR-MOT)について紹介する。
具体的には, (i) 深度予測を洗練させる基礎モデルに基づくインスタンスレベルのソフトディープラベル管理, (ii) 地球深度一貫性を維持するための深度マップの蒸留という2つの重要なイノベーションを提案する。
- 参考スコア(独自算出の注目度): 11.870160177470753
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual Multi-Object Tracking (MOT) is a crucial component of robotic perception, yet existing Tracking-By-Detection (TBD) methods often rely on 2D cues, such as bounding boxes and motion modeling, which struggle under occlusions and close-proximity interactions. Trackers relying on these 2D cues are particularly unreliable in robotic environments, where dense targets and frequent occlusions are common. While depth information has the potential to alleviate these issues, most existing MOT datasets lack depth annotations, leading to its underexploited role in the domain. To unveil the potential of depth-informed trajectory refinement, we introduce DepTR-MOT, a DETR-based detector enhanced with instance-level depth information. Specifically, we propose two key innovations: (i) foundation model-based instance-level soft depth label supervision, which refines depth prediction, and (ii) the distillation of dense depth maps to maintain global depth consistency. These strategies enable DepTR-MOT to output instance-level depth during inference, without requiring foundation models and without additional computational cost. By incorporating depth cues, our method enhances the robustness of the TBD paradigm, effectively resolving occlusion and close-proximity challenges. Experiments on both the QuadTrack and DanceTrack datasets demonstrate the effectiveness of our approach, achieving HOTA scores of 27.59 and 44.47, respectively. In particular, results on QuadTrack, a robotic platform MOT dataset, highlight the advantages of our method in handling occlusion and close-proximity challenges in robotic tracking. The source code will be made publicly available at https://github.com/warriordby/DepTR-MOT.
- Abstract(参考訳): 視覚多目的追跡(MOT)はロボット知覚の重要な要素であるが、既存のトラッキング・バイ・ディテクト(TBD)法は、しばしば2次元のキューに依存している。
これらの2Dキューに依存するトラッカーは、特に密集したターゲットと頻繁な閉塞が一般的であるロボット環境では信頼性が低い。
深度情報はこれらの問題を緩和する可能性があるが、既存のMOTデータセットのほとんどは深度アノテーションが欠如しており、ドメインにおけるその過度な役割につながっている。
深度インフォームド・トラジェクトリ・リファインメントの可能性を明らかにするために,DepTR-MOT(DepTR-MOT)を導入した。
具体的には、2つの重要なイノベーションを提案します。
一 深度予測を洗練させる基礎モデルに基づくインスタンスレベルのソフトディープラベル監督及び
(II)大域的な深度一貫性を維持するための深度マップの蒸留。
これらの戦略により、DepTR-MOTは基礎モデルや計算コストを必要とせず、推論中にインスタンスレベルの深さを出力できる。
本手法は,奥行きの手がかりを取り入れることで,TBDパラダイムの堅牢性を高め,オクルージョンと近近性の課題を効果的に解決する。
QuadTrackデータセットとDanceTrackデータセットの両方の実験は、我々のアプローチの有効性を示し、HOTAスコアはそれぞれ27.59と44.47である。
特に、ロボットプラットフォームMOTデータセットであるQuadTrackの結果は、ロボットトラッキングにおける閉塞性や近近性の問題に対処する上で、我々の方法の利点を強調している。
ソースコードはhttps://github.com/warriordby/DepTR-MOT.comで公開されている。
関連論文リスト
- GRASPTrack: Geometry-Reasoned Association via Segmentation and Projection for Multi-Object Tracking [11.436294975354556]
GRASPTrackはモノクロ深度推定とインスタンスセグメンテーションを標準TBDパイプラインに統合する新しいMOTフレームワークである。
これらの3D点雲は、精密で堅牢なVoxel-based 3D Intersection-over-Unionを可能にするために酸化される。
論文 参考訳(メタデータ) (2025-08-11T15:56:21Z) - Optimizing Cooperative Multi-Object Tracking using Graph Signal Processing [45.68287260385148]
本稿では,3次元LiDARシーンにおける物体追跡のための協調型MOTフレームワークを提案する。
検出された境界ボックスによって定義される全連結グラフトポロジーを利用して、グラフラプラシアン処理最適化手法を用いる。
実世界のV2V4Realデータセットを用いて、広範な評価研究が行われた。
論文 参考訳(メタデータ) (2025-06-11T07:21:58Z) - Enhanced Object Tracking by Self-Supervised Auxiliary Depth Estimation Learning [15.364238035194854]
MDETrackと呼ばれる新しい手法を提案する。この手法は,シーンの深度を理解するための追加機能を備えたトラッキングネットワークを訓練する。
その結果,実際の深度を伴わずとも追跡精度が向上した。
論文 参考訳(メタデータ) (2024-05-23T05:43:38Z) - SparseTrack: Multi-Object Tracking by Performing Scene Decomposition
based on Pseudo-Depth [84.64121608109087]
2次元画像から目標の相対的な深さを求めるための擬似深度推定法を提案する。
次に,得られた深度情報を用いて,高密度なターゲットセットを複数のスパースなターゲットサブセットに変換するディープカスケードマッチング(DCM)アルゴリズムを設計する。
擬似深度法とDCM戦略をデータアソシエーションプロセスに統合することにより、SparseTrackと呼ばれる新しいトラッカーを提案する。
論文 参考訳(メタデータ) (2023-06-08T14:36:10Z) - Learning Dual-Fused Modality-Aware Representations for RGBD Tracking [67.14537242378988]
従来のRGBオブジェクトトラッキングと比較して、奥行きモードの追加は、ターゲットとバックグラウンドの干渉を効果的に解決することができる。
既存のRGBDトラッカーでは2つのモードを別々に使用しており、特に有用な共有情報は無視されている。
DMTracker(Dual-fused Modality-aware Tracker)を提案する。DMTrackerは,RGBDのロバストな追跡のために,対象対象物の情報的および識別的表現を学習することを目的としている。
論文 参考訳(メタデータ) (2022-11-06T07:59:07Z) - RLM-Tracking: Online Multi-Pedestrian Tracking Supported by Relative
Location Mapping [5.9669075749248774]
マルチオブジェクトトラッキングの問題は、公安、輸送、自動運転車、ロボティクス、人工知能を含む他の領域で広く利用されている、基本的なコンピュータビジョン研究の焦点である。
本稿では、オブジェクト textbfRelative Location Mapping (RLM) モデルと textbfTarget Region Density (TRD) モデルを含む、上記の問題に対する新しいマルチオブジェクトトラッカーを設計する。
新しいトラッカーは、オブジェクト間の位置関係の違いに敏感である。
物体の密度に応じてリアルタイムで異なる領域に低スコア検出フレームを導入することができる
論文 参考訳(メタデータ) (2022-10-19T11:37:14Z) - Minkowski Tracker: A Sparse Spatio-Temporal R-CNN for Joint Object
Detection and Tracking [53.64390261936975]
我々はオブジェクトの検出と追跡を共同で解決するスパース時間R-CNNであるMinkowski Trackerを提案する。
領域ベースCNN(R-CNN)に着想を得て,物体検出器R-CNNの第2段階として動きを追跡することを提案する。
大規模実験では,本手法の総合的な性能向上は4つの要因によることがわかった。
論文 参考訳(メタデータ) (2022-08-22T04:47:40Z) - Tracking-by-Counting: Using Network Flows on Crowd Density Maps for
Tracking Multiple Targets [96.98888948518815]
State-of-the-art multi-object tracking(MOT)法は、トラッキング・バイ・検出のパラダイムに従っている。
混み合ったシーンに適したMOTパラダイムであるトラッキング・バイ・カウントを提案する。
論文 参考訳(メタデータ) (2020-07-18T19:51:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。