論文の概要: Depth-Aware Scoring and Hierarchical Alignment for Multiple Object Tracking
- arxiv url: http://arxiv.org/abs/2506.00774v1
- Date: Sun, 01 Jun 2025 01:44:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:33.579154
- Title: Depth-Aware Scoring and Hierarchical Alignment for Multiple Object Tracking
- Title(参考訳): 複数物体追跡のための奥行き認識と階層的アライメント
- Authors: Milad Khanchi, Maria Amer, Charalambos Poullis,
- Abstract要約: 現在の動きに基づく複数物体追跡手法は、オブジェクトアソシエーションにおいてIntersection-over-Union (IoU) に大きく依存している。
ゼロショットアプローチを用いて深度を推定し,それをアソシエーションプロセスにおける独立した特徴として組み込む。
階層的アライメントスコアを導入し、粗いバウンディングボックスのオーバーラップと細粒度(ピクセルレベルの)アライメントを統合してIoUを洗練させる。
- 参考スコア(独自算出の注目度): 2.4578723416255754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current motion-based multiple object tracking (MOT) approaches rely heavily on Intersection-over-Union (IoU) for object association. Without using 3D features, they are ineffective in scenarios with occlusions or visually similar objects. To address this, our paper presents a novel depth-aware framework for MOT. We estimate depth using a zero-shot approach and incorporate it as an independent feature in the association process. Additionally, we introduce a Hierarchical Alignment Score that refines IoU by integrating both coarse bounding box overlap and fine-grained (pixel-level) alignment to improve association accuracy without requiring additional learnable parameters. To our knowledge, this is the first MOT framework to incorporate 3D features (monocular depth) as an independent decision matrix in the association step. Our framework achieves state-of-the-art results on challenging benchmarks without any training nor fine-tuning. The code is available at https://github.com/Milad-Khanchi/DepthMOT
- Abstract(参考訳): 現在の動きに基づくマルチオブジェクトトラッキング(MOT)アプローチは、オブジェクトアソシエーションのためのIntersection-over-Union(IoU)に大きく依存している。
3D機能を使用しなければ、オクルージョンや視覚的に類似したオブジェクトを持つシナリオでは効果がない。
そこで本研究では,MOTのための新しい奥行き認識フレームワークを提案する。
ゼロショットアプローチを用いて深度を推定し,それをアソシエーションプロセスにおける独立した特徴として組み込む。
さらに,階層的アライメントスコアを導入し,粗いバウンディングボックスと細粒度(ピクセルレベルの)アライメントを統合してIoUを改良する。
我々の知る限り、これは3次元特徴(眼深度)を独立決定行列として結合ステップに組み込んだ初めてのMOTフレームワークである。
我々のフレームワークは、トレーニングや微調整なしに、挑戦的なベンチマークで最先端の結果を得る。
コードはhttps://github.com/Milad-Khanchi/DepthMOTで入手できる。
関連論文リスト
- PD-SORT: Occlusion-Robust Multi-Object Tracking Using Pseudo-Depth Cues [8.642829333393442]
マルチオブジェクトトラッキング (MOT) は、ビデオ処理技術において注目される話題であり、消費者電子製品において重要な応用価値を持つ。
現在、トラッキング・バイ・ディテクト(TBD)がMOTの主要なパラダイムであり、フレーム単位でターゲット検出とアソシエーション・フレームを実行する。
本研究では,Pseudo-Depth SORT (PD-SORT) を提案する。
論文 参考訳(メタデータ) (2025-01-20T05:50:39Z) - Hierarchical Temporal Context Learning for Camera-based Semantic Scene Completion [57.232688209606515]
カメラによるセマンティックシーンの補完を改善するための,新たな時間的文脈学習パラダイムであるHTCLを提案する。
提案手法は,Semantic KITTIベンチマークで1st$をランク付けし,mIoUの点でLiDARベースの手法を超えている。
論文 参考訳(メタデータ) (2024-07-02T09:11:17Z) - 3DRP-Net: 3D Relative Position-aware Network for 3D Visual Grounding [58.924180772480504]
3Dビジュアルグラウンドは、自由形式の言語記述によって、ターゲットオブジェクトを3Dポイントクラウドにローカライズすることを目的としている。
3次元相対位置認識ネットワーク(3-Net)という,関係性を考慮した一段階フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-25T09:33:25Z) - OBMO: One Bounding Box Multiple Objects for Monocular 3D Object
Detection [24.9579490539696]
単分子3D物体検出は、単純な構成のため、多くの注目を集めている。
本稿では,単眼画像の異常な性質が奥行きの曖昧さに繋がることを見出した。
We propose a plug-and-play module, underlineOne underlineBounding Box underlineMultiple underlineObjects (OBMO)。
論文 参考訳(メタデータ) (2022-12-20T07:46:49Z) - Depth Perspective-aware Multiple Object Tracking [24.06104433665443]
DP-MOTは、リアルタイムの深度パースペクティブを意識したマルチオブジェクト追跡手法である。
提案手法は最近のMOT法と比較して常に最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-07-10T22:12:00Z) - M3DSSD: Monocular 3D Single Stage Object Detector [82.25793227026443]
特徴アライメントと非対称非局所的注意を有するモノクロ3次元単段物体検出器(M3DSSD)を提案する。
提案したM3DSSDは,KITTIデータセット上のモノラルな3Dオブジェクト検出手法よりも大幅に性能が向上する。
論文 参考訳(メタデータ) (2021-03-24T13:09:11Z) - Relation3DMOT: Exploiting Deep Affinity for 3D Multi-Object Tracking
from View Aggregation [8.854112907350624]
3Dマルチオブジェクトトラッキングは、自律ナビゲーションにおいて重要な役割を果たす。
多くのアプローチでは、トラッキングのための2次元RGBシーケンス内のオブジェクトを検出するが、これは3次元空間内のオブジェクトをローカライズする際の信頼性の欠如である。
本稿では,隣接フレーム内の各オブジェクト間の相関をよりよく活用するために,RelationConvという新しい畳み込み演算を提案する。
論文 参考訳(メタデータ) (2020-11-25T16:14:40Z) - GNN3DMOT: Graph Neural Network for 3D Multi-Object Tracking with
Multi-Feature Learning [30.72094639797806]
3次元多物体追跡(MOT)は自律システムにとって不可欠である。
そこで本研究では,MOTの識別的特徴学習を改善するための2つの手法を提案する。
提案手法は, KITTI および nuScenes 3D MOT ベンチマーク上での最先端性能を実現する。
論文 参考訳(メタデータ) (2020-06-12T17:08:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。