論文の概要: OmniTrack++: Omnidirectional Multi-Object Tracking by Learning Large-FoV Trajectory Feedback
- arxiv url: http://arxiv.org/abs/2511.00510v1
- Date: Sat, 01 Nov 2025 11:28:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.815634
- Title: OmniTrack++: Omnidirectional Multi-Object Tracking by Learning Large-FoV Trajectory Feedback
- Title(参考訳): OmniTrack++: 大規模軌跡フィードバック学習による一方向多目的追跡
- Authors: Kai Luo, Hao Shi, Kunyu Peng, Fei Teng, Sheng Wu, Kaiwei Wang, Kailun Yang,
- Abstract要約: 本稿ではパノラマ画像におけるマルチオブジェクト追跡(MOT)について検討する。
MOTは、360deg Field of View (FoV)、解像度の希釈、厳密なビュー依存歪みなど、ユニークな課題を導入している。
360deg FoVでパノラマ歪み、大きな検索スペース、アイデンティティの曖昧さに対処するため、OmniTrack++はフィードバック駆動のフレームワークを採用している。
- 参考スコア(独自算出の注目度): 40.746857157430256
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates Multi-Object Tracking (MOT) in panoramic imagery, which introduces unique challenges including a 360{\deg} Field of View (FoV), resolution dilution, and severe view-dependent distortions. Conventional MOT methods designed for narrow-FoV pinhole cameras generalize unsatisfactorily under these conditions. To address panoramic distortion, large search space, and identity ambiguity under a 360{\deg} FoV, OmniTrack++ adopts a feedback-driven framework that progressively refines perception with trajectory cues. A DynamicSSM block first stabilizes panoramic features, implicitly alleviating geometric distortion. On top of normalized representations, FlexiTrack Instances use trajectory-informed feedback for flexible localization and reliable short-term association. To ensure long-term robustness, an ExpertTrack Memory consolidates appearance cues via a Mixture-of-Experts design, enabling recovery from fragmented tracks and reducing identity drift. Finally, a Tracklet Management module adaptively switches between end-to-end and tracking-by-detection modes according to scene dynamics, offering a balanced and scalable solution for panoramic MOT. To support rigorous evaluation, we establish the EmboTrack benchmark, a comprehensive dataset for panoramic MOT that includes QuadTrack, captured with a quadruped robot, and BipTrack, collected with a bipedal wheel-legged robot. Together, these datasets span wide-angle environments and diverse motion patterns, providing a challenging testbed for real-world panoramic perception. Extensive experiments on JRDB and EmboTrack demonstrate that OmniTrack++ achieves state-of-the-art performance, yielding substantial HOTA improvements of +25.5% on JRDB and +43.07% on QuadTrack over the original OmniTrack. Datasets and code will be made publicly available at https://github.com/xifen523/OmniTrack.
- Abstract(参考訳): 本研究では,パノラマ画像における多物体追跡(MOT)について検討し,FoV(360{\deg} Field of View)や分解能の希釈,重度視野依存歪みなど,ユニークな課題を提起する。
狭FoVピンホールカメラ用に設計された従来のMOT法は、これらの条件下では不満足に一般化される。
360{\deg} FoVの下でのパノラマ歪み、大きな検索空間、アイデンティティの曖昧さに対処するために、OmniTrack++は、トラジェクティブキューで認識を徐々に洗練するフィードバック駆動フレームワークを採用している。
DynamicSSMブロックはまずパノラマ的特徴を安定化し、幾何歪みを暗黙的に緩和する。
正規化された表現に加えて、FlexiTrack Instancesは、フレキシブルなローカライゼーションと信頼性のある短期関連のためにトラジェクトリインフォームドフィードバックを使用する。
長期ロバスト性を確保するため、ExpertTrack MemoryはMixture-of-Experts設計を通じて外観を集約し、断片化されたトラックからの回復とアイデンティティドリフトの低減を可能にする。
最後に、トラックレット管理モジュールはシーンダイナミクスに応じてエンドツーエンドとトラッキング・バイ・検出モードを適応的に切り替え、パノラマMOTのためのバランスよくスケーラブルなソリューションを提供する。
厳密な評価を支援するために,四足歩行ロボットでキャプチャしたQuadTrackと二足歩行ロボットで収集したBipTrackを含むパノラマMOTの総合データセットであるEmboTrackベンチマークを構築した。
これらのデータセットは広角環境と多様な動きパターンにまたがり、現実世界のパノラマ知覚に挑戦的なテストベッドを提供する。
JRDBとEmboTrackの大規模な実験は、OmniTrack++が最先端のパフォーマンスを達成し、JRDBでは+25.5%、オリジナルのOmniTrackよりも+43.07%の大幅なHOTA改善を実現していることを示している。
データセットとコードはhttps://github.com/xifen523/OmniTrack.comで公開される。
関連論文リスト
- FutrTrack: A Camera-LiDAR Fusion Transformer for 3D Multiple Object Tracking [4.65812324892521]
FutrTrackは、トランスフォーマーベースのスムーズと融合駆動のトラッカーを導入することで、既存の3D検出器上に構築されている。
我々のフュージョントラッカーは、複数のカメラとLiDARからのマルチモーダルバードアイビュー(BEV)フュージョン機能とバウンディングボックスを統合している。
FutrTrackは、3D MOTベンチマークで強力なパフォーマンスを実現し、競合精度を維持しながらアイデンティティスイッチを削減している。
論文 参考訳(メタデータ) (2025-10-22T19:25:01Z) - SpatialTrackerV2: 3D Point Tracking Made Easy [73.0350898700048]
SpaceTrackerV2はモノクロビデオのフィードフォワード3Dポイントトラッキング手法である。
これは、世界空間の3Dモーションをシーン幾何学、カメラエゴモーション、ピクセルワイドオブジェクトモーションに分解する。
このような異種データから幾何学と運動を共同で学習することで、SpatialTrackerV2は既存の3Dトラッキング方法よりも30%優れています。
論文 参考訳(メタデータ) (2025-07-16T17:59:03Z) - Omnidirectional Multi-Object Tracking [27.858084330925372]
パノラマ画像は、Multi-Object Tracking(MOT)をサポートする包括的な情報を提供する
ほとんどのMOTアルゴリズムは、視野が限られているピンホール画像用に調整されており、パノラマ環境での有効性を損なう。
我々はOmniTrackを提案する。OmniTrackは、Tracklet Managementを組み込んで時間的キューを導入し、FlexiTrackインスタンスをオブジェクトのローカライゼーションとアソシエーションに利用し、CircularStatEモジュールを使って画像や幾何学的歪みを緩和する。
論文 参考訳(メタデータ) (2025-03-06T15:53:42Z) - RoboSense: Large-scale Dataset and Benchmark for Egocentric Robot Perception and Navigation in Crowded and Unstructured Environments [62.5830455357187]
我々は3種類のセンサー(Camera, LiDAR, Fisheye)をベースとした自我中心型マルチセンサデータ収集プラットフォームを構築した。
大規模なマルチモーダルデータセットであるRoboSenseは、エゴセントリックなロボット知覚を促進するために構築されている。
論文 参考訳(メタデータ) (2024-08-28T03:17:40Z) - RaTrack: Moving Object Detection and Tracking with 4D Radar Point Cloud [10.593320435411714]
レーダベースのトラッキングに適した革新的なソリューションであるRaTrackを紹介します。
本手法は,動き推定モジュールによって強化された動き分割とクラスタリングに焦点を当てる。
RaTrackは移動物体の追跡精度が優れており、最先端の技術をはるかに上回っている。
論文 参考訳(メタデータ) (2023-09-18T13:02:29Z) - An Effective Motion-Centric Paradigm for 3D Single Object Tracking in
Point Clouds [50.19288542498838]
LiDARポイントクラウド(LiDAR SOT)における3Dシングルオブジェクトトラッキングは、自動運転において重要な役割を果たす。
現在のアプローチはすべて、外観マッチングに基づくシームズパラダイムに従っている。
我々は新たな視点からLiDAR SOTを扱うための動き中心のパラダイムを導入する。
論文 参考訳(メタデータ) (2023-03-21T17:28:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。