論文の概要: Online 3D Multi-Camera Perception through Robust 2D Tracking and Depth-based Late Aggregation
- arxiv url: http://arxiv.org/abs/2509.09946v1
- Date: Fri, 12 Sep 2025 03:28:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:07.967845
- Title: Online 3D Multi-Camera Perception through Robust 2D Tracking and Depth-based Late Aggregation
- Title(参考訳): ロバストな2次元トラッキングと奥行きに基づく遅延アグリゲーションによるオンライン3次元マルチカメラ知覚
- Authors: Vu-Minh Le, Thao-Anh Tran, Duc Huy Do, Xuan Canh Do, Huong Ninh, Hai Tran,
- Abstract要約: MTMC(Multi-Target Multi-Camera Tracking)は大規模監視を自動化するためのコンピュータビジョンタスクである。
深度情報を利用したオンライン2次元マルチカメラトラッキングシステムを3次元空間に拡張する手法を提案する。
提案されたフレームワークは、2025年のAI City Challengeの3D MTMCデータセットで評価され、リーダーボードで3位に達した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-Target Multi-Camera Tracking (MTMC) is an essential computer vision task for automating large-scale surveillance. With camera calibration and depth information, the targets in the scene can be projected into 3D space, offering unparalleled levels of automatic perception of a 3D environment. However, tracking in the 3D space requires replacing all 2D tracking components from the ground up, which may be infeasible for existing MTMC systems. In this paper, we present an approach for extending any online 2D multi-camera tracking system into 3D space by utilizing depth information to reconstruct a target in point-cloud space, and recovering its 3D box through clustering and yaw refinement following tracking. We also introduced an enhanced online data association mechanism that leverages the target's local ID consistency to assign global IDs across frames. The proposed framework is evaluated on the 2025 AI City Challenge's 3D MTMC dataset, achieving 3rd place on the leaderboard.
- Abstract(参考訳): MTMC(Multi-Target Multi-Camera Tracking)は大規模監視を自動化するためのコンピュータビジョンタスクである。
カメラキャリブレーションと深度情報により、シーンのターゲットは3D空間に投影することができ、3D環境の自動認識の非並列レベルを提供する。
しかし、3D空間におけるトラッキングには、既存のMTMCシステムでは不可能な2Dトラッキングコンポーネントをゼロから置き換える必要がある。
本稿では,任意のオンライン2次元マルチカメラトラッキングシステムを3次元空間に拡張するためのアプローチを提案する。
我々はまた、ターゲットのローカルID一貫性を活用して、フレーム間でグローバルIDを割り当てる強化されたオンラインデータアソシエーション機構も導入した。
提案されたフレームワークは、2025年のAI City Challengeの3D MTMCデータセットで評価され、リーダーボードで3位に達した。
関連論文リスト
- SpatialTrackerV2: 3D Point Tracking Made Easy [73.0350898700048]
SpaceTrackerV2はモノクロビデオのフィードフォワード3Dポイントトラッキング手法である。
これは、世界空間の3Dモーションをシーン幾何学、カメラエゴモーション、ピクセルワイドオブジェクトモーションに分解する。
このような異種データから幾何学と運動を共同で学習することで、SpatialTrackerV2は既存の3Dトラッキング方法よりも30%優れています。
論文 参考訳(メタデータ) (2025-07-16T17:59:03Z) - TAPIP3D: Tracking Any Point in Persistent 3D Geometry [25.357437591411347]
本稿では,モノクロおよびRGB-Dビデオにおける長期3次元点追跡の新しい手法であるTAPIP3Dを紹介する。
TAPIP3Dは、ビデオをカメラ安定化機能クラウドとして表現し、深度とカメラモーション情報を活用する。
我々の3D中心の定式化は既存の3D点追跡法よりも性能を著しく向上させる。
論文 参考訳(メタデータ) (2025-04-20T19:09:43Z) - DynOMo: Online Point Tracking by Dynamic Online Monocular Gaussian Reconstruction [65.46359561104867]
モノクラーカメラ入力からのオンライン2Dおよび3Dポイントトラッキングの課題を対象としている。
我々は3Dガウススプラッティングを利用して動的シーンをオンラインに再構築する。
我々は,オンラインのポイントトラッキングとリコンストラクションを推進し,様々な現実のシナリオに適用可能にすることを目的としている。
論文 参考訳(メタデータ) (2024-09-03T17:58:03Z) - PC-DAN: Point Cloud based Deep Affinity Network for 3D Multi-Object
Tracking (Accepted as an extended abstract in JRDB-ACT Workshop at CVPR21) [68.12101204123422]
点雲は3次元座標における空間データの密集したコンパイルである。
我々は3次元多目的追跡(MOT)のためのPointNetベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T05:36:39Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - 1st Place Solutions for Waymo Open Dataset Challenges -- 2D and 3D
Tracking [7.807118356899879]
HorizonMOTは、画像空間におけるカメラベースの2Dトラッキングと、3Dワールド空間におけるLiDARベースの3Dトラッキングのために提案されている。
トラッキング・バイ・検出のパラダイムでは、2D/3D検出の課題で使用される高性能検出器を活用し、45.13%の2D MOTA/L2と63.45%の3D MOTA/L2を達成した。
論文 参考訳(メタデータ) (2020-06-28T04:49:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。