論文の概要: OccTrack360: 4D Panoptic Occupancy Tracking from Surround-View Fisheye Cameras
- arxiv url: http://arxiv.org/abs/2603.08521v1
- Date: Mon, 09 Mar 2026 15:55:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:16.385524
- Title: OccTrack360: 4D Panoptic Occupancy Tracking from Surround-View Fisheye Cameras
- Title(参考訳): OccTrack360:魚眼カメラによる4Dパノラマ撮影
- Authors: Yongzhi Lin, Kai Luo, Yuanfan Zheng, Hao Shi, Mengfei Duan, Yang Liu, Kailun Yang,
- Abstract要約: OccTrack360は、サラウンドビューの魚眼カメラから4Dパノプティクスの占有状況を追跡するための新しいベンチマークである。
OccTrack360は、以前のベンチマークよりもかなり長く、より多様なシーケンス(1742234フレーム)を提供する。
また,魚眼占領追跡における2つの課題に対処するフレームワークであるSphere Occを提案する。
- 参考スコア(独自算出の注目度): 25.151688173881453
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding dynamic 3D environments in a spatially continuous and temporally consistent manner is fundamental for robotics and autonomous driving. While recent advances in occupancy prediction provide a unified representation of scene geometry and semantics, progress in 4D panoptic occupancy tracking remains limited by the lack of benchmarks that support surround-view fisheye sensing, long temporal sequences, and instance-level voxel tracking. To address this gap, we present OccTrack360, a new benchmark for 4D panoptic occupancy tracking from surround-view fisheye cameras. OccTrack360 provides substantially longer and more diverse sequences (174~2234 frames) than prior benchmarks, together with principled voxel visibility annotations, including an all-direction occlusion mask and an MEI-based fisheye field-of-view mask. To establish a strong fisheye-oriented baseline, we further propose Focus on Sphere Occ (FoSOcc), a framework that addresses two core challenges in fisheye occupancy tracking: distorted spherical projection and inaccurate voxel-space localization. FoSOcc includes a Center Focusing Module (CFM) to enhance instance-aware spatial localization through supervised focus guidance, and a Spherical Lift Module (SLM) that extends perspective lifting to fisheye imaging under the Unified Projection Model. Extensive experiments on Occ3D-Waymo and OccTrack360 show that our method improves occupancy tracking quality with notable gains on geometrically regular categories, and establishes a strong baseline for future research on surround-view fisheye 4D occupancy tracking. The benchmark and source code will be made publicly available at https://github.com/YouthZest-Lin/OccTrack360.
- Abstract(参考訳): 動的3D環境を空間的に連続的かつ時間的に一貫した方法で理解することは、ロボット工学と自律運転に不可欠である。
近年の占拠予測の進歩はシーン幾何学とセマンティクスの統一的な表現を提供しているが、サラウンドビューの魚眼センシング、長時間の時系列、インスタンスレベルのボクセルトラッキングをサポートするベンチマークが欠如しているため、4Dパノプティクスの占有追跡の進歩は限定的のままである。
OccTrack360は、サラウンドビューの魚眼カメラから4Dパノプティクスの占有状況を追跡するための新しいベンチマークである。
OccTrack360は、以前のベンチマークよりもかなり長く、より多様なシーケンス(174〜2234フレーム)と、全方向閉塞マスクとMEIベースの魚眼視野マスクを含む原則化されたボクセル可視アノテーションを提供する。
魚眼指向の強力なベースラインを確立するために,魚眼占領追跡における2つのコア課題に対処するフレームワークであるFoSOcc(FoSOcc)を提案する。
FoSOccには、教師付きフォーカスガイダンスによるインスタンス認識空間のローカライゼーションを強化するCenter Focusing Module (CFM)と、統一射影モデルに基づく魚眼画像への遠近距離リフトを拡張するSLM(Spherical Lift Module)が含まれている。
Occ3D-WaymoとOccTrack360の大規模実験により, 位置追跡精度は幾何的に正則なカテゴリーで向上した。
ベンチマークとソースコードはhttps://github.com/YouthZest-Lin/OccTrack360で公開される。
関連論文リスト
- Latent Gaussian Splatting for 4D Panoptic Occupancy Tracking [17.16370461224889]
動的環境下でのロボットの安全かつ信頼性の高い動作には,4次元時間トラッキングが不可欠である。
本稿では,4次元パノプティカル占有追跡のためのラテントガウススプラッティングについて述べる。
私たちはhttps://lags.cs.uni-freiburg.de/でコードを公開しています。
論文 参考訳(メタデータ) (2026-02-26T16:34:49Z) - Multi-View 3D Point Tracking [67.21282192436031]
本稿では,複数のカメラビューを用いた動的シーンにおける任意の点の追跡を目的とした,データ駆動型マルチビュー3Dポイントトラッカーについて紹介する。
本モデルでは,現実的な数のカメラを用いて直接3次元対応を推定する。
我々は5K合成多視点Kubricシーケンスをトレーニングし、2つの実世界のベンチマークで評価する。
論文 参考訳(メタデータ) (2025-08-28T17:58:20Z) - GRASPTrack: Geometry-Reasoned Association via Segmentation and Projection for Multi-Object Tracking [11.436294975354556]
GRASPTrackはモノクロ深度推定とインスタンスセグメンテーションを標準TBDパイプラインに統合する新しいMOTフレームワークである。
これらの3D点雲は、精密で堅牢なVoxel-based 3D Intersection-over-Unionを可能にするために酸化される。
論文 参考訳(メタデータ) (2025-08-11T15:56:21Z) - SpatialTrackerV2: 3D Point Tracking Made Easy [73.0350898700048]
SpaceTrackerV2はモノクロビデオのフィードフォワード3Dポイントトラッキング手法である。
これは、世界空間の3Dモーションをシーン幾何学、カメラエゴモーション、ピクセルワイドオブジェクトモーションに分解する。
このような異種データから幾何学と運動を共同で学習することで、SpatialTrackerV2は既存の3Dトラッキング方法よりも30%優れています。
論文 参考訳(メタデータ) (2025-07-16T17:59:03Z) - TrackOcc: Camera-based 4D Panoptic Occupancy Tracking [35.39897498797755]
カメラベースの4Dパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノパノ
TrackOccは、ストリーミングでエンドツーエンドな方法でイメージインプットを処理する最先端のアプローチで、提案されたタスクに対処するために4Dパンオプティクスクエリを使用する。
論文 参考訳(メタデータ) (2025-03-11T14:17:06Z) - DynOMo: Online Point Tracking by Dynamic Online Monocular Gaussian Reconstruction [65.46359561104867]
モノクラーカメラ入力からのオンライン2Dおよび3Dポイントトラッキングの課題を対象としている。
我々は3Dガウススプラッティングを利用して動的シーンをオンラインに再構築する。
我々は,オンラインのポイントトラッキングとリコンストラクションを推進し,様々な現実のシナリオに適用可能にすることを目的としている。
論文 参考訳(メタデータ) (2024-09-03T17:58:03Z) - BEVTrack: A Simple and Strong Baseline for 3D Single Object Tracking in Bird's-Eye View [54.48052449493636]
3Dシングルオブジェクトトラッキング(SOT)はコンピュータビジョンの基本課題であり、自律運転のようなアプリケーションにおいて重要な役割を果たす。
BEVTrackは、シンプルだが効果的な動きに基づくトラッキング手法である。
我々は,BEVTrackが200FPSで動作しながら最先端の結果を達成し,リアルタイム適用性を実現していることを示す。
論文 参考訳(メタデータ) (2023-09-05T12:42:26Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。