論文の概要: OpenOccupancy: A Large Scale Benchmark for Surrounding Semantic
Occupancy Perception
- arxiv url: http://arxiv.org/abs/2303.03991v1
- Date: Tue, 7 Mar 2023 15:43:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-08 14:46:58.664397
- Title: OpenOccupancy: A Large Scale Benchmark for Surrounding Semantic
Occupancy Perception
- Title(参考訳): openoccupancy: セマンティクス占有感を囲むための大規模ベンチマーク
- Authors: Xiaofeng Wang, Zheng Zhu, Wenbo Xu, Yunpeng Zhang, Yi Wei, Xu Chi, Yun
Ye, Dalong Du, Jiwen Lu, Xingang Wang
- Abstract要約: 我々は,最初のセマンティック占有感評価ベンチマークであるOpenOccupancyを提案する。
大規模なnuScenesデータセットを拡張した。
周囲の占有感の複雑さを考慮し、粗い予測を洗練させるためにカスケード占領ネットワーク(CONET)を提案する。
- 参考スコア(独自算出の注目度): 73.05425657479704
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic occupancy perception is essential for autonomous driving, as
automated vehicles require a fine-grained perception of the 3D urban
structures. However, existing relevant benchmarks lack diversity in urban
scenes, and they only evaluate front-view predictions. Towards a comprehensive
benchmarking of surrounding perception algorithms, we propose OpenOccupancy,
which is the first surrounding semantic occupancy perception benchmark. In the
OpenOccupancy benchmark, we extend the large-scale nuScenes dataset with dense
semantic occupancy annotations. Previous annotations rely on LiDAR points
superimposition, where some occupancy labels are missed due to sparse LiDAR
channels. To mitigate the problem, we introduce the Augmenting And Purifying
(AAP) pipeline to ~2x densify the annotations, where ~4000 human hours are
involved in the labeling process. Besides, camera-based, LiDAR-based and
multi-modal baselines are established for the OpenOccupancy benchmark.
Furthermore, considering the complexity of surrounding occupancy perception
lies in the computational burden of high-resolution 3D predictions, we propose
the Cascade Occupancy Network (CONet) to refine the coarse prediction, which
relatively enhances the performance by ~30% than the baseline. We hope the
OpenOccupancy benchmark will boost the development of surrounding occupancy
perception algorithms.
- Abstract(参考訳): 自動運転車は3次元都市構造のきめ細かい認識を必要とするため、セマンティックな占有感は自動運転に不可欠である。
しかし、既存の関連するベンチマークは都市のシーンに多様性がなく、フロントビューの予測のみを評価する。
周辺知覚アルゴリズムの包括的ベンチマークに向けて,まず,周囲のセマンティック占有感評価ベンチマークであるOpenOccupancyを提案する。
OpenOccupancyベンチマークでは、大規模なnuScenesデータセットを、セマンティック占有アノテーションで拡張する。
以前のアノテーションはLiDARの点重畳に依存しており、疎いLiDARチャネルのために一部の占有ラベルが欠落している。
この問題を軽減するために、約4000人の人間がラベリングプロセスに関与しているアノテーションを2倍にするために、拡張および精製(aap)パイプラインを導入します。
さらに、OpenOccupancyベンチマークでは、カメラベース、LiDARベース、マルチモーダルベースラインが確立されている。
さらに, 周囲の占有感の複雑さが高解像度3次元予測の計算負担に関係していることを考慮し, 粗い予測を洗練するためのカスケード占有ネットワーク(CONET)を提案する。
openoccupancyベンチマークが、周囲の占有知覚アルゴリズムの開発を促進することを期待している。
関連論文リスト
- NeRF-Det++: Incorporating Semantic Cues and Perspective-aware Depth
Supervision for Indoor Multi-View 3D Detection [72.0098999512727]
NeRF-Detは、NeRFを用いた屋内マルチビュー3次元検出において、表現学習の強化による優れた性能を実現している。
セマンティックエンハンスメント(セマンティックエンハンスメント)、パースペクティブ・アウェア・サンプリング(パースペクティブ・アウェア・サンプリング)、および順序深度監視を含む3つのソリューションを提案する。
結果として得られたアルゴリズムであるNeRF-Det++は、ScanNetV2とAR KITScenesデータセットで魅力的なパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-02-22T11:48:06Z) - Fully Sparse 3D Panoptic Occupancy Prediction [28.715419535031597]
運転予測は自動運転の領域において重要な役割を果たす。
従来の手法は、通常、シーン固有の空間を無視して、密度の高い3Dボリュームを構築する。
そこで本研究では,SparseOccと呼ばれる,完全スパースパノプティカル占有ネットワークについて紹介する。
我々は,Occ3D-nusデータセットにおいて,25.4FPSのリアルタイム推論速度を維持しつつ,平均的なmIoU(mIoU)を26.0で達成し,その有効性を実証した。
論文 参考訳(メタデータ) (2023-12-28T16:54:53Z) - OccNeRF: Self-Supervised Multi-Camera Occupancy Prediction with Neural
Radiance Fields [80.35807140179736]
自己監督型マルチカメラ占有率予測のためのOccNeRF法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成する。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - OctreeOcc: Efficient and Multi-Granularity Occupancy Prediction Using
Octree Queries [34.01358678602351]
OctreeOccは、Octree表現を利用して、3Dで貴重な情報を適応的にキャプチャする革新的な3D占有予測フレームワークである。
評価の結果,OctreeOccは占有率予測の最先端手法に勝るだけでなく,計算オーバーヘッドを15%-24%削減できることがわかった。
論文 参考訳(メタデータ) (2023-12-06T02:52:54Z) - COTR: Compact Occupancy TRansformer for Vision-based 3D Occupancy
Prediction [64.50060115989916]
自動運転コミュニティは、3Dの占有率予測に大きな関心を示している。
そこで本研究では,COTR (Compact Occupancy TRansformer) を提案する。
COTRは、8%から15%の相対的な改善でベースラインを上回っている。
論文 参考訳(メタデータ) (2023-12-04T14:23:18Z) - PointOcc: Cylindrical Tri-Perspective View for Point-based 3D Semantic
Occupancy Prediction [72.75478398447396]
本稿では,点雲を効果的かつ包括的に表現する円筒型三重対視図を提案する。
また,LiDAR点雲の距離分布を考慮し,円筒座標系における三点ビューを構築した。
プロジェクション中に構造の詳細を維持するために空間群プーリングを使用し、各TPV平面を効率的に処理するために2次元バックボーンを採用する。
論文 参考訳(メタデータ) (2023-08-31T17:57:17Z) - Scene as Occupancy [66.43673774733307]
OccNetは、カスケードと時間ボクセルデコーダを備えたビジョン中心のパイプラインで、3D占有を再構築する。
nuScenes上に構築された最初の高密度3D占有率ベンチマークであるOpenOccを提案する。
論文 参考訳(メタデータ) (2023-06-05T13:01:38Z) - Occ3D: A Large-Scale 3D Occupancy Prediction Benchmark for Autonomous
Driving [34.368848580725576]
我々は,任意のシーンに対して,濃密で可視性に配慮したラベルを生成するラベル生成パイプラインを開発した。
このパイプラインは、ボクセルの密度化、推論、画像誘導ボクセル精製の3段階からなる。
我々は、Occ3Dベンチマークにおいて優れた性能を示すCTF-Occネットワークと呼ばれる新しいモデルを提案する。
論文 参考訳(メタデータ) (2023-04-27T17:40:08Z) - A Simple Framework for 3D Occupancy Estimation in Autonomous Driving [16.605853706182696]
本稿では,CNNをベースとした3次元占有率推定のための重要な要素をいくつか明らかにするフレームワークを提案する。
また,3次元占有率推定と,単眼深度推定や3次元再構成などの関連課題との関係についても検討した。
論文 参考訳(メタデータ) (2023-03-17T15:57:14Z) - Are We Ready for Vision-Centric Driving Streaming Perception? The ASAP
Benchmark [23.872360763782037]
ASAPは、自律運転における視覚中心の知覚のオンラインパフォーマンスを評価する最初のベンチマークである。
12Hzの原画像の高フレームレートラベルを生成するためのアノテーション拡張パイプラインを提案する。
ASAPベンチマークでは、モデルランクが異なる制約の下で変化することを示す総合的な実験結果が示されている。
論文 参考訳(メタデータ) (2022-12-17T16:32:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。