論文の概要: FB-OCC: 3D Occupancy Prediction based on Forward-Backward View
Transformation
- arxiv url: http://arxiv.org/abs/2307.01492v1
- Date: Tue, 4 Jul 2023 05:55:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-06 18:06:58.903542
- Title: FB-OCC: 3D Occupancy Prediction based on Forward-Backward View
Transformation
- Title(参考訳): FB-OCC: 前向き視点変換に基づく3次元活動予測
- Authors: Zhiqi Li, Zhiding Yu, David Austin, Mingsheng Fang, Shiyi Lan, Jan
Kautz, Jose M. Alvarez
- Abstract要約: FB-BEVは前方投影を用いた近縁カメラを用いた鳥眼視知覚設計である。
設計と最適化の結果、最先端のmIoUスコアはnuScenesデータセットで54.19%となり、チャレンジトラックで1位となった。
- 参考スコア(独自算出の注目度): 79.41536932037822
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This technical report summarizes the winning solution for the 3D Occupancy
Prediction Challenge, which is held in conjunction with the CVPR 2023 Workshop
on End-to-End Autonomous Driving and CVPR 23 Workshop on Vision-Centric
Autonomous Driving Workshop. Our proposed solution FB-OCC builds upon FB-BEV, a
cutting-edge camera-based bird's-eye view perception design using
forward-backward projection. On top of FB-BEV, we further study novel designs
and optimization tailored to the 3D occupancy prediction task, including joint
depth-semantic pre-training, joint voxel-BEV representation, model scaling up,
and effective post-processing strategies. These designs and optimization result
in a state-of-the-art mIoU score of 54.19% on the nuScenes dataset, ranking the
1st place in the challenge track. Code and models will be released at:
https://github.com/NVlabs/FB-BEV.
- Abstract(参考訳): 本報告は, エンド・ツー・エンド自動運転に関するcvpr 2023ワークショップと, 視覚中心自律運転ワークショップに関するcvpr 23ワークショップと共同で開催されている3次元占有予測チャレンジの勝利ソリューションを要約する。
提案したFB-OCCは,前方投影を用いた最先端カメラを用いた鳥眼視認識設計であるFB-BEVに基づいている。
fb-bev 上に,3次元占有率予測タスクに合わせた新しい設計と最適化についてさらに検討し,共同学習,voxel-bev表現,モデルのスケールアップ,効果的な後処理戦略について検討した。
これらの設計と最適化により、最新のmIoUスコアはnuScenesデータセットで54.19%となり、チャレンジトラックで1位となった。
コードとモデルはhttps://github.com/nvlabs/fb-bevでリリースされる。
関連論文リスト
- OccTransformer: Improving BEVFormer for 3D camera-only occupancy
prediction [32.17406995216123]
OccTransformer」はCVPR 2023の自動運転チャレンジにおける3D占有予測トラックに使用される。
提案手法は強力なベースラインBEVFormer上に構築され, 単純かつ効果的な手法によって性能を向上させる。
これらの手法を用いて,自律走行課題における3D占有率予測トラックにおいて49.23 miouを達成した。
論文 参考訳(メタデータ) (2024-02-28T08:03:34Z) - DA-BEV: Unsupervised Domain Adaptation for Bird's Eye View Perception [111.13119809216313]
カメラのみのBird's Eye View (BEV)は3次元空間における環境認識に大きな可能性を示した。
非教師なし領域適応型BEVは、様々な未ラベル対象データから効果的に学習するが、まだ未探索である。
DA-BEVは、画像ビュー機能とBEV機能の相補性を利用して、ドメイン適応型BEV課題に対処する、最初のドメイン適応型カメラのみのBEVフレームワークである。
論文 参考訳(メタデータ) (2024-01-13T04:21:24Z) - RadOcc: Learning Cross-Modality Occupancy Knowledge through Rendering
Assisted Distillation [50.35403070279804]
マルチビュー画像を用いた3次元シーンの占有状況とセマンティクスを推定することを目的とした,新たな課題である3D占有予測手法を提案する。
本稿では,RandOccを提案する。Rendering Assisted distillation paradigm for 3D Occupancy prediction。
論文 参考訳(メタデータ) (2023-12-19T03:39:56Z) - Instance-aware Multi-Camera 3D Object Detection with Structural Priors
Mining and Self-Boosting Learning [93.71280187657831]
カメラによる鳥眼視(BEV)知覚パラダイムは、自律運転分野において大きな進歩を遂げている。
画像平面のインスタンス認識をBEV検出器内の深度推定プロセスに統合するIA-BEVを提案する。
論文 参考訳(メタデータ) (2023-12-13T09:24:42Z) - Towards Efficient 3D Object Detection in Bird's-Eye-View Space for
Autonomous Driving: A Convolutional-Only Approach [13.962625803332823]
BEVENetと呼ばれるBEVベースの効率的な3D検出フレームワークを提案する。
BEVENetは、NuScenesチャレンジに対する現代の最先端(SOTA)アプローチよりも3$times$高速である。
実験の結果,BEVENetは現代の最先端(SOTA)アプローチよりも3$times$高速であることがわかった。
論文 参考訳(メタデータ) (2023-12-01T14:52:59Z) - UniOcc: Unifying Vision-Centric 3D Occupancy Prediction with Geometric
and Semantic Rendering [27.712689811093362]
我々は、ビジョン中心の3D占有率予測トラックにUniOCCというソリューションを提示する。
我々のソリューションは、単一のモデルで公式のリーダーボード上で51.27% mIoUを達成した。
論文 参考訳(メタデータ) (2023-06-15T13:23:57Z) - BEV-IO: Enhancing Bird's-Eye-View 3D Detection with Instance Occupancy [58.92659367605442]
我々は,BEV表現をインスタンス占有情報で拡張する新しい3次元検出パラダイムであるBEV-IOを提案する。
BEV-IOは、パラメータや計算オーバーヘッドの無視できる増加しか加えず、最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-26T11:16:12Z) - M^2BEV: Multi-Camera Joint 3D Detection and Segmentation with Unified
Birds-Eye View Representation [145.6041893646006]
M$2$BEVは3Dオブジェクトの検出とマップのセグメンテーションを共同で行う統合フレームワークである。
M$2$BEVは、両方のタスクを統一モデルで推論し、効率を向上する。
論文 参考訳(メタデータ) (2022-04-11T13:43:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。