論文の概要: OccFormer: Dual-path Transformer for Vision-based 3D Semantic Occupancy
Prediction
- arxiv url: http://arxiv.org/abs/2304.05316v1
- Date: Tue, 11 Apr 2023 16:15:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-12 14:17:33.419617
- Title: OccFormer: Dual-path Transformer for Vision-based 3D Semantic Occupancy
Prediction
- Title(参考訳): occformer : 視覚に基づく3次元意味的占有予測のためのデュアルパストランスフォーマ
- Authors: Yunpeng Zhang, Zheng Zhu, Dalong Du
- Abstract要約: OccFormerは、意味的占有予測のために3Dボリュームを処理するデュアルパストランスフォーマーネットワークである。
カメラが生成する3Dボクセル機能の長距離、ダイナミック、効率的なエンコーディングを実現している。
- 参考スコア(独自算出の注目度): 16.66987810790077
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The vision-based perception for autonomous driving has undergone a
transformation from the bird-eye-view (BEV) representations to the 3D semantic
occupancy. Compared with the BEV planes, the 3D semantic occupancy further
provides structural information along the vertical direction. This paper
presents OccFormer, a dual-path transformer network to effectively process the
3D volume for semantic occupancy prediction. OccFormer achieves a long-range,
dynamic, and efficient encoding of the camera-generated 3D voxel features. It
is obtained by decomposing the heavy 3D processing into the local and global
transformer pathways along the horizontal plane. For the occupancy decoder, we
adapt the vanilla Mask2Former for 3D semantic occupancy by proposing
preserve-pooling and class-guided sampling, which notably mitigate the sparsity
and class imbalance. Experimental results demonstrate that OccFormer
significantly outperforms existing methods for semantic scene completion on
SemanticKITTI dataset and for LiDAR semantic segmentation on nuScenes dataset.
Code is available at \url{https://github.com/zhangyp15/OccFormer}.
- Abstract(参考訳): 自律運転に対する視覚に基づく認識は、鳥眼ビュー(BEV)表現から3Dセマンティック占有への転換を遂げている。
BEV平面と比較して、3Dセマンティック占有は垂直方向に沿って構造情報を提供する。
本稿では,意味的占有率予測のための3次元ボリュームを効果的に処理するデュアルパストランスフォーマネットワークであるOccFormerを提案する。
OccFormerは、カメラ生成した3Dボクセル機能の長距離、ダイナミック、効率的なエンコーディングを実現する。
水平面に沿って局所および大域の変圧器経路に重厚な3d処理を分解して得られる。
占有者デコーダには,保存プールとクラス誘導サンプリングの提案により,バニラマスク2フォーマーを3次元意味的占有に適応させ,特にスパーシティとクラス不均衡を緩和する。
実験の結果,OccFormerはSemanticKITTIデータセットやnuScenesデータセット上のLiDARセマンティックセマンティックセマンティックセマンティックセマンティクスにおいて,既存のセマンティックセマンティクス補完法よりも大幅に優れていた。
コードは \url{https://github.com/zhangyp15/OccFormer} で入手できる。
関連論文リスト
- ALOcc: Adaptive Lifting-based 3D Semantic Occupancy and Cost Volume-based Flow Prediction [89.89610257714006]
既存の手法は、これらのタスクの要求に応えるために高い精度を優先する。
本稿では,3次元セマンティック占有率予測とフロー推定のための一連の改善点を紹介する。
私たちの純粋な時間的アーキテクチャフレームワークであるALOccは、速度と精度の最適なトレードオフを実現しています。
論文 参考訳(メタデータ) (2024-11-12T11:32:56Z) - GEOcc: Geometrically Enhanced 3D Occupancy Network with Implicit-Explicit Depth Fusion and Contextual Self-Supervision [49.839374549646884]
本稿では,視覚のみのサラウンドビュー知覚に適したジオメトリ強化OccupancyネットワークであるGEOccについて述べる。
提案手法は,Occ3D-nuScenesデータセット上で,画像解像度が最小で,画像バックボーンが最大である状態-Of-The-Art性能を実現する。
論文 参考訳(メタデータ) (2024-05-17T07:31:20Z) - Volumetric Environment Representation for Vision-Language Navigation [66.04379819772764]
視覚言語ナビゲーション(VLN)は、視覚的な観察と自然言語の指示に基づいて、エージェントが3D環境をナビゲートする必要がある。
本研究では,物理世界を3次元構造細胞にボクセル化するボリューム環境表現(VER)を提案する。
VERは3D占有率、3D部屋レイアウト、および3Dバウンディングボックスを共同で予測する。
論文 参考訳(メタデータ) (2024-03-21T06:14:46Z) - Large Generative Model Assisted 3D Semantic Communication [51.17527319441436]
本稿では,GAM-3DSC(Generative AI Model Assisted 3D SC)システムを提案する。
まず,ユーザ要求に基づいて3次元シナリオからキーセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティクスを抽出する。
次に、これらの多視点画像を符号化するための適応意味圧縮モデル(ASCM)を提案する。
最後に、物理チャネルのチャネル状態情報(CSI)を推定・精査するために、条件付き生成逆数ネットワークと拡散モデル支援チャネル推定(GDCE)を設計する。
論文 参考訳(メタデータ) (2024-03-09T03:33:07Z) - FastOcc: Accelerating 3D Occupancy Prediction by Fusing the 2D
Bird's-Eye View and Perspective View [46.81548000021799]
自律運転において、3D占有率予測は、より包括的な3Dシーンの理解のために、ボクセル的なステータスとセマンティックラベルを出力する。
近年,ビュートランスフォーメーション技術,地味ラベル生成,精巧なネットワーク設計など,この課題のさまざまな側面を幅広く研究している。
FastOccと呼ばれる新しい手法が提案され、精度を維持しながらモデルを高速化する。
Occ3D-nuScenesベンチマークの実験は、FastOccが高速な推論速度を達成することを示した。
論文 参考訳(メタデータ) (2024-03-05T07:01:53Z) - InverseMatrixVT3D: An Efficient Projection Matrix-Based Approach for 3D Occupancy Prediction [11.33083039877258]
InverseMatrixVT3Dは,多視点画像特徴量を3次元特徴量に変換することで,セマンティック占有率の予測を行う。
プロジェクション行列に対するスパース行列処理手法を導入し,GPUメモリ使用率を最適化する。
本手法は,自動運転と道路安全に不可欠な,脆弱な道路利用者(VRU)の検出において,最高の性能を実現する。
論文 参考訳(メタデータ) (2024-01-23T01:11:10Z) - Regulating Intermediate 3D Features for Vision-Centric Autonomous
Driving [26.03800936700545]
本稿では,ボリュームレンダリングの助けを借りて,中間的な高密度な3次元特徴を規制することを提案する。
Occ3DデータセットとnuScenesデータセットの実験結果から、ヴァンパイアは密度の高い3D特徴の微細で適切な抽出を容易にすることが示された。
論文 参考訳(メタデータ) (2023-12-19T04:09:05Z) - PointOcc: Cylindrical Tri-Perspective View for Point-based 3D Semantic
Occupancy Prediction [72.75478398447396]
本稿では,点雲を効果的かつ包括的に表現する円筒型三重対視図を提案する。
また,LiDAR点雲の距離分布を考慮し,円筒座標系における三点ビューを構築した。
プロジェクション中に構造の詳細を維持するために空間群プーリングを使用し、各TPV平面を効率的に処理するために2次元バックボーンを採用する。
論文 参考訳(メタデータ) (2023-08-31T17:57:17Z) - MeT: A Graph Transformer for Semantic Segmentation of 3D Meshes [10.667492516216887]
本稿では3次元メッシュのセマンティックセグメンテーションのためのトランスフォーマーに基づく手法を提案する。
隣接行列のラプラシア固有ベクトルを用いて位置符号化を行う。
提案手法は,3次元メッシュのセマンティックセグメンテーションにおける最先端の性能を示す。
論文 参考訳(メタデータ) (2023-07-03T15:45:14Z) - Occ3D: A Large-Scale 3D Occupancy Prediction Benchmark for Autonomous
Driving [34.368848580725576]
我々は,任意のシーンに対して,濃密で可視性に配慮したラベルを生成するラベル生成パイプラインを開発した。
このパイプラインは、ボクセルの密度化、推論、画像誘導ボクセル精製の3段階からなる。
我々は、Occ3Dベンチマークにおいて優れた性能を示すCTF-Occネットワークと呼ばれる新しいモデルを提案する。
論文 参考訳(メタデータ) (2023-04-27T17:40:08Z) - Cylinder3D: An Effective 3D Framework for Driving-scene LiDAR Semantic
Segmentation [87.54570024320354]
大規模運転シーンのLiDARセマンティックセマンティックセグメンテーションのための最先端の手法は、しばしば2D空間の点雲を投影して処理する。
3D-to-2Dプロジェクションの問題に取り組むための簡単な解決策は、3D表現を保ち、3D空間の点を処理することである。
我々は3次元シリンダー分割と3次元シリンダー畳み込みに基づくフレームワークをCylinder3Dとして開発し,3次元トポロジの関係と運転シーンの点雲の構造を利用する。
論文 参考訳(メタデータ) (2020-08-04T13:56:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。