論文の概要: FRNet: Frustum-Range Networks for Scalable LiDAR Segmentation
- arxiv url: http://arxiv.org/abs/2312.04484v2
- Date: Thu, 25 Apr 2024 03:38:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-26 23:17:45.027926
- Title: FRNet: Frustum-Range Networks for Scalable LiDAR Segmentation
- Title(参考訳): FRNet: スケーラブルLiDARセグメンテーションのためのフラストタルラウンジネットワーク
- Authors: Xiang Xu, Lingdong Kong, Hui Shuai, Qingshan Liu,
- Abstract要約: 我々は,対応するフラストタルLiDAR点を用いた範囲画像画素のコンテキスト情報の復元に有効なFRNetを提案する。
4つの人気のあるLiDARセグメンテーションベンチマークで実施された実験はFRNetの優位性を示している。
FRNetは最先端のアプローチの5倍高速で動作する。
- 参考スコア(独自算出の注目度): 18.218880931667265
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: LiDAR segmentation has become a crucial component in advanced autonomous driving systems. Recent range-view LiDAR segmentation approaches show promise for real-time processing. However, they inevitably suffer from corrupted contextual information and rely heavily on post-processing techniques for prediction refinement. In this work, we propose FRNet, a simple yet powerful method aimed at restoring the contextual information of range image pixels using corresponding frustum LiDAR points. Firstly, a frustum feature encoder module is used to extract per-point features within the frustum region, which preserves scene consistency and is crucial for point-level predictions. Next, a frustum-point fusion module is introduced to update per-point features hierarchically, enabling each point to extract more surrounding information via the frustum features. Finally, a head fusion module is used to fuse features at different levels for final semantic prediction. Extensive experiments conducted on four popular LiDAR segmentation benchmarks under various task setups demonstrate the superiority of FRNet. Notably, FRNet achieves 73.3% and 82.5% mIoU scores on the testing sets of SemanticKITTI and nuScenes. While achieving competitive performance, FRNet operates 5 times faster than state-of-the-art approaches. Such high efficiency opens up new possibilities for more scalable LiDAR segmentation. The code has been made publicly available at https://github.com/Xiangxu-0103/FRNet.
- Abstract(参考訳): LiDARセグメンテーションは、先進的な自動運転システムにおいて重要なコンポーネントとなっている。
最近のレンジビューLiDARセグメンテーションアプローチは、リアルタイム処理の可能性を示唆している。
しかし、これらは必然的に腐敗した文脈情報に悩まされ、予測洗練のための後処理技術に大きく依存する。
本研究では,対応するフラストタルLiDAR点を用いた範囲画像のコンテキスト情報復元を目的とした簡易かつ強力なFRNetを提案する。
まず、フラストラム特徴エンコーダモジュールを用いて、シーンの一貫性を保ち、ポイントレベルの予測に不可欠であるフラストラム領域内のポイントごとの特徴を抽出する。
次に、フラスタム点融合モジュールを導入し、ポイントごとの特徴を階層的に更新し、各ポイントがフラスタム特徴を介してより多くの周辺情報を抽出できるようにする。
最後に、ヘッドフュージョンモジュールを使用して、最終的なセマンティック予測のために異なるレベルで機能をフューズする。
さまざまなタスク設定の下で4つのLiDARセグメンテーションベンチマークで実施された大規模な実験はFRNetの優位性を示している。
特にFRNetはSemanticKITTIとnuScenesのテストセットで73.3%と82.5%のmIoUスコアを達成した。
FRNetは競争力のある性能を達成する一方で、最先端のアプローチの5倍の速度で動作している。
このような高い効率性は、よりスケーラブルなLiDARセグメンテーションの新たな可能性を開く。
コードはhttps://github.com/Xiangxu-0103/FRNetで公開されている。
関連論文リスト
- Multi-modality Affinity Inference for Weakly Supervised 3D Semantic
Segmentation [47.81638388980828]
本稿では,マルチモーダルポイント親和性推論モジュールを新たに導入した,シンプルで効果的なシーンレベルの弱教師付きポイントクラウドセグメンテーション法を提案する。
ScanNet と S3DIS のベンチマークでは,最先端の ScanNet と S3DIS のベンチマークでは 4% から 6% の mIoU を達成している。
論文 参考訳(メタデータ) (2023-12-27T14:01:35Z) - PointeNet: A Lightweight Framework for Effective and Efficient Point
Cloud Analysis [28.54939134635978]
PointeNetは、ポイントクラウド分析に特化したネットワークである。
本手法は,分類/分割ヘッドとシームレスに統合したり,市販の3Dオブジェクト検出ネットワークに埋め込んだりすることで,柔軟性を示す。
ModelNet40、ScanObjectNN、ShapeNet KITTI、およびシーンレベルのデータセットKITTIを含むオブジェクトレベルのデータセットの実験は、ポイントクラウド分析における最先端メソッドよりもPointeNetの方が優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-12-20T03:34:48Z) - Rethinking Range View Representation for LiDAR Segmentation [66.73116059734788]
「多対一」マッピング、意味的不整合、形状変形は、射程射影からの効果的な学習に対する障害となる可能性がある。
RangeFormerは、ネットワークアーキテクチャ、データ拡張、後処理を含む新しい設計を含む、フルサイクルのフレームワークである。
比較対象のLiDARセマンティックスとパノプティックスセグメンテーションのベンチマークにおいて,初めてレンジビュー法が点,ボクセル,マルチビューフュージョンを越えられることを示す。
論文 参考訳(メタデータ) (2023-03-09T16:13:27Z) - CEDNet: A Cascade Encoder-Decoder Network for Dense Prediction [23.142342401794302]
オブジェクト検出、インスタンスのセグメンテーション、セマンティックセグメンテーションといった密集した予測タスクには、マルチスケールの機能が不可欠である。
我々はCEDNetと呼ばれる,高密度mboxpredictionタスクに適した列挙型カスケードエンコーダデコーダネットワークを提案する。
CEDNetのすべてのステージは同じエンコーダ-デコーダ構造を共有し、デコーダ内でマルチスケールの機能融合を実行する。
論文 参考訳(メタデータ) (2023-02-13T02:03:55Z) - Stratified Transformer for 3D Point Cloud Segmentation [89.9698499437732]
Stratified Transformerは、長距離コンテキストをキャプチャし、強力な一般化能力と高性能を示す。
不規則な点配置によって引き起こされる課題に対処するために,局所情報を集約する第1層点埋め込みを提案する。
S3DIS, ScanNetv2およびShapeNetPartデータセットにおける本手法の有効性と優位性を示す実験を行った。
論文 参考訳(メタデータ) (2022-03-28T05:35:16Z) - Learning Semantic Segmentation of Large-Scale Point Clouds with Random
Sampling [52.464516118826765]
我々はRandLA-Netを紹介した。RandLA-Netは、大規模ポイントクラウドのポイントごとの意味を推論する、効率的で軽量なニューラルネットワークアーキテクチャである。
我々のアプローチの鍵は、より複雑な点選択アプローチではなく、ランダムな点サンプリングを使用することである。
我々のRandLA-Netは、既存のアプローチよりも最大200倍高速な1回のパスで100万ポイントを処理できます。
論文 参考訳(メタデータ) (2021-07-06T05:08:34Z) - (AF)2-S3Net: Attentive Feature Fusion with Adaptive Feature Selection
for Sparse Semantic Segmentation Network [3.6967381030744515]
3次元LiDARセマンティックセマンティックセグメンテーションのためのエンコーダ-デコーダCNNネットワークであるAF2-S3Netを提案する。
本稿では、エンコーダに新しいマルチブランチ注意機能融合モジュール、デコーダに特徴マップを再重み付けしたユニークな適応機能選択モジュールを提案する。
実験の結果,提案手法は大規模セマンティックKITTIベンチマークにおける最先端手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-02-08T21:04:21Z) - LiDAR-based Panoptic Segmentation via Dynamic Shifting Network [56.71765153629892]
LiDARベースのパノプティカルセグメンテーションは、オブジェクトとシーンを統一的に解析することを目的としている。
本稿では,ポイントクラウド領域における効果的な単視分割フレームワークとして機能する動的シフトネットワーク(DS-Net)を提案する。
提案するDS-Netは,現在の最先端手法よりも優れた精度を実現する。
論文 参考訳(メタデータ) (2020-11-24T08:44:46Z) - Regularized Densely-connected Pyramid Network for Salient Instance
Segmentation [73.17802158095813]
我々は、エンドツーエンドの有能なインスタンスセグメンテーション(SIS)のための新しいパイプラインを提案する。
ディープネットワークにおけるリッチな特徴階層をよりよく活用するために、正規化された高密度接続を提案する。
マスク予測を改善するために,新しいマルチレベルRoIAlignベースのデコーダを導入し,多レベル特徴を適応的に集約する。
論文 参考訳(メタデータ) (2020-08-28T00:13:30Z) - TORNADO-Net: mulTiview tOtal vaRiatioN semAntic segmentation with
Diamond inceptiOn module [23.112192919085825]
TORNADO-Netは、3D LiDARポイントクラウドセマンティックセグメンテーションのためのニューラルネットワークである。
我々は、エンコーダデコーダResNetアーキテクチャを用いて、多視点(バードアイとレンジ)投影特徴抽出を組み込んだ。
また、LiDARデータは360度視野を包含し、円形のパディングを使用するという事実も活用する。
論文 参考訳(メタデータ) (2020-08-24T16:32:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。