論文の概要: FRNet: Frustum-Range Networks for Scalable LiDAR Segmentation
- arxiv url: http://arxiv.org/abs/2312.04484v2
- Date: Thu, 25 Apr 2024 03:38:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-26 23:17:45.027926
- Title: FRNet: Frustum-Range Networks for Scalable LiDAR Segmentation
- Title(参考訳): FRNet: スケーラブルLiDARセグメンテーションのためのフラストタルラウンジネットワーク
- Authors: Xiang Xu, Lingdong Kong, Hui Shuai, Qingshan Liu,
- Abstract要約: 我々は,対応するフラストタルLiDAR点を用いた範囲画像画素のコンテキスト情報の復元に有効なFRNetを提案する。
4つの人気のあるLiDARセグメンテーションベンチマークで実施された実験はFRNetの優位性を示している。
FRNetは最先端のアプローチの5倍高速で動作する。
- 参考スコア(独自算出の注目度): 18.218880931667265
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: LiDAR segmentation has become a crucial component in advanced autonomous driving systems. Recent range-view LiDAR segmentation approaches show promise for real-time processing. However, they inevitably suffer from corrupted contextual information and rely heavily on post-processing techniques for prediction refinement. In this work, we propose FRNet, a simple yet powerful method aimed at restoring the contextual information of range image pixels using corresponding frustum LiDAR points. Firstly, a frustum feature encoder module is used to extract per-point features within the frustum region, which preserves scene consistency and is crucial for point-level predictions. Next, a frustum-point fusion module is introduced to update per-point features hierarchically, enabling each point to extract more surrounding information via the frustum features. Finally, a head fusion module is used to fuse features at different levels for final semantic prediction. Extensive experiments conducted on four popular LiDAR segmentation benchmarks under various task setups demonstrate the superiority of FRNet. Notably, FRNet achieves 73.3% and 82.5% mIoU scores on the testing sets of SemanticKITTI and nuScenes. While achieving competitive performance, FRNet operates 5 times faster than state-of-the-art approaches. Such high efficiency opens up new possibilities for more scalable LiDAR segmentation. The code has been made publicly available at https://github.com/Xiangxu-0103/FRNet.
- Abstract(参考訳): LiDARセグメンテーションは、先進的な自動運転システムにおいて重要なコンポーネントとなっている。
最近のレンジビューLiDARセグメンテーションアプローチは、リアルタイム処理の可能性を示唆している。
しかし、これらは必然的に腐敗した文脈情報に悩まされ、予測洗練のための後処理技術に大きく依存する。
本研究では,対応するフラストタルLiDAR点を用いた範囲画像のコンテキスト情報復元を目的とした簡易かつ強力なFRNetを提案する。
まず、フラストラム特徴エンコーダモジュールを用いて、シーンの一貫性を保ち、ポイントレベルの予測に不可欠であるフラストラム領域内のポイントごとの特徴を抽出する。
次に、フラスタム点融合モジュールを導入し、ポイントごとの特徴を階層的に更新し、各ポイントがフラスタム特徴を介してより多くの周辺情報を抽出できるようにする。
最後に、ヘッドフュージョンモジュールを使用して、最終的なセマンティック予測のために異なるレベルで機能をフューズする。
さまざまなタスク設定の下で4つのLiDARセグメンテーションベンチマークで実施された大規模な実験はFRNetの優位性を示している。
特にFRNetはSemanticKITTIとnuScenesのテストセットで73.3%と82.5%のmIoUスコアを達成した。
FRNetは競争力のある性能を達成する一方で、最先端のアプローチの5倍の速度で動作している。
このような高い効率性は、よりスケーラブルなLiDARセグメンテーションの新たな可能性を開く。
コードはhttps://github.com/Xiangxu-0103/FRNetで公開されている。
関連論文リスト
- PointeNet: A Lightweight Framework for Effective and Efficient Point
Cloud Analysis [28.54939134635978]
PointeNetは、ポイントクラウド分析に特化したネットワークである。
本手法は,分類/分割ヘッドとシームレスに統合したり,市販の3Dオブジェクト検出ネットワークに埋め込んだりすることで,柔軟性を示す。
ModelNet40、ScanObjectNN、ShapeNet KITTI、およびシーンレベルのデータセットKITTIを含むオブジェクトレベルのデータセットの実験は、ポイントクラウド分析における最先端メソッドよりもPointeNetの方が優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-12-20T03:34:48Z) - Rethinking Range View Representation for LiDAR Segmentation [66.73116059734788]
「多対一」マッピング、意味的不整合、形状変形は、射程射影からの効果的な学習に対する障害となる可能性がある。
RangeFormerは、ネットワークアーキテクチャ、データ拡張、後処理を含む新しい設計を含む、フルサイクルのフレームワークである。
比較対象のLiDARセマンティックスとパノプティックスセグメンテーションのベンチマークにおいて,初めてレンジビュー法が点,ボクセル,マルチビューフュージョンを越えられることを示す。
論文 参考訳(メタデータ) (2023-03-09T16:13:27Z) - CEDNet: A Cascade Encoder-Decoder Network for Dense Prediction [23.142342401794302]
オブジェクト検出、インスタンスのセグメンテーション、セマンティックセグメンテーションといった密集した予測タスクには、マルチスケールの機能が不可欠である。
我々はCEDNetと呼ばれる,高密度mboxpredictionタスクに適した列挙型カスケードエンコーダデコーダネットワークを提案する。
CEDNetのすべてのステージは同じエンコーダ-デコーダ構造を共有し、デコーダ内でマルチスケールの機能融合を実行する。
論文 参考訳(メタデータ) (2023-02-13T02:03:55Z) - Stratified Transformer for 3D Point Cloud Segmentation [89.9698499437732]
Stratified Transformerは、長距離コンテキストをキャプチャし、強力な一般化能力と高性能を示す。
不規則な点配置によって引き起こされる課題に対処するために,局所情報を集約する第1層点埋め込みを提案する。
S3DIS, ScanNetv2およびShapeNetPartデータセットにおける本手法の有効性と優位性を示す実験を行った。
論文 参考訳(メタデータ) (2022-03-28T05:35:16Z) - Point Cloud Registration using Representative Overlapping Points [10.843159482657303]
本稿では,登録のための識別機能を備えた代表オーバーラップポイントを用いた新しいディープラーニングモデル ROPNetを提案する。
具体的には,エンコーダを用いてポイントオーバーラップスコアの予測にグローバルな特徴を抽出するコンテキスト誘導モジュールを提案する。
ノイズと部分重なり合う点雲を用いたModelNet40上での実験により,提案手法が従来の学習手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-07-06T12:52:22Z) - (AF)2-S3Net: Attentive Feature Fusion with Adaptive Feature Selection
for Sparse Semantic Segmentation Network [3.6967381030744515]
3次元LiDARセマンティックセマンティックセグメンテーションのためのエンコーダ-デコーダCNNネットワークであるAF2-S3Netを提案する。
本稿では、エンコーダに新しいマルチブランチ注意機能融合モジュール、デコーダに特徴マップを再重み付けしたユニークな適応機能選択モジュールを提案する。
実験の結果,提案手法は大規模セマンティックKITTIベンチマークにおける最先端手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-02-08T21:04:21Z) - LiDAR-based Panoptic Segmentation via Dynamic Shifting Network [56.71765153629892]
LiDARベースのパノプティカルセグメンテーションは、オブジェクトとシーンを統一的に解析することを目的としている。
本稿では,ポイントクラウド領域における効果的な単視分割フレームワークとして機能する動的シフトネットワーク(DS-Net)を提案する。
提案するDS-Netは,現在の最先端手法よりも優れた精度を実現する。
論文 参考訳(メタデータ) (2020-11-24T08:44:46Z) - Feature Flow: In-network Feature Flow Estimation for Video Object
Detection [56.80974623192569]
光の流れはコンピュータビジョンのタスクで広く使われ、ピクセルレベルのモーション情報を提供する。
一般的なアプローチは、ニューラルネットワークへの前向き光学フローと、タスクデータセット上のこのネットワークの微調整である。
ビデオオブジェクト検出のための textbfIn-network textbfFeature textbfFlow 推定モジュールを用いた新しいネットワーク (IFF-Net) を提案する。
論文 参考訳(メタデータ) (2020-09-21T07:55:50Z) - ePointDA: An End-to-End Simulation-to-Real Domain Adaptation Framework
for LiDAR Point Cloud Segmentation [111.56730703473411]
LiDARデータ上でディープニューラルネットワーク(DNN)をトレーニングするには、大規模なポイントワイドアノテーションが必要である。
シミュレーション・トゥ・リアル・ドメイン適応(SRDA)は、DNNを無制限の合成データと自動生成されたラベルで訓練する。
ePointDAは、自己教師付きドロップアウトノイズレンダリング、統計不変および空間適応型特徴アライメント、転送可能なセグメンテーション学習の3つのモジュールで構成されている。
論文 参考訳(メタデータ) (2020-09-07T23:46:08Z) - Regularized Densely-connected Pyramid Network for Salient Instance
Segmentation [73.17802158095813]
我々は、エンドツーエンドの有能なインスタンスセグメンテーション(SIS)のための新しいパイプラインを提案する。
ディープネットワークにおけるリッチな特徴階層をよりよく活用するために、正規化された高密度接続を提案する。
マスク予測を改善するために,新しいマルチレベルRoIAlignベースのデコーダを導入し,多レベル特徴を適応的に集約する。
論文 参考訳(メタデータ) (2020-08-28T00:13:30Z) - Semantic Segmentation With Multi Scale Spatial Attention For Self
Driving Cars [2.7317088388886384]
本稿では,様々なスケールのマルチスケール特徴融合を用いた新しいニューラルネットワークを提案し,その精度と効率的なセマンティックイメージセグメンテーションを提案する。
我々は、ResNetベースの特徴抽出器、ダウンサンプリング部における拡張畳み込み層、アップサンプリング部におけるアトラス畳み込み層を使用し、コンキャット操作を用いてそれらをマージした。
より文脈的な情報をエンコードし、ネットワークの受容領域を強化するため、新しいアテンションモジュールが提案されている。
論文 参考訳(メタデータ) (2020-06-30T20:19:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。