論文の概要: SegNet4D: Efficient Instance-Aware 4D LiDAR Semantic Segmentation for Driving Scenarios
- arxiv url: http://arxiv.org/abs/2406.16279v2
- Date: Sun, 10 Nov 2024 07:34:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 17:14:28.327145
- Title: SegNet4D: Efficient Instance-Aware 4D LiDAR Semantic Segmentation for Driving Scenarios
- Title(参考訳): SegNet4D: シナリオ駆動のための効率的なインスタンス対応4D LiDARセマンティックセマンティックセグメンテーション
- Authors: Neng Wang, Ruibin Guo, Chenghao Shi, Ziyue Wang, Hui Zhang, Huimin Lu, Zhiqiang Zheng, Xieyuanli Chen,
- Abstract要約: 我々は,新しいリアルタイム4DセマンティックセグメンテーションネットワークであるSegNet4Dを紹介する。
SegNet4Dは4Dセグメンテーションを、シングルスキャンセグメンテーションと移動オブジェクトセグメンテーションの2つのタスクとして扱う。
提案手法は,マルチスキャンセマンティックセマンティックセマンティックセマンティクスと移動物体セマンティクスの両方において最先端技術を上回っている。
- 参考スコア(独自算出の注目度): 10.442390215931503
- License:
- Abstract: 4D LiDAR semantic segmentation, also referred to as multi-scan semantic segmentation, plays a crucial role in enhancing the environmental understanding capabilities of autonomous robots. It classifies the semantic category of each LiDAR point and detects whether it is dynamic, a critical ability for tasks like obstacle avoidance and autonomous navigation. Existing approaches often rely on computationally heavy 4D convolutions or recursive networks, which result in poor real-time performance, making them unsuitable for online robotics and autonomous driving applications. In this paper, we introduce SegNet4D, a novel real-time 4D semantic segmentation network offering both efficiency and strong semantic understanding. SegNet4D addresses 4D segmentation as two tasks: single-scan semantic segmentation and moving object segmentation, each tackled by a separate network head. Both results are combined in a motion-semantic fusion module to achieve comprehensive 4D segmentation. Additionally, instance information is extracted from the current scan and exploited for instance-wise segmentation consistency. Our approach surpasses state-of-the-art in both multi-scan semantic segmentation and moving object segmentation while offering greater efficiency, enabling real-time operation. Besides, its effectiveness and efficiency have also been validated on a real-world robotic platform. Our code will be released at https://github.com/nubot-nudt/SegNet4D.
- Abstract(参考訳): マルチスキャンセマンティックセグメンテーションとも呼ばれる4D LiDARセマンティックセグメンテーションは、自律ロボットの環境理解能力を高める上で重要な役割を果たす。
各LiDARポイントのセマンティックカテゴリを分類し、それが動的かどうかを検出する。
既存のアプローチは、しばしば計算的に重い4D畳み込みや再帰的ネットワークに依存しており、結果としてリアルタイムのパフォーマンスが低下し、オンラインロボティクスや自律運転アプリケーションには適さない。
本稿では、効率性と強力な意味理解を提供する、新しいリアルタイム4DセマンティックセマンティックセマンティクスネットワークであるSegNet4Dを紹介する。
SegNet4Dは4Dセグメンテーションを、シングルスキャンセグメンテーションと移動オブジェクトセグメンテーションの2つのタスクとして扱う。
両方の結果は、総合的な4Dセグメンテーションを達成するために、モーション・セマンティック・フュージョン・モジュールに組み合わされる。
さらに、インスタンス情報は現在のスキャンから抽出され、インスタンスワイドセグメンテーション一貫性のために利用される。
提案手法は,マルチスキャンセマンティックセマンティックセマンティクスと移動物体セマンティクスの両方において最先端を超越し,効率を向上し,リアルタイム操作を可能にする。
さらに、その効率性と効率性は、現実世界のロボットプラットフォームでも検証されている。
私たちのコードはhttps://github.com/nubot-nudt/SegNet4Dでリリースされます。
関連論文リスト
- SegPoint: Segment Any Point Cloud via Large Language Model [62.69797122055389]
我々は,多種多様なタスクにまたがるポイントワイドセグメンテーションマスクを生成するSegPointと呼ばれるモデルを提案する。
SegPointは、単一のフレームワーク内でさまざまなセグメンテーションタスクに対処する最初のモデルである。
論文 参考訳(メタデータ) (2024-07-18T17:58:03Z) - SAI3D: Segment Any Instance in 3D Scenes [68.57002591841034]
新規なゼロショット3Dインスタンスセグメンテーション手法であるSAI3Dを紹介する。
我々の手法は3Dシーンを幾何学的プリミティブに分割し、段階的に3Dインスタンスセグメンテーションにマージする。
ScanNet、Matterport3D、さらに難しいScanNet++データセットに関する実証的な評価は、我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2023-12-17T09:05:47Z) - MarS3D: A Plug-and-Play Motion-Aware Model for Semantic Segmentation on
Multi-Scan 3D Point Clouds [25.74458809877035]
マルチスキャン大規模クラウド上の3次元セマンティックセマンティックセマンティクスは、自律システムにおいて重要な役割を果たす。
マルチスキャン3Dポイントクラウド上でのセマンティックセグメンテーションのためのプラグイン・アンド・プレイ・モーション・アウェア・モジュールであるMarS3Dを提案する。
論文 参考訳(メタデータ) (2023-07-18T14:59:19Z) - LENet: Lightweight And Efficient LiDAR Semantic Segmentation Using
Multi-Scale Convolution Attention [0.0]
本稿では,LDARに基づくセマンティックセマンティックセマンティクスのためのエンコーダデコーダ構造を持つLENetと呼ばれるプロジェクションベースのセマンティクスセマンティクスセマンティクスネットワークを提案する。
エンコーダは、特徴を捉えるために、様々な受信フィールドサイズを持つ新しいマルチスケール・コンボリューション・アテンション(MSCA)モジュールで構成されている。
提案手法は, 最先端のセマンティックセグメンテーション法と比較して, 軽量で, 効率的で, 堅牢であることを示す。
論文 参考訳(メタデータ) (2023-01-11T02:51:38Z) - Robust 3D Scene Segmentation through Hierarchical and Learnable
Part-Fusion [9.275156524109438]
3Dセマンティックセグメンテーションは、自律運転、ロボット工学、AR/VRといったいくつかのシーン理解アプリケーションのための基本的なビルディングブロックである。
従来の手法では、階層的で反復的な手法を用いて意味や事例情報を融合するが、文脈融合における学習性は欠如している。
本稿では,セグメンテーション・フュージョン(Seegment-Fusion)について述べる。
論文 参考訳(メタデータ) (2021-11-16T13:14:47Z) - Improving Semi-Supervised and Domain-Adaptive Semantic Segmentation with
Self-Supervised Depth Estimation [94.16816278191477]
本稿では,セミアダプティブなセマンティックセマンティックセマンティックセグメンテーションのためのフレームワークを提案する。
ラベルのない画像シーケンスでのみ訓練された自己教師付き単眼深度推定によって強化される。
提案したモデルをCityscapesデータセット上で検証する。
論文 参考訳(メタデータ) (2021-08-28T01:33:38Z) - Prototypical Cross-Attention Networks for Multiple Object Tracking and
Segmentation [95.74244714914052]
複数のオブジェクトのトラッキングとセグメンテーションには、与えられたクラスのセットに属するオブジェクトを検出し、追跡し、セグメンテーションする必要がある。
オンライン上でリッチ・テンポラル情報を活用するプロトタイプ・クロス・アテンション・ネットワーク(PCAN)を提案する。
PCANは、Youtube-VISとBDD100Kデータセットで、現在のビデオインスタンス追跡とセグメンテーションコンテストの勝者を上回っている。
論文 参考訳(メタデータ) (2021-06-22T17:57:24Z) - CTNet: Context-based Tandem Network for Semantic Segmentation [77.4337867789772]
本研究では,空間コンテキスト情報とチャネルコンテキスト情報とを対話的に探索し,新しいコンテキストベースタンデムネットワーク(CTNet)を提案する。
セマンティックセグメンテーションのための学習表現の性能をさらに向上するため、2つのコンテキストモジュールの結果を適応的に統合する。
論文 参考訳(メタデータ) (2021-04-20T07:33:11Z) - Improving Point Cloud Semantic Segmentation by Learning 3D Object
Detection [102.62963605429508]
ポイントクラウドセマンティックセグメンテーションは、自動運転において重要な役割を果たす。
現在の3Dセマンティックセグメンテーションネットワークは、よく表現されたクラスに対して優れた性能を発揮する畳み込みアーキテクチャに焦点を当てている。
Aware 3D Semantic Detection (DASS) フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-22T14:17:40Z) - An Abstraction Model for Semantic Segmentation Algorithms [9.561123408923489]
セマンティックセグメンテーションは、がん検出、ロボット支援手術、衛星画像解析、自動運転車など、多くのタスクで使用されている。
本稿では,セマンティックセグメンテーションの抽象化モデルを用いて,その分野を包括的に把握する。
異なるアプローチを比較し,各メソッドの動作における4つの抽象ブロックの重要性を解析する。
論文 参考訳(メタデータ) (2019-12-27T05:39:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。