論文の概要: SegNet4D: Efficient Instance-Aware 4D LiDAR Semantic Segmentation for Driving Scenarios
- arxiv url: http://arxiv.org/abs/2406.16279v2
- Date: Sun, 10 Nov 2024 07:34:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 17:14:28.327145
- Title: SegNet4D: Efficient Instance-Aware 4D LiDAR Semantic Segmentation for Driving Scenarios
- Title(参考訳): SegNet4D: シナリオ駆動のための効率的なインスタンス対応4D LiDARセマンティックセマンティックセグメンテーション
- Authors: Neng Wang, Ruibin Guo, Chenghao Shi, Ziyue Wang, Hui Zhang, Huimin Lu, Zhiqiang Zheng, Xieyuanli Chen,
- Abstract要約: 我々は,新しいリアルタイム4DセマンティックセグメンテーションネットワークであるSegNet4Dを紹介する。
SegNet4Dは4Dセグメンテーションを、シングルスキャンセグメンテーションと移動オブジェクトセグメンテーションの2つのタスクとして扱う。
提案手法は,マルチスキャンセマンティックセマンティックセマンティックセマンティクスと移動物体セマンティクスの両方において最先端技術を上回っている。
- 参考スコア(独自算出の注目度): 10.442390215931503
- License:
- Abstract: 4D LiDAR semantic segmentation, also referred to as multi-scan semantic segmentation, plays a crucial role in enhancing the environmental understanding capabilities of autonomous robots. It classifies the semantic category of each LiDAR point and detects whether it is dynamic, a critical ability for tasks like obstacle avoidance and autonomous navigation. Existing approaches often rely on computationally heavy 4D convolutions or recursive networks, which result in poor real-time performance, making them unsuitable for online robotics and autonomous driving applications. In this paper, we introduce SegNet4D, a novel real-time 4D semantic segmentation network offering both efficiency and strong semantic understanding. SegNet4D addresses 4D segmentation as two tasks: single-scan semantic segmentation and moving object segmentation, each tackled by a separate network head. Both results are combined in a motion-semantic fusion module to achieve comprehensive 4D segmentation. Additionally, instance information is extracted from the current scan and exploited for instance-wise segmentation consistency. Our approach surpasses state-of-the-art in both multi-scan semantic segmentation and moving object segmentation while offering greater efficiency, enabling real-time operation. Besides, its effectiveness and efficiency have also been validated on a real-world robotic platform. Our code will be released at https://github.com/nubot-nudt/SegNet4D.
- Abstract(参考訳): マルチスキャンセマンティックセグメンテーションとも呼ばれる4D LiDARセマンティックセグメンテーションは、自律ロボットの環境理解能力を高める上で重要な役割を果たす。
各LiDARポイントのセマンティックカテゴリを分類し、それが動的かどうかを検出する。
既存のアプローチは、しばしば計算的に重い4D畳み込みや再帰的ネットワークに依存しており、結果としてリアルタイムのパフォーマンスが低下し、オンラインロボティクスや自律運転アプリケーションには適さない。
本稿では、効率性と強力な意味理解を提供する、新しいリアルタイム4DセマンティックセマンティックセマンティクスネットワークであるSegNet4Dを紹介する。
SegNet4Dは4Dセグメンテーションを、シングルスキャンセグメンテーションと移動オブジェクトセグメンテーションの2つのタスクとして扱う。
両方の結果は、総合的な4Dセグメンテーションを達成するために、モーション・セマンティック・フュージョン・モジュールに組み合わされる。
さらに、インスタンス情報は現在のスキャンから抽出され、インスタンスワイドセグメンテーション一貫性のために利用される。
提案手法は,マルチスキャンセマンティックセマンティックセマンティクスと移動物体セマンティクスの両方において最先端を超越し,効率を向上し,リアルタイム操作を可能にする。
さらに、その効率性と効率性は、現実世界のロボットプラットフォームでも検証されている。
私たちのコードはhttps://github.com/nubot-nudt/SegNet4Dでリリースされます。
関連論文リスト
- 3D Part Segmentation via Geometric Aggregation of 2D Visual Features [57.20161517451834]
監督された3D部分分割モデルは、固定されたオブジェクトと部品のセットに合わせて調整されており、それらの転送可能性は、オープンセットの現実世界のシナリオに制限される。
近年、視覚言語モデル(VLM)を多視点レンダリングとテキストプロンプトを用いてオブジェクト部品の識別に活用する研究が進められている。
これらの制約に対処するために,視覚概念から抽出した意味論と3次元幾何学をブレンドし,対象部品を効果的に同定するCOPSを提案する。
論文 参考訳(メタデータ) (2024-12-05T15:27:58Z) - Bayesian Self-Training for Semi-Supervised 3D Segmentation [59.544558398992386]
3Dセグメンテーションはコンピュータビジョンの中核的な問題である。
完全に教師されたトレーニングを採用するために、3Dポイントクラウドを密にラベル付けすることは、労働集約的で高価です。
半教師付きトレーニングは、ラベル付きデータの小さなセットのみを付与し、より大きなラベル付きデータセットを伴って、より実用的な代替手段を提供する。
論文 参考訳(メタデータ) (2024-09-12T14:54:31Z) - SegPoint: Segment Any Point Cloud via Large Language Model [62.69797122055389]
我々は,多種多様なタスクにまたがるポイントワイドセグメンテーションマスクを生成するSegPointと呼ばれるモデルを提案する。
SegPointは、単一のフレームワーク内でさまざまなセグメンテーションタスクに対処する最初のモデルである。
論文 参考訳(メタデータ) (2024-07-18T17:58:03Z) - SAM-guided Graph Cut for 3D Instance Segmentation [60.75119991853605]
本稿では,3次元画像情報と多視点画像情報の同時利用による3次元インスタンス分割の課題に対処する。
本稿では,3次元インスタンスセグメンテーションのための2次元セグメンテーションモデルを効果的に活用する新しい3D-to-2Dクエリフレームワークを提案する。
本手法は,ロバストなセグメンテーション性能を実現し,異なるタイプのシーンにまたがる一般化を実現する。
論文 参考訳(メタデータ) (2023-12-13T18:59:58Z) - Exploiting the Complementarity of 2D and 3D Networks to Address
Domain-Shift in 3D Semantic Segmentation [14.30113021974841]
3Dセマンティックセグメンテーションは、自律運転、ロボット工学、混合現実など、多くの現実世界のアプリケーションにおいて重要なタスクである。
可能な解決策は、3D情報とRGBカメラのような異なるモダリティを特徴とするセンサーから得られる他の情報とを組み合わせることである。
最近のマルチモーダルな3Dセマンティックセグメンテーションネットワークは、2D情報と3D情報を独立に処理する2つのブランチに依存してこれらのモダリティを利用する。
論文 参考訳(メタデータ) (2023-04-06T10:59:43Z) - Prototypical Cross-Attention Networks for Multiple Object Tracking and
Segmentation [95.74244714914052]
複数のオブジェクトのトラッキングとセグメンテーションには、与えられたクラスのセットに属するオブジェクトを検出し、追跡し、セグメンテーションする必要がある。
オンライン上でリッチ・テンポラル情報を活用するプロトタイプ・クロス・アテンション・ネットワーク(PCAN)を提案する。
PCANは、Youtube-VISとBDD100Kデータセットで、現在のビデオインスタンス追跡とセグメンテーションコンテストの勝者を上回っている。
論文 参考訳(メタデータ) (2021-06-22T17:57:24Z) - Improving Point Cloud Semantic Segmentation by Learning 3D Object
Detection [102.62963605429508]
ポイントクラウドセマンティックセグメンテーションは、自動運転において重要な役割を果たす。
現在の3Dセマンティックセグメンテーションネットワークは、よく表現されたクラスに対して優れた性能を発揮する畳み込みアーキテクチャに焦点を当てている。
Aware 3D Semantic Detection (DASS) フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-22T14:17:40Z) - JSENet: Joint Semantic Segmentation and Edge Detection Network for 3D
Point Clouds [37.703770427574476]
本稿では,初めて3次元意味的エッジ検出タスクに取り組む。
本稿では,2つのタスクを共同で行う2ストリーム完全畳み込みネットワークを提案する。
特に,両タスクの性能向上のために,領域情報とエッジ情報を明示的に関連付ける共同改良モジュールを設計する。
論文 参考訳(メタデータ) (2020-07-14T08:00:35Z) - 3D-MiniNet: Learning a 2D Representation from Point Clouds for Fast and
Efficient 3D LIDAR Semantic Segmentation [9.581605678437032]
3D-MiniNetは、3Dと2Dの学習層を組み合わせたLIDARセマンティックセグメンテーションの新しいアプローチである。
まず,3次元データから局所的およびグローバル的情報を抽出する新しいプロジェクションにより,原点から2次元表現を学習する。
これらの2Dセマンティックラベルは、3D空間に再プロジェクションされ、後処理モジュールを通じて拡張される。
論文 参考訳(メタデータ) (2020-02-25T14:33:50Z) - Real-time Fusion Network for RGB-D Semantic Segmentation Incorporating
Unexpected Obstacle Detection for Road-driving Images [13.3382165879322]
RFNetと呼ばれるリアルタイムな融合セマンティックセグメンテーションネットワークを提案する。
RFNetは迅速な実行が可能で、自動運転車のアプリケーションを満たす。
Cityscapesでは,従来の最先端セマンティックセマンティックセマンティックセマンティックスよりも優れた精度と22Hzの推論速度で優れていた。
論文 参考訳(メタデータ) (2020-02-24T22:17:25Z) - An Abstraction Model for Semantic Segmentation Algorithms [9.561123408923489]
セマンティックセグメンテーションは、がん検出、ロボット支援手術、衛星画像解析、自動運転車など、多くのタスクで使用されている。
本稿では,セマンティックセグメンテーションの抽象化モデルを用いて,その分野を包括的に把握する。
異なるアプローチを比較し,各メソッドの動作における4つの抽象ブロックの重要性を解析する。
論文 参考訳(メタデータ) (2019-12-27T05:39:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。