論文の概要: Point Cloud Based Scene Segmentation: A Survey
- arxiv url: http://arxiv.org/abs/2503.12595v1
- Date: Sun, 16 Mar 2025 18:02:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:35:06.645789
- Title: Point Cloud Based Scene Segmentation: A Survey
- Title(参考訳): Point Cloudベースのシーンセグメンテーション: サーベイ
- Authors: Dan Halperin, Niklas Eisl,
- Abstract要約: 本稿では、自律運転のためのポイントクラウドセマンティックス分野における最先端手法の概要について述べる。
提案手法はプロジェクションベース,3Dベース,ハイブリッドに分類する。
また,実世界のデータに制限がある場合,研究を支援するための合成データの重要性も強調する。
- 参考スコア(独自算出の注目度): 3.0846824529023387
- License:
- Abstract: Autonomous driving is a safety-critical application, and it is therefore a top priority that the accompanying assistance systems are able to provide precise information about the surrounding environment of the vehicle. Tasks such as 3D Object Detection deliver an insufficiently detailed understanding of the surrounding scene because they only predict a bounding box for foreground objects. In contrast, 3D Semantic Segmentation provides richer and denser information about the environment by assigning a label to each individual point, which is of paramount importance for autonomous driving tasks, such as navigation or lane changes. To inspire future research, in this review paper, we provide a comprehensive overview of the current state-of-the-art methods in the field of Point Cloud Semantic Segmentation for autonomous driving. We categorize the approaches into projection-based, 3D-based and hybrid methods. Moreover, we discuss the most important and commonly used datasets for this task and also emphasize the importance of synthetic data to support research when real-world data is limited. We further present the results of the different methods and compare them with respect to their segmentation accuracy and efficiency.
- Abstract(参考訳): 自律運転は安全に重要なアプリケーションであり、それに伴う補助システムが車両の周囲の環境に関する正確な情報を提供するのが最優先事項である。
3Dオブジェクト検出のようなタスクは、前景オブジェクトのバウンディングボックスのみを予測するため、周囲のシーンを十分に理解することができない。
対照的に、3Dセマンティックセグメンテーションは、ナビゲーションや車線変更といった自律運転タスクにおいて最重要となる個々のポイントにラベルを割り当てることによって、よりリッチでより密集した環境情報を提供する。
今後の研究に刺激を与えるため、本稿では、自律運転のためのポイントクラウドセマンティックセマンティックセマンティックセマンティクスの分野における最先端手法の概要について概説する。
提案手法はプロジェクションベース,3Dベース,ハイブリッドに分類する。
さらに,本課題において最も重要かつ一般的に使用されるデータセットについても論じ,実世界のデータに制限がある場合に研究を支援するための合成データの重要性を強調した。
さらに,各手法の結果を比較し,その分割精度と効率について比較する。
関連論文リスト
- Towards Flexible 3D Perception: Object-Centric Occupancy Completion Augments 3D Object Detection [54.78470057491049]
占領は3Dシーンの知覚に有望な代替手段として現れてきた。
オブジェクトbboxのサプリメントとして,オブジェクト中心の占有率を導入する。
これらの特徴は,最先端の3Dオブジェクト検出器の検出結果を著しく向上させることを示した。
論文 参考訳(メタデータ) (2024-12-06T16:12:38Z) - Data Fusion of Semantic and Depth Information in the Context of Object Detection [0.0]
開始v2の領域ベース畳み込みニューラルネットワーク(R-CNN)を利用する。
コンピュータビジョンアルゴリズムのカットエッジ技術を用いて、関心領域の3D参照ポイントを生成する。
論文 参考訳(メタデータ) (2024-12-04T17:26:30Z) - Collective Perception Datasets for Autonomous Driving: A Comprehensive Review [0.5326090003728084]
本稿では,自律運転の文脈における集合認識データセットの包括的レビューを行う。
この研究は、すべてのデータセットの重要な基準を特定し、その強さ、弱点、異常を提示することを目的としている。
論文 参考訳(メタデータ) (2024-05-27T09:08:55Z) - PatchContrast: Self-Supervised Pre-training for 3D Object Detection [14.603858163158625]
PatchContrastは、3Dオブジェクト検出のための新しい自己教師付きポイントクラウド事前学習フレームワークである。
提案手法は,3つの一般的な3次元検出データセットにおいて,既存の最先端モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-14T07:45:54Z) - Language-Guided 3D Object Detection in Point Cloud for Autonomous
Driving [91.91552963872596]
我々は,LiDARグラウンディングと呼ばれるマルチモーダルな視覚的グラウンドニングタスクを提案する。
言語特徴を持つLiDARベースの物体検出器を共同で学習し、検出器から直接対象領域を予測する。
私たちの研究は、LiDARベースの接地作業に関する深い洞察を提供しており、自動運転コミュニティにとって有望な方向性を示すものと期待しています。
論文 参考訳(メタデータ) (2023-05-25T06:22:10Z) - A Threefold Review on Deep Semantic Segmentation: Efficiency-oriented,
Temporal and Depth-aware design [77.34726150561087]
我々は、自動運転車のビジョンの文脈において、Deep Semanticの最も関連性があり最近の進歩について調査を行う。
私たちの主な目的は、それぞれの視点で直面している主要な方法、利点、制限、結果、課題に関する包括的な議論を提供することです。
論文 参考訳(メタデータ) (2023-03-08T01:29:55Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - Semantic Segmentation for Real Point Cloud Scenes via Bilateral
Augmentation and Adaptive Fusion [38.05362492645094]
現実世界の複雑な環境を直感的に捉えることができますが、3Dデータの生の性質のため、機械認識にとって非常に困難です。
我々は、現実に収集された大規模クラウドデータに対して、重要な視覚的タスク、セマンティックセグメンテーションに集中する。
3つのベンチマークで最先端のネットワークと比較することにより,ネットワークの有効性を実証する。
論文 参考訳(メタデータ) (2021-03-12T04:13:20Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。