論文の概要: SemanticVoxels: Sequential Fusion for 3D Pedestrian Detection using
LiDAR Point Cloud and Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2009.12276v1
- Date: Fri, 25 Sep 2020 14:52:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 23:35:00.797541
- Title: SemanticVoxels: Sequential Fusion for 3D Pedestrian Detection using
LiDAR Point Cloud and Semantic Segmentation
- Title(参考訳): semanticvoxels:lidar point cloudとセマンティックセグメンテーションを用いた3次元歩行者検出のためのシーケンシャル融合
- Authors: Juncong Fei, Wenbo Chen, Philipp Heidenreich, Sascha Wirges, Christoph
Stiller
- Abstract要約: 我々は、異なるレベルで融合を適用できるように、PointPaintingの一般化を提案する。
本研究では,セマンティックボクセルが3次元および鳥の視線歩行者検出ベンチマークにおいて,最先端の性能を達成することを示す。
- 参考スコア(独自算出の注目度): 4.350338899049983
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D pedestrian detection is a challenging task in automated driving because
pedestrians are relatively small, frequently occluded and easily confused with
narrow vertical objects. LiDAR and camera are two commonly used sensor
modalities for this task, which should provide complementary information.
Unexpectedly, LiDAR-only detection methods tend to outperform multisensor
fusion methods in public benchmarks. Recently, PointPainting has been presented
to eliminate this performance drop by effectively fusing the output of a
semantic segmentation network instead of the raw image information. In this
paper, we propose a generalization of PointPainting to be able to apply fusion
at different levels. After the semantic augmentation of the point cloud, we
encode raw point data in pillars to get geometric features and semantic point
data in voxels to get semantic features and fuse them in an effective way.
Experimental results on the KITTI test set show that SemanticVoxels achieves
state-of-the-art performance in both 3D and bird's eye view pedestrian
detection benchmarks. In particular, our approach demonstrates its strength in
detecting challenging pedestrian cases and outperforms current state-of-the-art
approaches.
- Abstract(参考訳): 3d歩行者検出は、歩行者が比較的小さく、しばしば遮蔽され、狭い垂直な物体と混同しやすいため、自動走行において難しい課題である。
LiDARとカメラはこのタスクによく使われる2つのセンサーモードであり、補完的な情報を提供する。
予期せぬことに、lidarのみの検出方法は、公開ベンチマークでマルチセンサー融合法を上回る傾向がある。
近年,画像情報の代わりに意味セグメンテーションネットワークの出力を効果的に活用することにより,この性能低下を解消するためにポイントペイントが提案されている。
本稿では,様々なレベルで核融合を適用できるように,PointPaintingの一般化を提案する。
点雲のセマンティック拡張の後、我々は原点データを柱にエンコードし、幾何学的特徴と意味的点データを取得して意味的特徴を取得し、それらを効果的に融合させる。
KITTIテストセットの実験結果から,セマンティックボクセルは3次元および鳥の視線歩行者検出ベンチマークにおいて,最先端の性能を達成することが示された。
特に,このアプローチは,歩行者の課題を検知する上での強みを示し,現状のアプローチを上回っている。
関連論文リスト
- SpaRC: Sparse Radar-Camera Fusion for 3D Object Detection [5.36022165180739]
本稿では,マルチビュー画像セマンティクスとレーダとカメラポイント機能を統合した3次元認識のための新しいスパース融合変換器であるSpaRCを提案する。
nuScenes と TruckScenes のベンチマークに関する実証的な評価は、SpaRC が既存の密度の高い BEV ベースおよびスパースクエリベースの検出器より著しく優れていることを示している。
論文 参考訳(メタデータ) (2024-11-29T17:17:38Z) - Paint and Distill: Boosting 3D Object Detection with Semantic Passing
Network [70.53093934205057]
ライダーやカメラセンサーからの3Dオブジェクト検出タスクは、自動運転に不可欠である。
本研究では,既存のライダーベース3D検出モデルの性能向上を図るために,SPNetという新しいセマンティックパスフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-12T12:35:34Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - SASA: Semantics-Augmented Set Abstraction for Point-based 3D Object
Detection [78.90102636266276]
SASA(Semantics-Augmented Set Abstraction)と呼ばれる新しい集合抽象化手法を提案する。
そこで本研究では, 推定点前景スコアに基づいて, より重要な前景点の維持を支援するセマンティックス誘導点サンプリングアルゴリズムを提案する。
実際には、SASAは、前景オブジェクトに関連する貴重な点を識別し、ポイントベースの3D検出のための特徴学習を改善するのに有効である。
論文 参考訳(メタデータ) (2022-01-06T08:54:47Z) - Progressive Coordinate Transforms for Monocular 3D Object Detection [52.00071336733109]
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
論文 参考訳(メタデータ) (2021-08-12T15:22:33Z) - FusionPainting: Multimodal Fusion with Adaptive Attention for 3D Object
Detection [15.641616738865276]
本稿では,2次元RGB画像と3次元点群をセマンティックレベルで融合させて3次元物体検出タスクを増強する汎用多モード核融合フレームワークFusionPaintingを提案する。
特にFusionPaintingフレームワークは、マルチモーダルセマンティックセグメンテーションモジュール、アダプティブアテンションベースのセマンティックフュージョンモジュール、および3Dオブジェクト検出器の3つの主要モジュールで構成されている。
提案手法の有効性を,大規模なnuScenes検出ベンチマークで検証した。
論文 参考訳(メタデータ) (2021-06-23T14:53:22Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - RoIFusion: 3D Object Detection from LiDAR and Vision [7.878027048763662]
本稿では,3次元関心領域(RoI)の集合を点雲から対応する画像の2次元ロIに投影することで,新しい融合アルゴリズムを提案する。
提案手法は,KITTI 3Dオブジェクト検出課題ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2020-09-09T20:23:27Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z) - SegVoxelNet: Exploring Semantic Context and Depth-aware Features for 3D
Vehicle Detection from Point Cloud [39.99118618229583]
上記の2つの問題に対処する統合モデルSegVoxelNetを提案する。
鳥の視線における自由電荷セマンティックセグメンテーションマスクを活用するために,セマンティックコンテクストエンコーダを提案する。
分布差を明示的にモデル化する新規な深度認識ヘッドを設計し、深度認識ヘッドの各部分を目標検出範囲に集中させる。
論文 参考訳(メタデータ) (2020-02-13T02:42:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。