論文の概要: SegVoxelNet: Exploring Semantic Context and Depth-aware Features for 3D
Vehicle Detection from Point Cloud
- arxiv url: http://arxiv.org/abs/2002.05316v1
- Date: Thu, 13 Feb 2020 02:42:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 13:21:29.998292
- Title: SegVoxelNet: Exploring Semantic Context and Depth-aware Features for 3D
Vehicle Detection from Point Cloud
- Title(参考訳): SegVoxelNet:ポイントクラウドからの3D車両検出のためのセマンティックコンテキストと深度認識機能を探る
- Authors: Hongwei Yi, Shaoshuai Shi, Mingyu Ding, Jiankai Sun, Kui Xu, Hui Zhou,
Zhe Wang, Sheng Li, Guoping Wang
- Abstract要約: 上記の2つの問題に対処する統合モデルSegVoxelNetを提案する。
鳥の視線における自由電荷セマンティックセグメンテーションマスクを活用するために,セマンティックコンテクストエンコーダを提案する。
分布差を明示的にモデル化する新規な深度認識ヘッドを設計し、深度認識ヘッドの各部分を目標検出範囲に集中させる。
- 参考スコア(独自算出の注目度): 39.99118618229583
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D vehicle detection based on point cloud is a challenging task in real-world
applications such as autonomous driving. Despite significant progress has been
made, we observe two aspects to be further improved. First, the semantic
context information in LiDAR is seldom explored in previous works, which may
help identify ambiguous vehicles. Second, the distribution of point cloud on
vehicles varies continuously with increasing depths, which may not be well
modeled by a single model. In this work, we propose a unified model SegVoxelNet
to address the above two problems. A semantic context encoder is proposed to
leverage the free-of-charge semantic segmentation masks in the bird's eye view.
Suspicious regions could be highlighted while noisy regions are suppressed by
this module. To better deal with vehicles at different depths, a novel
depth-aware head is designed to explicitly model the distribution differences
and each part of the depth-aware head is made to focus on its own target
detection range. Extensive experiments on the KITTI dataset show that the
proposed method outperforms the state-of-the-art alternatives in both accuracy
and efficiency with point cloud as input only.
- Abstract(参考訳): ポイントクラウドに基づく3D車両検出は、自動運転のような現実世界のアプリケーションでは難しい課題である。
著しい進歩にもかかわらず、さらに改善されるのが2つの側面である。
第一に、LiDARにおける意味的文脈情報は以前の研究ではほとんど探索されず、曖昧な車両を特定するのに役立つ。
第二に、車両上の点雲の分布は深度の増加とともに連続的に変化し、単一のモデルではうまくモデル化されない。
本研究では,上記の2つの問題に対処する統合モデルSegVoxelNetを提案する。
鳥の視線における自由電荷セマンティックセグメンテーションマスクを活用するために,意味文脈エンコーダを提案する。
このモジュールによって雑音領域が抑制される間、疑わしい領域が強調される可能性がある。
異なる深度で車両をよりよく扱うために、分布差を明示的にモデル化する新しい深度認識ヘッドを設計し、深度認識ヘッドの各部分を目標検出範囲に集中させる。
KITTIデータセットの大規模な実験により,提案手法は点雲を入力のみとする精度と効率の両方で最先端の代替品よりも優れていた。
関連論文リスト
- Language-Guided 3D Object Detection in Point Cloud for Autonomous
Driving [91.91552963872596]
我々は,LiDARグラウンディングと呼ばれるマルチモーダルな視覚的グラウンドニングタスクを提案する。
言語特徴を持つLiDARベースの物体検出器を共同で学習し、検出器から直接対象領域を予測する。
私たちの研究は、LiDARベースの接地作業に関する深い洞察を提供しており、自動運転コミュニティにとって有望な方向性を示すものと期待しています。
論文 参考訳(メタデータ) (2023-05-25T06:22:10Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - PillarGrid: Deep Learning-based Cooperative Perception for 3D Object
Detection from Onboard-Roadside LiDAR [15.195933965761645]
我々は,複数の3次元LiDARからの情報を融合した新しい協調認識手法であるtextitPillarGridを提案する。
PillarGrid は,1) 点雲の協調前処理,2) 軸方向のボキセル化と特徴抽出,3) 複数のセンサからの特徴のグリッド方向の深層融合,4) 畳み込みニューラルネットワーク(CNN) に基づく3Dオブジェクト検出である。
広汎な実験により、PillarGridはSOTA単一LiDARに基づく3Dオブジェクト検出法よりも精度と範囲を大きなマージンで上回ることがわかった。
論文 参考訳(メタデータ) (2022-03-12T02:28:41Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - LiDAR-based Panoptic Segmentation via Dynamic Shifting Network [56.71765153629892]
LiDARベースのパノプティカルセグメンテーションは、オブジェクトとシーンを統一的に解析することを目的としている。
本稿では,ポイントクラウド領域における効果的な単視分割フレームワークとして機能する動的シフトネットワーク(DS-Net)を提案する。
提案するDS-Netは,現在の最先端手法よりも優れた精度を実現する。
論文 参考訳(メタデータ) (2020-11-24T08:44:46Z) - SemanticVoxels: Sequential Fusion for 3D Pedestrian Detection using
LiDAR Point Cloud and Semantic Segmentation [4.350338899049983]
我々は、異なるレベルで融合を適用できるように、PointPaintingの一般化を提案する。
本研究では,セマンティックボクセルが3次元および鳥の視線歩行者検出ベンチマークにおいて,最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2020-09-25T14:52:32Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z) - Stereo RGB and Deeper LIDAR Based Network for 3D Object Detection [40.34710686994996]
3Dオブジェクト検出は、自動運転のシナリオにおいて新たな課題となっている。
以前の作業では、プロジェクションベースまたはボクセルベースのモデルを使用して3Dポイントクラウドを処理していた。
本稿では,意味情報と空間情報の同時利用が可能なStereo RGBおよびDeeper LIDARフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-09T11:19:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。