論文の概要: VIN: Voxel-based Implicit Network for Joint 3D Object Detection and
Segmentation for Lidars
- arxiv url: http://arxiv.org/abs/2107.02980v1
- Date: Wed, 7 Jul 2021 02:16:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-08 14:07:33.586062
- Title: VIN: Voxel-based Implicit Network for Joint 3D Object Detection and
Segmentation for Lidars
- Title(参考訳): VIN:Voxel-based Implicit Network for Joint 3D Object Detection and Segmentation for Lidars
- Authors: Yuanxin Zhong, Minghan Zhu, Huei Peng
- Abstract要約: 統合ニューラルネットワーク構造は、ジョイント3Dオブジェクト検出とポイントクラウドセグメンテーションのために提示される。
私たちは、検出ラベルとセグメンテーションラベルの両方からの豊富な監視を活用しています。
- 参考スコア(独自算出の注目度): 12.343333815270402
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A unified neural network structure is presented for joint 3D object detection
and point cloud segmentation in this paper. We leverage rich supervision from
both detection and segmentation labels rather than using just one of them. In
addition, an extension based on single-stage object detectors is proposed based
on the implicit function widely used in 3D scene and object understanding. The
extension branch takes the final feature map from the object detection module
as input, and produces an implicit function that generates semantic
distribution for each point for its corresponding voxel center. We demonstrated
the performance of our structure on nuScenes-lidarseg, a large-scale outdoor
dataset. Our solution achieves competitive results against state-of-the-art
methods in both 3D object detection and point cloud segmentation with little
additional computation load compared with object detection solutions. The
capability of efficient weakly supervision semantic segmentation of the
proposed method is also validated by experiments.
- Abstract(参考訳): 本稿では3次元物体検出と点雲分割のための統合ニューラルネットワーク構造について述べる。
私たちは、検出ラベルとセグメンテーションラベルの両方からの豊富な監視を活用しています。
さらに,3次元シーンで広く用いられている暗黙の関数とオブジェクト理解に基づいて,単段物体検出器に基づく拡張を提案する。
拡張ブランチは、オブジェクト検出モジュールからの最後の特徴マップを入力として、対応するvoxelセンターの各ポイントに対する意味分布を生成する暗黙の関数を生成する。
大規模な屋外データセットであるnuScenes-lidarseg上で,本構造の性能を実証した。
提案手法は,3dオブジェクト検出とポイントクラウドセグメンテーションの両方において,オブジェクト検出ソリューションに比べて計算負荷の少ない,最先端の手法と競合する結果を得る。
また,提案手法のセマンティックセグメンテーションを効果的に制御する能力についても実験により検証した。
関連論文リスト
- SPGroup3D: Superpoint Grouping Network for Indoor 3D Object Detection [23.208654655032955]
屋内シーンにおける現在の3Dオブジェクト検出手法は,主に投票・グループ化戦略に従って提案を行う。
屋内アンカーフリーワンステージ3次元物体検出のための新しいスーパーポイントグループネットワークを提案する。
実験により,ScanNet V2, SUN RGB-D, S3DISデータセット上での最先端性能を実証した。
論文 参考訳(メタデータ) (2023-12-21T08:08:02Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - 3DMODT: Attention-Guided Affinities for Joint Detection & Tracking in 3D
Point Clouds [95.54285993019843]
本稿では,3次元点雲における複数物体の同時検出と追跡手法を提案する。
本モデルでは,複数のフレームを用いた時間情報を利用してオブジェクトを検出し,一つのネットワーク上で追跡する。
論文 参考訳(メタデータ) (2022-11-01T20:59:38Z) - PSA-Det3D: Pillar Set Abstraction for 3D object Detection [14.788139868324155]
我々は,小物体の検出性能を向上させるために,柱集合抽象化(PSA)と前景点補償(FPC)を提案する。
KITTI 3D 検出ベンチマーク実験の結果,提案した PSA-Det3D は他のアルゴリズムよりも高い精度で小物体検出を行うことができた。
論文 参考訳(メタデータ) (2022-10-20T03:05:34Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - RBGNet: Ray-based Grouping for 3D Object Detection [104.98776095895641]
本稿では,点雲からの正確な3次元物体検出のための投票型3次元検出器RBGNetフレームワークを提案する。
決定された光線群を用いて物体表面上の点方向の特徴を集約する。
ScanNet V2 と SUN RGB-D による最先端の3D 検出性能を実現する。
論文 参考訳(メタデータ) (2022-04-05T14:42:57Z) - A Versatile Multi-View Framework for LiDAR-based 3D Object Detection
with Guidance from Panoptic Segmentation [9.513467995188634]
LiDARデータを用いた3Dオブジェクト検出は、自律運転システムにとって必須のコンポーネントである。
本稿では,3次元物体検出とパノプティックセグメンテーションを共同で行う新しいマルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-04T04:57:05Z) - SASA: Semantics-Augmented Set Abstraction for Point-based 3D Object
Detection [78.90102636266276]
SASA(Semantics-Augmented Set Abstraction)と呼ばれる新しい集合抽象化手法を提案する。
そこで本研究では, 推定点前景スコアに基づいて, より重要な前景点の維持を支援するセマンティックス誘導点サンプリングアルゴリズムを提案する。
実際には、SASAは、前景オブジェクトに関連する貴重な点を識別し、ポイントベースの3D検出のための特徴学習を改善するのに有効である。
論文 参考訳(メタデータ) (2022-01-06T08:54:47Z) - HVPR: Hybrid Voxel-Point Representation for Single-stage 3D Object
Detection [39.64891219500416]
3Dオブジェクト検出手法は、シーン内の3Dオブジェクトを表現するために、ボクセルベースまたはポイントベースの特徴を利用する。
本稿では,voxelベースとポイントベースの両方の特徴を有する,新しい単段3次元検出手法を提案する。
論文 参考訳(メタデータ) (2021-04-02T06:34:49Z) - Improving Point Cloud Semantic Segmentation by Learning 3D Object
Detection [102.62963605429508]
ポイントクラウドセマンティックセグメンテーションは、自動運転において重要な役割を果たす。
現在の3Dセマンティックセグメンテーションネットワークは、よく表現されたクラスに対して優れた性能を発揮する畳み込みアーキテクチャに焦点を当てている。
Aware 3D Semantic Detection (DASS) フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-22T14:17:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。