論文の概要: Detecting and Mapping Trees in Unstructured Environments with a Stereo
Camera and Pseudo-Lidar
- arxiv url: http://arxiv.org/abs/2103.15967v1
- Date: Mon, 29 Mar 2021 21:46:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-01 05:52:12.389440
- Title: Detecting and Mapping Trees in Unstructured Environments with a Stereo
Camera and Pseudo-Lidar
- Title(参考訳): ステレオカメラと擬似ライダーを用いた非構造環境木の検出とマッピング
- Authors: Brian H. Wang, Carlos Diaz-Ruiz, Jacopo Banfi, and Mark Campbell
- Abstract要約: ノイズの多いステレオカメラ点群における樹木の検出とマッピング方法を提案する。
近年の3次元物体検出の進歩に触発されて,pointrcnn検出器を訓練し,森林環境の樹木を認識する。
その結果,Stereolabs ZED 2カメラの720p解像度画像上で,ノイズの多いステレオデータにおいて,木認識の堅牢性を示した。
- 参考スコア(独自算出の注目度): 3.9243546740194586
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a method for detecting and mapping trees in noisy stereo camera
point clouds, using a learned 3-D object detector. Inspired by recent
advancements in 3-D object detection using a pseudo-lidar representation for
stereo data, we train a PointRCNN detector to recognize trees in forest-like
environments. We generate detector training data with a novel automatic
labeling process that clusters a fused global point cloud. This process
annotates large stereo point cloud training data sets with minimal user
supervision, and unlike previous pseudo-lidar detection pipelines, requires no
3-D ground truth from other sensors such as lidar. Our mapping system
additionally uses a Kalman filter to associate detections and consistently
estimate the positions and sizes of trees. We collect a data set for tree
detection consisting of 8680 stereo point clouds, and validate our method on an
outdoors test sequence. Our results demonstrate robust tree recognition in
noisy stereo data at ranges of up to 7 meters, on 720p resolution images from a
Stereolabs ZED 2 camera. Code and data are available at
https://github.com/brian-h-wang/pseudolidar-tree-detection.
- Abstract(参考訳): 本研究では,3次元物体検出装置を用いて,ノイズの多いステレオカメラ点群における木の検出とマッピングを行う。
ステレオデータに擬似ライダー表現を用いた3次元物体検出の最近の進歩に触発されて,森林のような環境下で木を認識するためにPointRCNN検出器を訓練した。
我々は、融合したグローバルポイントクラウドをクラスタリングする新しい自動ラベリングプロセスを用いて、検出器トレーニングデータを生成する。
このプロセスは、ユーザー監督を最小限にした大規模なステレオポイントクラウドトレーニングデータセットに注釈を付け、従来の擬似ライダー検出パイプラインとは異なり、ライダーのような他のセンサーから3次元の真実を要求されない。
我々のマッピングシステムは、カルマンフィルタを用いて検出を関連付け、木の位置と大きさを一貫して推定する。
8680個のステレオ点雲からなる木検出用データセットを収集し,屋外試験シーケンスで検証した。
本研究では,ステレオラブzed 2カメラの720p解像度画像から,最大7mの範囲のノイズステレオデータにおいてロバストなツリー認識を示す。
コードとデータはhttps://github.com/brian-h-wang/pseudolidar-tree-detectionで入手できる。
関連論文リスト
- Lightweight Multi-Drone Detection and 3D-Localization via YOLO [1.284647943889634]
本稿では,実時間複数ドローン検出と3次元位置推定を行う手法を提案し,評価する。
我々は最先端の小さなYOLOv4オブジェクト検出アルゴリズムとステレオ三角測量を用いる。
我々のコンピュータビジョンアプローチは、計算コストのかかるステレオマッチングアルゴリズムを不要にする。
論文 参考訳(メタデータ) (2022-02-18T09:41:23Z) - LIGA-Stereo: Learning LiDAR Geometry Aware Representations for
Stereo-based 3D Detector [80.7563981951707]
本稿では,LIGA-Stereoによるステレオ3次元検出器の学習について,LiDARに基づく検出モデルの高レベルな幾何認識表現の指導の下で提案する。
現状のステレオ検出器と比較して,車,歩行者,サイクリストの3次元検出性能は,それぞれ10.44%,5.69%,5.97%向上した。
論文 参考訳(メタデータ) (2021-08-18T17:24:40Z) - Anchor-free 3D Single Stage Detector with Mask-Guided Attention for
Point Cloud [79.39041453836793]
我々は、点雲をアンカーフリーで検出する新しい1段3次元検出器を開発した。
ボクセルをベースとしたスパース3D特徴量からスパース2D特徴量マップに変換することでこれを克服する。
検出信頼度スコアとバウンディングボックス回帰の精度との相関性を改善するために,IoUに基づく検出信頼度再校正手法を提案する。
論文 参考訳(メタデータ) (2021-08-08T13:42:13Z) - ST3D: Self-training for Unsupervised Domain Adaptation on 3D
ObjectDetection [78.71826145162092]
点雲からの3次元物体検出における教師なし領域適応のための新しい領域適応型自己学習パイプラインST3Dを提案する。
当社のST3Dは、評価されたすべてのデータセットで最先端のパフォーマンスを達成し、KITTI 3Dオブジェクト検出ベンチマークで完全に監視された結果を超えます。
論文 参考訳(メタデータ) (2021-03-09T10:51:24Z) - Dynamic Edge Weights in Graph Neural Networks for 3D Object Detection [0.0]
本稿では,LiDARスキャンにおける物体検出のためのグラフニューラルネットワーク(GNN)における注目に基づく特徴集約手法を提案する。
GNNの各層では、ノードごとの入力特徴を対応する上位特徴にマッピングする線形変換とは別に、ノードごとの注意を隠蔽する。
KITTIデータセットを用いた実験により,本手法は3次元物体検出に匹敵する結果が得られることが示された。
論文 参考訳(メタデータ) (2020-09-17T12:56:17Z) - Expandable YOLO: 3D Object Detection from RGB-D Images [64.14512458954344]
本稿では,ステレオカメラから深度とカラー画像を入力する軽量物体検出器の構築を目的とする。
YOLOv3のネットワークアーキテクチャを中央から3Dに拡張することにより、深さ方向の出力が可能となる。
領域抽出結果の精度を確認するため、3次元空間におけるユニノン(IoU)の切断を導入する。
論文 参考訳(メタデータ) (2020-06-26T07:32:30Z) - Stereo RGB and Deeper LIDAR Based Network for 3D Object Detection [40.34710686994996]
3Dオブジェクト検出は、自動運転のシナリオにおいて新たな課題となっている。
以前の作業では、プロジェクションベースまたはボクセルベースのモデルを使用して3Dポイントクラウドを処理していた。
本稿では,意味情報と空間情報の同時利用が可能なStereo RGBおよびDeeper LIDARフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-09T11:19:24Z) - 3D Object Detection Method Based on YOLO and K-Means for Image and Point
Clouds [1.9458156037869139]
ライダーに基づく3Dオブジェクト検出と分類タスクは、自動運転に不可欠である。
本稿では,点雲と画像に基づく3次元物体検出手法を提案する。
論文 参考訳(メタデータ) (2020-04-21T04:32:36Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z) - DSGN: Deep Stereo Geometry Network for 3D Object Detection [79.16397166985706]
画像ベースとLiDARベースの3Dオブジェクト検出器の間には大きなパフォーマンスギャップがある。
我々の手法であるDeep Stereo Geometry Network (DSGN)は,このギャップを著しく低減する。
初めて、シンプルで効果的な1段ステレオベースの3D検出パイプラインを提供する。
論文 参考訳(メタデータ) (2020-01-10T11:44:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。