論文の概要: LiDAR guided Small obstacle Segmentation
- arxiv url: http://arxiv.org/abs/2003.05970v1
- Date: Thu, 12 Mar 2020 18:34:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 15:33:51.030977
- Title: LiDAR guided Small obstacle Segmentation
- Title(参考訳): LiDARガイドによる小型障害物セグメンテーション
- Authors: Aasheesh Singh, Aditya Kamireddypalli, Vineet Gandhi, K Madhava
Krishna
- Abstract要約: 道路上の小さな障害物は自動運転に不可欠である。
スパースLiDARとモノクルビジョンのマルチモーダルフレームワークを用いて,そのような障害を確実に検出する手法を提案する。
コンテキストをモノケプティックなセマンティックセグメンテーションフレームワークに追加入力として入力すると、性能が大幅に向上することを示す。
- 参考スコア(独自算出の注目度): 14.880698940693609
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Detecting small obstacles on the road is critical for autonomous driving. In
this paper, we present a method to reliably detect such obstacles through a
multi-modal framework of sparse LiDAR(VLP-16) and Monocular vision. LiDAR is
employed to provide additional context in the form of confidence maps to
monocular segmentation networks. We show significant performance gains when the
context is fed as an additional input to monocular semantic segmentation
frameworks. We further present a new semantic segmentation dataset to the
community, comprising of over 3000 image frames with corresponding LiDAR
observations. The images come with pixel-wise annotations of three classes
off-road, road, and small obstacle. We stress that precise calibration between
LiDAR and camera is crucial for this task and thus propose a novel Hausdorff
distance based calibration refinement method over extrinsic parameters. As a
first benchmark over this dataset, we report our results with 73% instance
detection up to a distance of 50 meters on challenging scenarios. Qualitatively
by showcasing accurate segmentation of obstacles less than 15 cms at 50m depth
and quantitatively through favourable comparisons vis a vis prior art, we
vindicate the method's efficacy. Our project-page and Dataset is hosted at
https://small-obstacle-dataset.github.io/
- Abstract(参考訳): 道路上の小さな障害物を検出することは、自動運転には不可欠である。
本稿では,スパースLiDAR(VLP-16)とモノクルビジョンの多モードフレームワークを用いて,そのような障害を確実に検出する手法を提案する。
LiDARは、単分子セグメンテーションネットワークへの信頼マップという形で追加のコンテキストを提供するために使用される。
モノクロセマンティクスセグメンテーションフレームワークへの追加入力としてコンテキストが供給されると、パフォーマンスが大幅に向上します。
さらに,3,000以上の画像フレームと対応するlidar観測からなる,新たな意味セグメンテーションデータセットをコミュニティに提示する。
画像には、オフロード、道路、小さな障害物の3つのクラスのピクセル単位のアノテーションが付属している。
そこで本研究では,lidarとカメラの高精度キャリブレーションが重要であることを強調し,遠距離パラメータを用いた新しいハウスドルフ距離に基づくキャリブレーション手法を提案する。
このデータセットに対する最初のベンチマークとして、挑戦的なシナリオで、50メートルまでのインスタンス検出で73%の結果を報告します。
また,50mの深さで15cm未満の障害物の正確なセグメンテーションを定量的に示し,その効果を定量的に比較することにより,本手法の有効性を検証した。
私たちのプロジェクトページとDatasetはhttps://small-obstacle-dataset.github.io/でホストされています。
関連論文リスト
- Few-shot Semantic Learning for Robust Multi-Biome 3D Semantic Mapping in Off-Road Environments [4.106846770364469]
オフロード環境は、高速自律航法において重要な認識課題をもたらす。
本稿では,500枚の画像,スパース,粗いラベル付き(30%ピクセル)マルチバイオームデータセットを微調整し,事前学習したビジョントランスフォーマー(ViT)を活用するアプローチを提案する。
これらのクラスは、新しいレンジベースの計量によって時間とともに融合され、3Dセマンティックなボクセルマップに集約される。
論文 参考訳(メタデータ) (2024-11-10T23:52:24Z) - Reflectivity Is All You Need!: Advancing LiDAR Semantic Segmentation [11.684330305297523]
本稿では,LiDARセマンティックセマンティックセグメンテーションフレームワークにおける校正強度(リフレクティビティとも呼ばれる)の利点について検討する。
オフロードシナリオでは,反射率による強度の置き換えにより,Unionよりも平均的なインターセクションが4%向上することを示す。
都市環境におけるセマンティックセグメンテーションにおけるキャリブレーション強度の利用の可能性を示す。
論文 参考訳(メタデータ) (2024-03-19T22:57:03Z) - LIP-Loc: LiDAR Image Pretraining for Cross-Modal Localization [0.9562145896371785]
本研究では,2次元画像領域と3次元LiDAR点の領域にコントラスト言語-画像事前学習を適用した。
提案手法は,視点画像のみを用いて,KITTI-360データセットの最先端リコール@1精度を22.4%向上させる。
また、モデルのゼロショット能力を実証し、トレーニングもせずにSOTAを8%上回りました。
論文 参考訳(メタデータ) (2023-12-27T17:23:57Z) - Metric3D: Towards Zero-shot Metric 3D Prediction from A Single Image [85.91935485902708]
ゼロショット単視距離深度モデルの鍵は、大規模データトレーニングと様々なカメラモデルからの距離あいまいさの解消の組合せにあることを示す。
本稿では,あいまいさ問題に明示的に対処し,既存の単分子モデルにシームレスに接続可能な標準カメラ空間変換モジュールを提案する。
本手法は, ランダムに収集したインターネット画像上での計測3次元構造の正確な復元を可能にする。
論文 参考訳(メタデータ) (2023-07-20T16:14:23Z) - Rethinking Range View Representation for LiDAR Segmentation [66.73116059734788]
「多対一」マッピング、意味的不整合、形状変形は、射程射影からの効果的な学習に対する障害となる可能性がある。
RangeFormerは、ネットワークアーキテクチャ、データ拡張、後処理を含む新しい設計を含む、フルサイクルのフレームワークである。
比較対象のLiDARセマンティックスとパノプティックスセグメンテーションのベンチマークにおいて,初めてレンジビュー法が点,ボクセル,マルチビューフュージョンを越えられることを示す。
論文 参考訳(メタデータ) (2023-03-09T16:13:27Z) - Benchmarking the Robustness of LiDAR Semantic Segmentation Models [78.6597530416523]
本稿では,LiDARセマンティックセグメンテーションモデルのロバスト性を,様々な汚職の下で包括的に解析することを目的とする。
本稿では,悪天候,計測ノイズ,デバイス間不一致という3つのグループで16のドメイン外LiDAR破損を特徴とするSemanticKITTI-Cというベンチマークを提案する。
我々は、単純だが効果的な修正によってロバスト性を大幅に向上させるロバストLiDARセグメンテーションモデル(RLSeg)を設計する。
論文 参考訳(メタデータ) (2023-01-03T06:47:31Z) - Boosting 3D Object Detection by Simulating Multimodality on Point Clouds [51.87740119160152]
本稿では,LiDAR 画像検出器に追従する特徴や応答をシミュレートすることで,単一モダリティ (LiDAR) 3次元物体検出器を高速化する新しい手法を提案する。
このアプローチでは、単一モダリティ検出器をトレーニングする場合のみ、LiDARイメージデータを必要とし、十分にトレーニングされた場合には、推論時にのみLiDARデータが必要である。
nuScenesデータセットの実験結果から,本手法はSOTA LiDARのみの3D検出器よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-06-30T01:44:30Z) - Drive&Segment: Unsupervised Semantic Segmentation of Urban Scenes via
Cross-modal Distillation [32.33170182669095]
本研究は,自動車が収集した生の非キュレートデータからのみ,手動のアノテーションを使わずに,都市景観における画素単位のセマンティックイメージのセマンティックセマンティックセマンティクスの学習について検討する。
本稿では,同期化LiDARと画像データを利用した意味的イメージセグメンテーションのクロスモーダルな教師なし学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-21T17:35:46Z) - Highly Accurate Dichotomous Image Segmentation [139.79513044546]
Dichotomous Image segmentation (DIS)と呼ばれる新しいタスクは、自然画像から高度に正確な物体を抽出することを目的としている。
私たちは、5,470の高解像度画像(例えば、2K、4K以上の画像)を含む最初の大規模データセットdis5Kを収集します。
また、Disdisモデルトレーニングのための特徴レベルとマスクレベルの両方のガイダンスを用いて、単純な中間監視ベースライン(IS-Net)を導入する。
論文 参考訳(メタデータ) (2022-03-06T20:09:19Z) - Progressive Coordinate Transforms for Monocular 3D Object Detection [52.00071336733109]
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
論文 参考訳(メタデータ) (2021-08-12T15:22:33Z) - SemanticVoxels: Sequential Fusion for 3D Pedestrian Detection using
LiDAR Point Cloud and Semantic Segmentation [4.350338899049983]
我々は、異なるレベルで融合を適用できるように、PointPaintingの一般化を提案する。
本研究では,セマンティックボクセルが3次元および鳥の視線歩行者検出ベンチマークにおいて,最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2020-09-25T14:52:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。