論文の概要: Sparse LiDAR and Stereo Fusion (SLS-Fusion) for Depth Estimationand 3D
Object Detection
- arxiv url: http://arxiv.org/abs/2103.03977v1
- Date: Fri, 5 Mar 2021 23:10:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-10 03:53:32.460399
- Title: Sparse LiDAR and Stereo Fusion (SLS-Fusion) for Depth Estimationand 3D
Object Detection
- Title(参考訳): 深さ推定と3次元物体検出のためのスパースLiDARとステレオ融合(SLS-Fusion)
- Authors: Nguyen Anh Minh Mai, Pierre Duthon, Louahdi Khoudour, Alain Crouzil,
Sergio A. Velastin
- Abstract要約: SLS-Fusionは、深度推定のためにニューラルネットワークを介して4ビームLiDARとステレオカメラからデータを融合する新しいアプローチです。
4ビームのLiDARは64ビームのLiDARよりも安価であるため、この手法は低コストのセンサベース手法に分類される。
- 参考スコア(独自算出の注目度): 3.5488685789514736
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability to accurately detect and localize objects is recognized as being
the most important for the perception of self-driving cars. From 2D to 3D
object detection, the most difficult is to determine the distance from the
ego-vehicle to objects. Expensive technology like LiDAR can provide a precise
and accurate depth information, so most studies have tended to focus on this
sensor showing a performance gap between LiDAR-based methods and camera-based
methods. Although many authors have investigated how to fuse LiDAR with RGB
cameras, as far as we know there are no studies to fuse LiDAR and stereo in a
deep neural network for the 3D object detection task. This paper presents
SLS-Fusion, a new approach to fuse data from 4-beam LiDAR and a stereo camera
via a neural network for depth estimation to achieve better dense depth maps
and thereby improves 3D object detection performance. Since 4-beam LiDAR is
cheaper than the well-known 64-beam LiDAR, this approach is also classified as
a low-cost sensors-based method. Through evaluation on the KITTI benchmark, it
is shown that the proposed method significantly improves depth estimation
performance compared to a baseline method. Also, when applying it to 3D object
detection, a new state of the art on low-cost sensor based method is achieved.
- Abstract(参考訳): オブジェクトを正確に検出し、ローカライズする能力は、自動運転車の認識にとって最も重要であると認識されています。
2Dから3Dの物体検出まで、最も難しいのは、自我から物体までの距離を決定することです。
LiDARのような高価な技術は正確な深度情報を提供するので、ほとんどの研究はLiDARベースの方法とカメラベースの方法の間にパフォーマンスのギャップを示すこのセンサーに焦点を当てる傾向にある。
多くの研究者が、RGBカメラでLiDARを融合する方法を研究しているが、3Dオブジェクト検出タスクのためのディープニューラルネットワークにLiDARとステレオを融合させる研究はない。
SLS-Fusionは、4ビームLiDARとステレオカメラからのデータをニューラルネットワークで融合して深度推定を行い、より高密度な深度マップを実現し、3次元物体検出性能を向上させる。
4ビームのLiDARは64ビームのLiDARよりも安価であるため、この手法は低コストのセンサベース手法に分類される。
提案手法は, KITTI ベンチマークによる評価により, ベースライン法と比較して, 深度推定性能を著しく向上することを示した。
また、これを3次元物体検出に適用する場合、低コストのセンサベース手法による新しい技術の現状が達成される。
関連論文リスト
- SimpleBEV: Improved LiDAR-Camera Fusion Architecture for 3D Object Detection [15.551625571158056]
高精度な3次元物体検出のためのLiDARカメラ融合フレームワークSimpleBEVを提案する。
提案手法は, nuScenesデータセット上で77.6%のNDS精度を実現し, 3次元物体検出トラックにおける優れた性能を示す。
論文 参考訳(メタデータ) (2024-11-08T02:51:39Z) - Sparse Points to Dense Clouds: Enhancing 3D Detection with Limited LiDAR Data [68.18735997052265]
単分子と点雲に基づく3次元検出の利点を組み合わせたバランスの取れたアプローチを提案する。
本手法では,低コストで低解像度のセンサから得られる3Dポイントを少数必要としている。
3次元検出の精度は最先端の単分子検出法と比較して20%向上する。
論文 参考訳(メタデータ) (2024-04-10T03:54:53Z) - MonoDistill: Learning Spatial Features for Monocular 3D Object Detection [80.74622486604886]
本稿では,LiDAR信号からの空間情報を単分子3D検出器に導入するための簡易かつ効果的な手法を提案する。
得られたデータを用いて、ベースラインモデルと同じアーキテクチャで3D検出器をトレーニングする。
実験の結果,提案手法はベースラインモデルの性能を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-01-26T09:21:41Z) - SIDE: Center-based Stereo 3D Detector with Structure-aware Instance
Depth Estimation [11.169586369931803]
構造認識型立体3D検出器(SIDE)と呼ばれる立体像に基づくアンカーフリー3D検出法を提案する。
各オブジェクトのRoIからコストボリュームを構築することで,インスタンスレベルの深度情報を探索する。
本手法は, 深度マップ管理のない既存手法と比較して, 最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-08-22T08:09:38Z) - LIGA-Stereo: Learning LiDAR Geometry Aware Representations for
Stereo-based 3D Detector [80.7563981951707]
本稿では,LIGA-Stereoによるステレオ3次元検出器の学習について,LiDARに基づく検出モデルの高レベルな幾何認識表現の指導の下で提案する。
現状のステレオ検出器と比較して,車,歩行者,サイクリストの3次元検出性能は,それぞれ10.44%,5.69%,5.97%向上した。
論文 参考訳(メタデータ) (2021-08-18T17:24:40Z) - CFTrack: Center-based Radar and Camera Fusion for 3D Multi-Object
Tracking [9.62721286522053]
本稿では,レーダとカメラセンサの融合に基づく共同物体検出と追跡のためのエンドツーエンドネットワークを提案する。
提案手法では,物体検出に中心型レーダカメラ融合アルゴリズムを用い,物体関連にグリーディアルゴリズムを用いる。
提案手法は,20.0AMOTAを達成し,ベンチマークにおける視覚ベースの3Dトラッキング手法よりも優れる,挑戦的なnuScenesデータセット上で評価する。
論文 参考訳(メタデータ) (2021-07-11T23:56:53Z) - 3D Vehicle Detection Using Camera and Low-Resolution LiDAR [6.293059137498174]
低解像度LiDARと単眼カメラを用いたバードアイビュー(BEV)における3次元物体検出のための新しいフレームワークを提案する。
低解像度のLiDARポイントクラウドと単眼像を入力として、深度補完ネットワークは高密度なポイントクラウドを生成できます。
容易かつ適度なケースでは、検出結果は64ライン高精細lidarと同等である。
論文 参考訳(メタデータ) (2021-05-04T21:08:20Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - End-to-End Pseudo-LiDAR for Image-Based 3D Object Detection [62.34374949726333]
擬似LiDAR(PL)は、LiDARセンサに基づく手法と安価なステレオカメラに基づく手法の精度ギャップを劇的に減らした。
PLは最先端のディープニューラルネットワークと2D深度マップ出力を3Dポイントクラウド入力に変換することで3Dオブジェクト検出のための3D深度推定を組み合わせている。
我々は、PLパイプライン全体をエンドツーエンドにトレーニングできるように、差別化可能なRepresentation (CoR)モジュールに基づく新しいフレームワークを導入します。
論文 参考訳(メタデータ) (2020-04-07T02:18:38Z) - DSGN: Deep Stereo Geometry Network for 3D Object Detection [79.16397166985706]
画像ベースとLiDARベースの3Dオブジェクト検出器の間には大きなパフォーマンスギャップがある。
我々の手法であるDeep Stereo Geometry Network (DSGN)は,このギャップを著しく低減する。
初めて、シンプルで効果的な1段ステレオベースの3D検出パイプラインを提供する。
論文 参考訳(メタデータ) (2020-01-10T11:44:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。