論文の概要: Lidar-Monocular Surface Reconstruction Using Line Segments
- arxiv url: http://arxiv.org/abs/2104.02761v1
- Date: Tue, 6 Apr 2021 19:49:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 12:54:40.509623
- Title: Lidar-Monocular Surface Reconstruction Using Line Segments
- Title(参考訳): 線分を用いたライダー・モノクル表面の再構成
- Authors: Victor Amblard, Timothy P. Osedach, Arnaud Croux, Andrew Speck and
John J. Leonard
- Abstract要約: LIDARスキャンと画像データの両方で検出される一般的な幾何学的特徴を利用して、2つのセンサからのデータを高レベル空間で処理することを提案する。
提案手法は, 高精度な地中真理推定を必要とせず, 最先端のLIDARサーベイに匹敵する結果が得られることを示す。
- 参考スコア(独自算出の注目度): 5.542669744873386
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Structure from Motion (SfM) often fails to estimate accurate poses in
environments that lack suitable visual features. In such cases, the quality of
the final 3D mesh, which is contingent on the accuracy of those estimates, is
reduced. One way to overcome this problem is to combine data from a monocular
camera with that of a LIDAR. This allows fine details and texture to be
captured while still accurately representing featureless subjects. However,
fusing these two sensor modalities is challenging due to their fundamentally
different characteristics. Rather than directly fusing image features and LIDAR
points, we propose to leverage common geometric features that are detected in
both the LIDAR scans and image data, allowing data from the two sensors to be
processed in a higher-level space. In particular, we propose to find
correspondences between 3D lines extracted from LIDAR scans and 2D lines
detected in images before performing a bundle adjustment to refine poses. We
also exploit the detected and optimized line segments to improve the quality of
the final mesh. We test our approach on the recently published dataset, Newer
College Dataset. We compare the accuracy and the completeness of the 3D mesh to
a ground truth obtained with a survey-grade 3D scanner. We show that our method
delivers results that are comparable to a state-of-the-art LIDAR survey while
not requiring highly accurate ground truth pose estimates.
- Abstract(参考訳): Structure from Motion (SfM) はしばしば、適切な視覚的特徴を持たない環境での正確なポーズを見積もることに失敗する。
このような場合、これらの推定の精度に起因した最終3dメッシュの品質が低下する。
この問題を解決する一つの方法は、単眼カメラとLIDARのデータを組み合わせることである。
これにより、機能のない被験者を正確に表現しながら、詳細なディテールとテクスチャをキャプチャできる。
しかし,これら2つのセンサモードの融合は,その特性が根本的に異なるため困難である。
画像特徴とLIDAR点を直接融合させるのではなく、LIDARスキャンと画像データの両方で検出される一般的な幾何学的特徴を活用し、2つのセンサからのデータを高次空間で処理できるようにする。
特に,LIDARスキャンから抽出した3次元線と画像から検出した2次元線との対応関係について検討した。
また、検出および最適化された線分を利用して最終メッシュの品質を向上させる。
最近公開されたデータセットであるNewer College Datasetで、我々のアプローチをテストする。
本研究では,3Dメッシュの精度と完全度を,サーベイグレードの3Dスキャナーを用いて得られた真実と比較した。
提案手法は,高精度な地中真理推定を必要とせず,最先端のLIDARサーベイに匹敵する結果が得られることを示す。
関連論文リスト
- 3D Semantic Segmentation-Driven Representations for 3D Object Detection [0.9790236766474201]
自動運転において、3D検出は、経路計画や動き推定など、下流のタスクにより正確な情報を提供する。
提案したマルチモーダル3Dオブジェクト検出は,画像から得られる意味的特徴と点雲から得られる幾何学的特徴を組み合わせたものである。
我々は,既存のLiDARのみに基づく3D検出の十分な意味情報を確保するためのプレゼンテーションとして,ポイントワイズ・セマンティック機能であるSeSameを提案する。
論文 参考訳(メタデータ) (2024-03-11T08:17:56Z) - 3DiffTection: 3D Object Detection with Geometry-Aware Diffusion Features [70.50665869806188]
3DiffTectionは、単一の画像から3Dオブジェクトを検出する最先端の方法である。
拡散モデルを微調整し、単一の画像に条件付けされた新しいビュー合成を行う。
さらに、検出監視により、ターゲットデータ上でモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-11-07T23:46:41Z) - Semantics-aware LiDAR-Only Pseudo Point Cloud Generation for 3D Object
Detection [0.7234862895932991]
近年の進歩は擬似LiDAR、すなわち合成高密度点雲を導入し、カメラなどの追加のモダリティを使って3Dオブジェクト検出を強化している。
我々は,LiDARセンサとシーンセマンティクスに頼って,密度の高い擬似点雲で生スキャンを増強する,新しいLiDAR専用フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-16T09:18:47Z) - LiDAR-CS Dataset: LiDAR Point Cloud Dataset with Cross-Sensors for 3D
Object Detection [36.77084564823707]
ディープラーニングの手法は注釈付きデータに大きく依存しており、ドメインの一般化の問題に直面することが多い。
LiDAR-CSデータセットは、リアルタイムトラフィックにおける3Dオブジェクト検出の領域におけるセンサ関連ギャップに対処する最初のデータセットである。
論文 参考訳(メタデータ) (2023-01-29T19:10:35Z) - Homography Loss for Monocular 3D Object Detection [54.04870007473932]
ホログラフィーロス(Homography Loss)と呼ばれる,2次元情報と3次元情報の両方を利用する識別可能なロス関数を提案する。
提案手法は,KITTI 3Dデータセットにおいて,他の最先端技術と比較して高い性能を示す。
論文 参考訳(メタデータ) (2022-04-02T03:48:03Z) - MonoDistill: Learning Spatial Features for Monocular 3D Object Detection [80.74622486604886]
本稿では,LiDAR信号からの空間情報を単分子3D検出器に導入するための簡易かつ効果的な手法を提案する。
得られたデータを用いて、ベースラインモデルと同じアーキテクチャで3D検出器をトレーニングする。
実験の結果,提案手法はベースラインモデルの性能を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-01-26T09:21:41Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - Is Pseudo-Lidar needed for Monocular 3D Object detection? [32.772699246216774]
我々は,擬似ライダー法のような深度事前学習の恩恵を受けることができるエンド・ツー・エンドの単分子3次元物体検出器DD3Dを提案する。
我々のアーキテクチャは、深度推定と3次元検出の効果的な情報伝達のために設計されており、ラベルなし事前学習データの量でスケールすることができる。
論文 参考訳(メタデータ) (2021-08-13T22:22:51Z) - Uncertainty-Aware Camera Pose Estimation from Points and Lines [101.03675842534415]
Perspective-n-Point-and-Line (Pn$PL) は、2D-3D特徴座標の3Dモデルに関して、高速で正確で堅牢なカメラローカライゼーションを目指している。
論文 参考訳(メタデータ) (2021-07-08T15:19:36Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - Monocular Camera Localization in Prior LiDAR Maps with 2D-3D Line
Correspondences [16.34334330572825]
直接2D-3D線対応を用いた先行LiDARマップにおける一眼レフカメラの効率的な位置推定法を提案する。
VIOからのポーズ予測により、粗い2D-3D線対応を効率的に得ることができる。
提案手法は, ドリフトを蓄積することなく, カメラのポーズを効率的に推定できる。
論文 参考訳(メタデータ) (2020-04-01T23:36:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。