論文の概要: Lidar-Monocular Surface Reconstruction Using Line Segments
- arxiv url: http://arxiv.org/abs/2104.02761v1
- Date: Tue, 6 Apr 2021 19:49:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 12:54:40.509623
- Title: Lidar-Monocular Surface Reconstruction Using Line Segments
- Title(参考訳): 線分を用いたライダー・モノクル表面の再構成
- Authors: Victor Amblard, Timothy P. Osedach, Arnaud Croux, Andrew Speck and
John J. Leonard
- Abstract要約: LIDARスキャンと画像データの両方で検出される一般的な幾何学的特徴を利用して、2つのセンサからのデータを高レベル空間で処理することを提案する。
提案手法は, 高精度な地中真理推定を必要とせず, 最先端のLIDARサーベイに匹敵する結果が得られることを示す。
- 参考スコア(独自算出の注目度): 5.542669744873386
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Structure from Motion (SfM) often fails to estimate accurate poses in
environments that lack suitable visual features. In such cases, the quality of
the final 3D mesh, which is contingent on the accuracy of those estimates, is
reduced. One way to overcome this problem is to combine data from a monocular
camera with that of a LIDAR. This allows fine details and texture to be
captured while still accurately representing featureless subjects. However,
fusing these two sensor modalities is challenging due to their fundamentally
different characteristics. Rather than directly fusing image features and LIDAR
points, we propose to leverage common geometric features that are detected in
both the LIDAR scans and image data, allowing data from the two sensors to be
processed in a higher-level space. In particular, we propose to find
correspondences between 3D lines extracted from LIDAR scans and 2D lines
detected in images before performing a bundle adjustment to refine poses. We
also exploit the detected and optimized line segments to improve the quality of
the final mesh. We test our approach on the recently published dataset, Newer
College Dataset. We compare the accuracy and the completeness of the 3D mesh to
a ground truth obtained with a survey-grade 3D scanner. We show that our method
delivers results that are comparable to a state-of-the-art LIDAR survey while
not requiring highly accurate ground truth pose estimates.
- Abstract(参考訳): Structure from Motion (SfM) はしばしば、適切な視覚的特徴を持たない環境での正確なポーズを見積もることに失敗する。
このような場合、これらの推定の精度に起因した最終3dメッシュの品質が低下する。
この問題を解決する一つの方法は、単眼カメラとLIDARのデータを組み合わせることである。
これにより、機能のない被験者を正確に表現しながら、詳細なディテールとテクスチャをキャプチャできる。
しかし,これら2つのセンサモードの融合は,その特性が根本的に異なるため困難である。
画像特徴とLIDAR点を直接融合させるのではなく、LIDARスキャンと画像データの両方で検出される一般的な幾何学的特徴を活用し、2つのセンサからのデータを高次空間で処理できるようにする。
特に,LIDARスキャンから抽出した3次元線と画像から検出した2次元線との対応関係について検討した。
また、検出および最適化された線分を利用して最終メッシュの品質を向上させる。
最近公開されたデータセットであるNewer College Datasetで、我々のアプローチをテストする。
本研究では,3Dメッシュの精度と完全度を,サーベイグレードの3Dスキャナーを用いて得られた真実と比較した。
提案手法は,高精度な地中真理推定を必要とせず,最先端のLIDARサーベイに匹敵する結果が得られることを示す。
関連論文リスト
- Approaching Outside: Scaling Unsupervised 3D Object Detection from 2D Scene [22.297964850282177]
教師なし3次元検出のためのLiDAR-2D Self-paced Learning (LiSe)を提案する。
RGB画像は、正確な2Dローカライゼーションキューを提供するLiDARデータの貴重な補完となる。
本フレームワークでは,適応型サンプリングと弱いモデルアグリゲーション戦略を組み込んだ自己評価学習パイプラインを考案する。
論文 参考訳(メタデータ) (2024-07-11T14:58:49Z) - SplatPose & Detect: Pose-Agnostic 3D Anomaly Detection [18.796625355398252]
最先端のアルゴリズムは、ますます困難な設定やデータモダリティの欠陥を検出することができる。
本稿では,3次元ガウススプラッティングに基づくフレームワークSplatPoseを提案する。
競合手法に比べてトレーニングデータが少ない場合でも,トレーニング速度と推論速度,検出性能の両面で最先端の成果が得られている。
論文 参考訳(メタデータ) (2024-04-10T08:48:09Z) - 3DiffTection: 3D Object Detection with Geometry-Aware Diffusion Features [70.50665869806188]
3DiffTectionは、単一の画像から3Dオブジェクトを検出する最先端の方法である。
拡散モデルを微調整し、単一の画像に条件付けされた新しいビュー合成を行う。
さらに、検出監視により、ターゲットデータ上でモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-11-07T23:46:41Z) - Semantics-aware LiDAR-Only Pseudo Point Cloud Generation for 3D Object
Detection [0.7234862895932991]
近年の進歩は擬似LiDAR、すなわち合成高密度点雲を導入し、カメラなどの追加のモダリティを使って3Dオブジェクト検出を強化している。
我々は,LiDARセンサとシーンセマンティクスに頼って,密度の高い擬似点雲で生スキャンを増強する,新しいLiDAR専用フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-16T09:18:47Z) - LiDAR-CS Dataset: LiDAR Point Cloud Dataset with Cross-Sensors for 3D
Object Detection [36.77084564823707]
ディープラーニングの手法は注釈付きデータに大きく依存しており、ドメインの一般化の問題に直面することが多い。
LiDAR-CSデータセットは、リアルタイムトラフィックにおける3Dオブジェクト検出の領域におけるセンサ関連ギャップに対処する最初のデータセットである。
論文 参考訳(メタデータ) (2023-01-29T19:10:35Z) - Homography Loss for Monocular 3D Object Detection [54.04870007473932]
ホログラフィーロス(Homography Loss)と呼ばれる,2次元情報と3次元情報の両方を利用する識別可能なロス関数を提案する。
提案手法は,KITTI 3Dデータセットにおいて,他の最先端技術と比較して高い性能を示す。
論文 参考訳(メタデータ) (2022-04-02T03:48:03Z) - MonoDistill: Learning Spatial Features for Monocular 3D Object Detection [80.74622486604886]
本稿では,LiDAR信号からの空間情報を単分子3D検出器に導入するための簡易かつ効果的な手法を提案する。
得られたデータを用いて、ベースラインモデルと同じアーキテクチャで3D検出器をトレーニングする。
実験の結果,提案手法はベースラインモデルの性能を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-01-26T09:21:41Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - Uncertainty-Aware Camera Pose Estimation from Points and Lines [101.03675842534415]
Perspective-n-Point-and-Line (Pn$PL) は、2D-3D特徴座標の3Dモデルに関して、高速で正確で堅牢なカメラローカライゼーションを目指している。
論文 参考訳(メタデータ) (2021-07-08T15:19:36Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - Monocular Camera Localization in Prior LiDAR Maps with 2D-3D Line
Correspondences [16.34334330572825]
直接2D-3D線対応を用いた先行LiDARマップにおける一眼レフカメラの効率的な位置推定法を提案する。
VIOからのポーズ予測により、粗い2D-3D線対応を効率的に得ることができる。
提案手法は, ドリフトを蓄積することなく, カメラのポーズを効率的に推定できる。
論文 参考訳(メタデータ) (2020-04-01T23:36:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。