論文の概要: 3D Line Mapping Revisited
- arxiv url: http://arxiv.org/abs/2303.17504v1
- Date: Thu, 30 Mar 2023 16:14:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-31 12:52:21.234771
- Title: 3D Line Mapping Revisited
- Title(参考訳): 3d線マッピングの再訪
- Authors: Shaohui Liu, Yifan Yu, R\'emi Pautrat, Marc Pollefeys, Viktor Larsson
- Abstract要約: LIMAPは、3Dラインマッピングのためのライブラリで、多視点画像から3Dラインマップを堅牢かつ効率的に作成する。
私たちのコードは、既存のポイントベースのStructure-from-Motionメソッドとシームレスに統合されます。
私たちの堅牢な3Dラインマップは、新たな研究方向も開きます。
- 参考スコア(独自算出の注目度): 86.13455066577657
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In contrast to sparse keypoints, a handful of line segments can concisely
encode the high-level scene layout, as they often delineate the main structural
elements. In addition to offering strong geometric cues, they are also
omnipresent in urban landscapes and indoor scenes. Despite their apparent
advantages, current line-based reconstruction methods are far behind their
point-based counterparts. In this paper we aim to close the gap by introducing
LIMAP, a library for 3D line mapping that robustly and efficiently creates 3D
line maps from multi-view imagery. This is achieved through revisiting the
degeneracy problem of line triangulation, carefully crafted scoring and track
building, and exploiting structural priors such as line coincidence,
parallelism, and orthogonality. Our code integrates seamlessly with existing
point-based Structure-from-Motion methods and can leverage their 3D points to
further improve the line reconstruction. Furthermore, as a byproduct, the
method is able to recover 3D association graphs between lines and points /
vanishing points (VPs). In thorough experiments, we show that LIMAP
significantly outperforms existing approaches for 3D line mapping. Our robust
3D line maps also open up new research directions. We show two example
applications: visual localization and bundle adjustment, where integrating
lines alongside points yields the best results. Code is available at
https://github.com/cvg/limap.
- Abstract(参考訳): スパースキーポイントとは対照的に、少数の行セグメントは、しばしば主構造要素を記述するため、高レベルのシーンレイアウトを簡潔にエンコードすることができる。
厳密な幾何学的手がかりを提供するだけでなく、都市景観や屋内のシーンでも一様である。
明らかな利点にもかかわらず、現在のラインベースの再構築手法は、ポイントベースと比べればはるかに遅れている。
本稿では,多視点画像から3次元ラインマップを堅牢かつ効率的に作成する3次元ラインマッピングライブラリLIMAPを導入することにより,ギャップを埋めることを目的とする。
これは、ライン三角測量の縮退問題を再考し、スコアリングとトラックビルディングを慎重に作り、ライン偶然性、並列性、直交性といった構造的先行性を活用することで達成される。
提案手法は,既存手法とシームレスに統合し,その3dポイントを活用し,ライン再構築をさらに改善する。
さらに、副産物として、直線と点の間の3次元関連グラフを回収/消失点(vps)することができる。
詳細な実験により,limapが既存の3次元線マッピングのアプローチを大きく上回ることを示した。
私たちの堅牢な3Dラインマップは、新たな研究方向も開きます。
視覚的局所化とバンドル調整の2つの応用例を示す。
コードはhttps://github.com/cvg/limapで入手できる。
関連論文リスト
- 3D Neural Edge Reconstruction [61.10201396044153]
本研究では,線と曲線に焦点をあてて3次元エッジ表現を学習する新しい手法であるEMAPを紹介する。
多視点エッジマップから無符号距離関数(UDF)の3次元エッジ距離と方向を暗黙的に符号化する。
この神経表現の上に、推定されたエッジ点とその方向から3次元エッジを頑健に抽象化するエッジ抽出アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-29T17:23:51Z) - Fully Geometric Panoramic Localization [16.200889977514862]
本稿では,2次元3次元線の形状のみを利用する軽量かつ高精度な位置決め手法を提案する。
プレキャプチャされた3Dマップからパノラマ画像のローカライズを行う。
我々の完全に幾何学的なアプローチは、広範囲なパラメータチューニングやニューラルネットワークのトレーニングを伴わないため、現実の世界に容易に展開できる実用的なアルゴリズムです。
論文 参考訳(メタデータ) (2024-03-29T01:07:20Z) - Representing 3D sparse map points and lines for camera relocalization [1.2974519529978974]
軽量ニューラルネットワークが3Dポイントとラインの両方の特徴を表現するためにどのように学習できるかを示す。
テストにおいて,本手法は,最先端の学習手法に対する最も顕著な向上を図っている。
論文 参考訳(メタデータ) (2024-02-28T03:07:05Z) - LDL: Line Distance Functions for Panoramic Localization [22.46846444866008]
線分を用いた3次元地図にパノラマをローカライズするアルゴリズム LDL を導入する。
提案手法は,パノラマ画像と3次元地図内のラインの全体分布を効果的に観察する。
論文 参考訳(メタデータ) (2023-08-27T02:57:07Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - SketchSampler: Sketch-based 3D Reconstruction via View-dependent Depth
Sampling [75.957103837167]
1枚のスケッチ画像に基づいて3次元形状を再構成することは、スパースで不規則なスケッチと正規の高密度な3次元形状との間に大きな領域ギャップがあるため困難である。
既存の作品では、3D座標を直接予測するためにスケッチから抽出されたグローバルな特徴を活用しようとするが、通常は入力スケッチに忠実でない細部を失う。
論文 参考訳(メタデータ) (2022-08-14T16:37:51Z) - Neural 3D Scene Reconstruction with the Manhattan-world Assumption [58.90559966227361]
本稿では,多視点画像から3次元屋内シーンを再構築する課題について述べる。
平面的制約は、最近の暗黙の神経表現に基づく再構成手法に便利に組み込むことができる。
提案手法は, 従来の手法よりも3次元再構成品質に優れていた。
論文 参考訳(メタデータ) (2022-05-05T17:59:55Z) - How Privacy-Preserving are Line Clouds? Recovering Scene Details from 3D
Lines [49.06411148698547]
本稿では,3次元シーン形状に関する情報がライン雲に保存されていることを示す。
我々のアプローチは、直線間の最接近点が元の3d点に良い近似をもたらすという観測に基づいている。
論文 参考訳(メタデータ) (2021-03-08T21:32:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。