論文の概要: Interacted Planes Reveal 3D Line Mapping
- arxiv url: http://arxiv.org/abs/2602.01296v1
- Date: Sun, 01 Feb 2026 15:52:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.701028
- Title: Interacted Planes Reveal 3D Line Mapping
- Title(参考訳): 干渉平面による3次元ラインマッピング
- Authors: Zeran Ke, Bin Tan, Gui-Song Xia, Yujun Shen, Nan Xue,
- Abstract要約: LiP-Mapは3Dラインマッピングのためのラインプレーン共同最適化フレームワークである。
ScanNetV2, ScanNet++, Hypersim, 7Scenes, Tanks&Templeの100以上のシーンにおいて、LiP-Mapは最先端メソッドよりも正確性と完全性の両方を改善している。
- 参考スコア(独自算出の注目度): 73.60851338875962
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D line mapping from multi-view RGB images provides a compact and structured visual representation of scenes. We study the problem from a physical and topological perspective: a 3D line most naturally emerges as the edge of a finite 3D planar patch. We present LiP-Map, a line-plane joint optimization framework that explicitly models learnable line and planar primitives. This coupling enables accurate and detailed 3D line mapping while maintaining strong efficiency (typically completing a reconstruction in 3 to 5 minutes per scene). LiP-Map pioneers the integration of planar topology into 3D line mapping, not by imposing pairwise coplanarity constraints but by explicitly constructing interactions between plane and line primitives, thus offering a principled route toward structured reconstruction in man-made environments. On more than 100 scenes from ScanNetV2, ScanNet++, Hypersim, 7Scenes, and Tanks\&Temple, LiP-Map improves both accuracy and completeness over state-of-the-art methods. Beyond line mapping quality, LiP-Map significantly advances line-assisted visual localization, establishing strong performance on 7Scenes. Our code is released at https://github.com/calmke/LiPMAP for reproducible research.
- Abstract(参考訳): マルチビューRGB画像からの3Dラインマッピングは、シーンのコンパクトで構造化された視覚表現を提供する。
物理およびトポロジ的観点から問題を研究し、有限3次元平面パッチの端として3次元線が最も自然に現れる。
学習可能な行と平面プリミティブを明示的にモデル化したラインプレーン共同最適化フレームワークLiP-Mapを提案する。
この結合により、強い効率を維持しつつ、正確で詳細な3Dラインマッピングが可能となる(典型的には、1シーンあたり3分から5分で再構築が完了する)。
LiP-Mapは平面トポロジを2対のコプランナリティ制約を課すのではなく、平面と直線のプリミティブ間の相互作用を明示的に構築することで、3次元ラインマッピングに統合し、人為的環境における構造化された再構成への原則的な経路を提供する。
ScanNetV2, ScanNet++, Hypersim, 7Scenes, Tanks\&Templeの100以上のシーンにおいて、LiP-Mapは最先端メソッドよりも正確性と完全性の両方を改善している。
ラインマッピングの品質以外にも、LiP-Mapはラインアシストによる視覚的ローカライゼーションを大幅に向上し、7Scenes上での強力なパフォーマンスを確立している。
私たちのコードは再現可能な研究のためにhttps://github.com/calmke/LiPMAPでリリースされています。
関連論文リスト
- PLANA3R: Zero-shot Metric Planar 3D Reconstruction via Feed-Forward Planar Splatting [56.188624157291024]
提案するPLANA3Rは,提案しない2次元画像から平面3次元再構成を計測するためのポーズレスフレームワークである。
トレーニング中に3次元平面アノテーションを必要とする以前のフィードフォワード法とは異なり、PLANA3Rは明確な平面監督なしで平面3次元構造を学習する。
本研究は,複数の室内環境データセットに対するPLANA3Rの有効性を検証するとともに,領域外屋内環境への強力な一般化を実証する。
論文 参考訳(メタデータ) (2025-10-21T15:15:33Z) - TSP3D: Text-guided Sparse Voxel Pruning for Efficient 3D Visual Grounding [74.033589504806]
視覚的グラウンド化のための効率的なマルチレベル畳み込みアーキテクチャを提案する。
提案手法はトップ推論速度を達成し,従来の最速の手法を100% FPS で上回っている。
論文 参考訳(メタデータ) (2025-02-14T18:59:59Z) - LineGS : 3D Line Segment Representation on 3D Gaussian Splatting [0.0]
LineGSは幾何学誘導型3次元ライン再構成と3次元ガウススプラッティングモデルを組み合わせた新しい手法である。
その結果, ベースライン法と比較して, 幾何精度とモデルコンパクト性に有意な改善が認められた。
論文 参考訳(メタデータ) (2024-11-30T13:29:36Z) - 3D LiDAR Mapping in Dynamic Environments Using a 4D Implicit Neural Representation [33.92758288570465]
正確な地図の構築は、自動運転車の信頼性の高いローカライゼーション、計画、ナビゲーションを可能にする重要なビルディングブロックである。
我々は、4Dシーンを新しい暗黙的ニューラルマップ表現に符号化する。
提案手法は, 高精度で完全な3次元地図を再構成しながら, 入力点雲の動的部分を除去することができる。
論文 参考訳(メタデータ) (2024-05-06T11:46:04Z) - Representing 3D sparse map points and lines for camera relocalization [1.2974519529978974]
軽量ニューラルネットワークが3Dポイントとラインの両方の特徴を表現するためにどのように学習できるかを示す。
テストにおいて,本手法は,最先端の学習手法に対する最も顕著な向上を図っている。
論文 参考訳(メタデータ) (2024-02-28T03:07:05Z) - 3D Line Mapping Revisited [86.13455066577657]
LIMAPは、3Dラインマッピングのためのライブラリで、多視点画像から3Dラインマップを堅牢かつ効率的に作成する。
私たちのコードは、既存のポイントベースのStructure-from-Motionメソッドとシームレスに統合されます。
私たちの堅牢な3Dラインマップは、新たな研究方向も開きます。
論文 参考訳(メタデータ) (2023-03-30T16:14:48Z) - SHINE-Mapping: Large-Scale 3D Mapping Using Sparse Hierarchical Implicit
Neural Representations [37.733802382489515]
本稿では, 3次元LiDAR計測を用いて, 暗示表現を用いた大規模3次元再構成を実現する際の課題について述べる。
我々はオクツリーに基づく階層構造を通じて暗黙的な特徴を学習し、保存する。
我々の3D再構成は、現在の最先端3Dマッピング法よりも正確で、完全で、メモリ効率が高いことを示す。
論文 参考訳(メタデータ) (2022-10-05T14:38:49Z) - Neural 3D Scene Reconstruction with the Manhattan-world Assumption [58.90559966227361]
本稿では,多視点画像から3次元屋内シーンを再構築する課題について述べる。
平面的制約は、最近の暗黙の神経表現に基づく再構成手法に便利に組み込むことができる。
提案手法は, 従来の手法よりも3次元再構成品質に優れていた。
論文 参考訳(メタデータ) (2022-05-05T17:59:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。