論文の概要: BIMCaP: BIM-based AI-supported LiDAR-Camera Pose Refinement
- arxiv url: http://arxiv.org/abs/2412.03434v1
- Date: Wed, 04 Dec 2024 16:26:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 15:07:18.300146
- Title: BIMCaP: BIM-based AI-supported LiDAR-Camera Pose Refinement
- Title(参考訳): BIMCaP:BIMベースのAIベースのLiDAR-Camera Pose Refinement
- Authors: Miguel Arturo Vega Torres, Anna Ribic, Borja García de Soto, André Borrmann,
- Abstract要約: 本稿では,移動体3DスパースLiDARデータとカメラ計測をビルディング情報モデルと統合する新しい手法であるBIMCaPを紹介する。
実世界のオープンアクセスデータを用いて実験したところ、BIMCaPは精度が良く、翻訳誤差を4cm以上削減できることがわかった。
- 参考スコア(独自算出の注目度): 0.3749861135832073
- License:
- Abstract: This paper introduces BIMCaP, a novel method to integrate mobile 3D sparse LiDAR data and camera measurements with pre-existing building information models (BIMs), enhancing fast and accurate indoor mapping with affordable sensors. BIMCaP refines sensor poses by leveraging a 3D BIM and employing a bundle adjustment technique to align real-world measurements with the model. Experiments using real-world open-access data show that BIMCaP achieves superior accuracy, reducing translational error by over 4 cm compared to current state-of-the-art methods. This advancement enhances the accuracy and cost-effectiveness of 3D mapping methodologies like SLAM. BIMCaP's improvements benefit various fields, including construction site management and emergency response, by providing up-to-date, aligned digital maps for better decision-making and productivity. Link to the repository: https://github.com/MigVega/BIMCaP
- Abstract(参考訳): 本稿では,既存のビルディング情報モデル (BIM) に移動式3DスパースLiDARデータとカメラ計測を統合する新しい手法であるBIMCaPを紹介する。
BIMCaPは3次元のBIMを利用してセンサーのポーズを洗練し、バンドル調整技術を用いて実世界の計測をモデルと整合させる。
実世界のオープンアクセスデータを用いた実験では、BIMCaPは最先端の精度を実現し、現在の最先端手法と比較して翻訳誤差を4cm以上削減している。
この進歩はSLAMのような3次元マッピング手法の精度と費用対効果を高める。
BIMCaPの改善は、建設現場の管理や緊急対応を含む様々な分野の恩恵を受けており、意思決定と生産性を向上させるために、最新かつ整列したデジタルマップを提供する。
リポジトリへのリンク: https://github.com/MigVega/BIMCaP
関連論文リスト
- CameraHMR: Aligning People with Perspective [54.05758012879385]
モノクロ画像からの正確な3次元ポーズと形状推定の課題に対処する。
既存のトレーニングデータセットには、擬似基底真理(pGT)を持つ実画像が含まれている。
pGTの精度を向上させる2つの貢献をしている。
論文 参考訳(メタデータ) (2024-11-12T19:12:12Z) - SimpleBEV: Improved LiDAR-Camera Fusion Architecture for 3D Object Detection [15.551625571158056]
高精度な3次元物体検出のためのLiDARカメラ融合フレームワークSimpleBEVを提案する。
提案手法は, nuScenesデータセット上で77.6%のNDS精度を実現し, 3次元物体検出トラックにおける優れた性能を示す。
論文 参考訳(メタデータ) (2024-11-08T02:51:39Z) - vFusedSeg3D: 3rd Place Solution for 2024 Waymo Open Dataset Challenge in Semantic Segmentation [0.0]
VFusedSeg3Dは、カメラ画像のリッチなセマンティックコンテンツと、LiDARの正確な深度センシングを使用して、強力で包括的な環境理解を生成する。
我々の新しい特徴融合技術は、LiDAR点雲の幾何学的特徴とカメラ画像の意味的特徴を組み合わせたものである。
マルチモダリティ技術を用いることで、性能が大幅に向上し、検証セットで72.46%の最先端のmIoUが得られる。
論文 参考訳(メタデータ) (2024-08-09T11:34:19Z) - MM3DGS SLAM: Multi-modal 3D Gaussian Splatting for SLAM Using Vision, Depth, and Inertial Measurements [59.70107451308687]
カメラ画像と慣性測定による地図表現に3Dガウスアンを用いることで、精度の高いSLAMが実現できることを示す。
我々の手法であるMM3DGSは、より高速なスケール認識と軌道追跡の改善により、事前レンダリングの限界に対処する。
また,カメラと慣性測定ユニットを備えた移動ロボットから収集したマルチモーダルデータセットUT-MMもリリースした。
論文 参考訳(メタデータ) (2024-04-01T04:57:41Z) - Volumetric Semantically Consistent 3D Panoptic Mapping [77.13446499924977]
非構造環境における自律エージェントに適したセマンティック3Dマップを生成することを目的としたオンライン2次元から3次元のセマンティック・インスタンスマッピングアルゴリズムを提案する。
マッピング中にセマンティック予測の信頼性を統合し、セマンティックおよびインスタンス一貫性のある3D領域を生成する新しい方法を導入する。
提案手法は,パブリックな大規模データセット上での最先端の精度を実現し,多くの広く使用されているメトリクスを改善した。
論文 参考訳(メタデータ) (2023-09-26T08:03:10Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - Digital Twin-Based 3D Map Management for Edge-Assisted Mobile Augmented
Reality [43.92003852614186]
エッジ支援型モバイル拡張現実(MAR)のためのディジタルツイン(DT)を用いた3次元マップ管理手法を提案する。
まず、その後のカメラフレームの予測に基づいて、3Dマップ管理をエミュレートするMAR装置用のDTを作成する。
次に、実データとエミュレートデータの両方から収集したデータを利用して、3Dマップを管理するモデルベース強化学習(MBRL)アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-05-26T01:38:45Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Uncertainty-Aware Camera Pose Estimation from Points and Lines [101.03675842534415]
Perspective-n-Point-and-Line (Pn$PL) は、2D-3D特徴座標の3Dモデルに関して、高速で正確で堅牢なカメラローカライゼーションを目指している。
論文 参考訳(メタデータ) (2021-07-08T15:19:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。