論文の概要: Colmap-PCD: An Open-source Tool for Fine Image-to-point cloud
Registration
- arxiv url: http://arxiv.org/abs/2310.05504v1
- Date: Mon, 9 Oct 2023 08:09:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 06:47:43.010501
- Title: Colmap-PCD: An Open-source Tool for Fine Image-to-point cloud
Registration
- Title(参考訳): Colmap-PCD - イメージツーポイントクラウド登録のためのオープンソースツール
- Authors: Chunge Bai and Ruijie Fu and Xiang Gao
- Abstract要約: 本稿では, 既設のLiDARマップを固定制約として利用する, コスト効率の高い新しい再構築パイプラインを提案する。
本手法は,カメラとLiDARデータの同期キャプチャを必要とせずに,最初にポイントクラウドマップに画像を登録する手法である。
- 参考スコア(独自算出の注目度): 7.860297360803415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State-of-the-art techniques for monocular camera reconstruction predominantly
rely on the Structure from Motion (SfM) pipeline. However, such methods often
yield reconstruction outcomes that lack crucial scale information, and over
time, accumulation of images leads to inevitable drift issues. In contrast,
mapping methods based on LiDAR scans are popular in large-scale urban scene
reconstruction due to their precise distance measurements, a capability
fundamentally absent in visual-based approaches. Researchers have made attempts
to utilize concurrent LiDAR and camera measurements in pursuit of precise
scaling and color details within mapping outcomes. However, the outcomes are
subject to extrinsic calibration and time synchronization precision. In this
paper, we propose a novel cost-effective reconstruction pipeline that utilizes
a pre-established LiDAR map as a fixed constraint to effectively address the
inherent scale challenges present in monocular camera reconstruction. To our
knowledge, our method is the first to register images onto the point cloud map
without requiring synchronous capture of camera and LiDAR data, granting us the
flexibility to manage reconstruction detail levels across various areas of
interest. To facilitate further research in this domain, we have released
Colmap-PCD${^{3}}$, an open-source tool leveraging the Colmap algorithm, that
enables precise fine-scale registration of images to the point cloud map.
- Abstract(参考訳): モノクロカメラの現在の技術は、主にStructure from Motion (SfM)パイプラインに依存している。
しかし、そのような手法は重要な規模の情報を欠いた再構成結果をもたらすことが多く、時間とともに画像の蓄積は避けられないドリフト問題を引き起こす。
対照的に、LiDARスキャンに基づくマッピング手法は、その正確な距離測定により大規模な都市景観復元に人気がある。
研究者は、マッピング結果の正確なスケーリングと色の詳細を追求するために、LiDARとカメラの同時測定を利用する試みを行っている。
しかし、結果には余分なキャリブレーションと時間同期精度が伴う。
本稿では,モノクラーカメラの再構成における固有のスケール課題を効果的に解決するために,既設のLiDARマップを固定制約として利用する,コスト効率の高い新しい再構築パイプラインを提案する。
我々の知る限りでは、カメラとLiDARデータの同期キャプチャを必要とせずに、最初にポイントクラウドマップに画像を登録し、様々な分野において、再構築の詳細レベルを管理する柔軟性を提供する。
この領域のさらなる研究を容易にするために、我々はcolmapアルゴリズムを活用したオープンソースのツールであるcolmap-pcd${^{3}}$をリリースした。
関連論文リスト
- RGB-based Category-level Object Pose Estimation via Decoupled Metric
Scale Recovery [72.13154206106259]
本研究では、6次元のポーズとサイズ推定を分離し、不完全なスケールが剛性変換に与える影響を緩和するパイプラインを提案する。
具体的には,事前学習した単分子推定器を用いて局所的な幾何学的情報を抽出する。
別個のブランチは、カテゴリレベルの統計に基づいてオブジェクトのメートル法スケールを直接復元するように設計されている。
論文 参考訳(メタデータ) (2023-09-19T02:20:26Z) - Embracing Compact and Robust Architectures for Multi-Exposure Image
Fusion [50.598654017728045]
本稿では,堅牢なマルチ露光画像融合のための自己アライメントとディテールリプレクションモジュールを含む探索型パラダイムを提案する。
シーンリライティングと変形可能な畳み込みを利用して、カメラの動きに拘わらず、画像を正確に調整することができる。
我々は、様々な競争方式と比較して最先端の性能を実現し、一般的なシナリオと不整合シナリオに対するPSNRの4.02%と29.34%の改善を実現した。
論文 参考訳(メタデータ) (2023-05-20T17:01:52Z) - (LC)$^2$: LiDAR-Camera Loop Constraints For Cross-Modal Place
Recognition [0.9449650062296824]
本稿では,先行点クラウドマップを使わずにLiDARローカライゼーションを実現するために, (LC)$2$と呼ばれる新しいクロスマッチング手法を提案する。
ネットワークは、異なる画像とレンジ画像からローカライズ記述子を抽出するために訓練される。
我々は、LiDARベースのナビゲーションシステムが画像データベースから最適化され、その逆も可能であることを実証する。
論文 参考訳(メタデータ) (2023-04-17T23:20:16Z) - Real-Time Simultaneous Localization and Mapping with LiDAR intensity [9.374695605941627]
実時間LiDAR強調画像を用いた同時位置推定とマッピング手法を提案する。
提案手法は高精度でリアルタイムに動作可能であり,照度変化,低テクスチャ,非構造化環境でも有効である。
論文 参考訳(メタデータ) (2023-01-23T03:59:48Z) - Shakes on a Plane: Unsupervised Depth Estimation from Unstabilized
Photography [54.36608424943729]
2秒で取得した12メガピクセルのRAWフレームの「長バースト」では,自然手震動のみからの視差情報で高品質のシーン深度を回復できることが示されている。
我々は、長時間バーストデータにニューラルRGB-D表現を適合させるテスト時間最適化手法を考案し、シーン深度とカメラモーションを同時に推定する。
論文 参考訳(メタデータ) (2022-12-22T18:54:34Z) - Near-filed SAR Image Restoration with Deep Learning Inverse Technique: A
Preliminary Study [5.489791364472879]
近接場合成開口レーダ(SAR)は、ターゲットの散乱分布ホットスポットの高解像度画像を提供する。
一方、撮像の結果は、サイドローブ、クラッタ、ノイズから必然的に劣化する。
イメージを復元するために、現在の手法では、例えば、点拡散関数(PSF)は空間的に一貫したものであり、ターゲットはスパース点散乱器などで構成されている。
我々は、分解モデルを空間的に可変な複素畳み込みモデルに再構成し、近接場SARのシステム応答を考慮した。
モデルに基づくディープラーニングネットワークは、復元するために設計されている
論文 参考訳(メタデータ) (2022-11-28T01:28:33Z) - A Deep Generative Approach to Oversampling in Ptychography [9.658250977094562]
ptychographyの大きな欠点は、長いデータ取得時間である。
本稿では, 深層生成ネットワークから抽出したデータを用いて, わずかに取得したデータやアンダーサンプルデータを補完する手法を提案する。
深層生成ネットワークを事前学習し、データ収集時に出力を計算できるので、実験データとデータ取得時間を削減することができる。
論文 参考訳(メタデータ) (2022-07-28T22:02:01Z) - LiDARCap: Long-range Marker-less 3D Human Motion Capture with LiDAR
Point Clouds [58.402752909624716]
既存のモーションキャプチャデータセットはほとんどが短距離であり、まだ長距離アプリケーションのニーズに合わない。
我々は,この制限を克服するために,LiDARがより長い範囲で捉えた新しい人間のモーションキャプチャーデータセットLiDARHuman26Mを提案する。
我々のデータセットには、IMUシステムによって取得された人間の動きと同期RGB画像も含まれている。
論文 参考訳(メタデータ) (2022-03-28T12:52:45Z) - A parameter refinement method for Ptychography based on Deep Learning
concepts [55.41644538483948]
伝播距離、位置誤差、部分的コヒーレンスにおける粗いパラメトリゼーションは、しばしば実験の生存性を脅かす。
最新のDeep Learningフレームワークは、セットアップの不整合を自律的に補正するために使用され、ポチコグラフィーの再構築の質が向上する。
我々は,elettra シンクロトロン施設のツインミックビームラインで取得した合成データセットと実データの両方でシステムをテストした。
論文 参考訳(メタデータ) (2021-05-18T10:15:17Z) - A Simple and Efficient Registration of 3D Point Cloud and Image Data for
Indoor Mobile Mapping System [18.644879251473647]
光画像による3次元LiDAR点雲の登録は、マルチソースデータの組み合わせにおいて重要である。
幾何学的ミスアライメントは元々、LiDAR点雲と光学画像の間のポーズデータに存在する。
我々は,初期ポーズの精度を向上させるため,シンプルだが効率的な登録方法を開発した。
論文 参考訳(メタデータ) (2020-10-27T13:01:54Z) - Single-Image HDR Reconstruction by Learning to Reverse the Camera
Pipeline [100.5353614588565]
本稿では,LDR画像形成パイプラインの領域知識をモデルに組み込むことを提案する。
我々は,HDRto-LDR画像形成パイプラインを(1)ダイナミックレンジクリッピング,(2)カメラ応答関数からの非線形マッピング,(3)量子化としてモデル化する。
提案手法は,最先端の単一画像HDR再構成アルゴリズムに対して良好に動作することを示す。
論文 参考訳(メタデータ) (2020-04-02T17:59:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。