論文の概要: 2D LiDAR and Camera Fusion Using Motion Cues for Indoor Layout
Estimation
- arxiv url: http://arxiv.org/abs/2204.11202v1
- Date: Sun, 24 Apr 2022 06:26:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-27 02:45:58.556682
- Title: 2D LiDAR and Camera Fusion Using Motion Cues for Indoor Layout
Estimation
- Title(参考訳): モーションキューを用いた2次元LiDARとカメラフュージョンによる屋内レイアウト推定
- Authors: Jieyu Li, Robert Stevenson
- Abstract要約: 地上ロボットは、単一の床と垂直の壁を持つ屋内空間を探索し、一連の強度画像と2D LiDARデータセットを収集する。
センサ出力と画像セグメンテーションのアライメントは、LiDAR点をアライメントすることで、共同で計算される。
地層境界抽出のための画像の曖昧さをLiDAR観測の助けを借りて除去する。
- 参考スコア(独自算出の注目度): 2.6905021039717987
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: This paper presents a novel indoor layout estimation system based on the
fusion of 2D LiDAR and intensity camera data. A ground robot explores an indoor
space with a single floor and vertical walls, and collects a sequence of
intensity images and 2D LiDAR datasets. The LiDAR provides accurate depth
information, while the camera captures high-resolution data for semantic
interpretation. The alignment of sensor outputs and image segmentation are
computed jointly by aligning LiDAR points, as samples of the room contour, to
ground-wall boundaries in the images. The alignment problem is decoupled into a
top-down view projection and a 2D similarity transformation estimation, which
can be solved according to the vertical vanishing point and motion of two
sensors. The recursive random sample consensus algorithm is implemented to
generate, evaluate and optimize multiple hypotheses with the sequential
measurements. The system allows jointly analyzing the geometric interpretation
from different sensors without offline calibration. The ambiguity in images for
ground-wall boundary extraction is removed with the assistance of LiDAR
observations, which improves the accuracy of semantic segmentation. The
localization and mapping is refined using the fused data, which enables the
system to work reliably in scenes with low texture or low geometric features.
- Abstract(参考訳): 本稿では,2次元LiDARと強度カメラデータの融合に基づく屋内レイアウト推定システムを提案する。
地上ロボットは、単一の床と垂直の壁を持つ屋内空間を探索し、一連の強度画像と2D LiDARデータセットを収集する。
LiDARは正確な深度情報を提供し、カメラは意味解釈のための高解像度データをキャプチャする。
センサ出力のアライメントと画像セグメンテーションは、部屋の輪郭のサンプルであるライダー点を画像の地壁境界に合わせることにより、共同で計算される。
また、アライメント問題をトップダウンビュー投影と2次元類似性変換推定に分解し、2つのセンサの垂直消滅点と動きに応じて解くことができる。
逐次測定により複数の仮説を生成し,評価し,最適化するために,再帰的ランダムサンプルコンセンサスアルゴリズムを実装した。
このシステムは、オフラインキャリブレーションなしで、異なるセンサーから幾何学的解釈を共同で分析することができる。
地層境界抽出のための画像の曖昧さをLiDAR観測により除去し,セマンティックセグメンテーションの精度を向上させる。
局所化とマッピングは融合データを用いて洗練され、低テクスチャや低幾何学的特徴を持つシーンで確実に動作する。
関連論文リスト
- SCIPaD: Incorporating Spatial Clues into Unsupervised Pose-Depth Joint Learning [17.99904937160487]
本研究では,教師なし深層学習のための空間的手がかりを取り入れた新しいアプローチであるSCIPaDを紹介する。
SCIPaDは平均翻訳誤差22.2%、カメラポーズ推定タスクの平均角誤差34.8%をKITTI Odometryデータセットで達成している。
論文 参考訳(メタデータ) (2024-07-07T06:52:51Z) - RGB-based Category-level Object Pose Estimation via Decoupled Metric
Scale Recovery [72.13154206106259]
本研究では、6次元のポーズとサイズ推定を分離し、不完全なスケールが剛性変換に与える影響を緩和するパイプラインを提案する。
具体的には,事前学習した単分子推定器を用いて局所的な幾何学的情報を抽出する。
別個のブランチは、カテゴリレベルの統計に基づいてオブジェクトのメートル法スケールを直接復元するように設計されている。
論文 参考訳(メタデータ) (2023-09-19T02:20:26Z) - Multi-Scale Estimation for Omni-Directional Saliency Maps Using
Learnable Equator Bias [1.413861804135093]
サリエンシマップは、ヘッドマウントディスプレイで視線点の確率分布を表す。
そこで本研究では,全方位画像に対する新しいサリエンシマップ推定モデルを提案する。
提案手法により,サリエンシマップの精度を向上した。
論文 参考訳(メタデータ) (2023-09-15T04:08:20Z) - Monocular 3D Object Detection with Depth from Motion [74.29588921594853]
我々は、正確な物体深度推定と検出にカメラエゴモーションを利用する。
我々のフレームワークはDfM(Depth from Motion)と呼ばれ、2D画像の特徴を3D空間に持ち上げて3Dオブジェクトを検出する。
我々のフレームワークは、KITTIベンチマークにおいて最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2022-07-26T15:48:46Z) - CorrI2P: Deep Image-to-Point Cloud Registration via Dense Correspondence [51.91791056908387]
我々は,CorrI2Pと呼ばれる画像間クラウドの登録問題に対処するための,機能に基づく最初の高密度対応フレームワークを提案する。
具体的には、3次元の点雲の前に2次元画像が1対あるとすると、まずそれらを高次元の特徴空間に変換し、特徴を対称的に重なり合う領域に変換して、画像点雲が重なり合う領域を決定する。
論文 参考訳(メタデータ) (2022-07-12T11:49:31Z) - Uncertainty-Aware Camera Pose Estimation from Points and Lines [101.03675842534415]
Perspective-n-Point-and-Line (Pn$PL) は、2D-3D特徴座標の3Dモデルに関して、高速で正確で堅牢なカメラローカライゼーションを目指している。
論文 参考訳(メタデータ) (2021-07-08T15:19:36Z) - DeepI2P: Image-to-Point Cloud Registration via Deep Classification [71.3121124994105]
DeepI2Pは、イメージとポイントクラウドの間のクロスモダリティ登録のための新しいアプローチです。
本手法は,カメラとライダーの座標フレーム間の相対的剛性変換を推定する。
登録問題を分類および逆カメラ投影最適化問題に変換することで難易度を回避する。
論文 参考訳(メタデータ) (2021-04-08T04:27:32Z) - Lidar-Monocular Surface Reconstruction Using Line Segments [5.542669744873386]
LIDARスキャンと画像データの両方で検出される一般的な幾何学的特徴を利用して、2つのセンサからのデータを高レベル空間で処理することを提案する。
提案手法は, 高精度な地中真理推定を必要とせず, 最先端のLIDARサーベイに匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2021-04-06T19:49:53Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - 3D-CVF: Generating Joint Camera and LiDAR Features Using Cross-View
Spatial Feature Fusion for 3D Object Detection [10.507404260449333]
本稿では,3次元物体検出のためのカメラとLiDARセンサの融合アーキテクチャを提案する。
提案した3D-CVFは,KITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2020-04-27T08:34:46Z) - Indoor Layout Estimation by 2D LiDAR and Camera Fusion [3.2387553628943535]
本稿では,画像列とLiDARデータセットの融合による屋内レイアウト推定と再構築のためのアルゴリズムを提案する。
提案システムでは,2次元LiDAR情報とインテンシティ画像の両方を移動プラットフォームで収集する。
論文 参考訳(メタデータ) (2020-01-15T16:43:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。