論文の概要: ImMesh: An Immediate LiDAR Localization and Meshing Framework
- arxiv url: http://arxiv.org/abs/2301.05206v1
- Date: Thu, 12 Jan 2023 18:43:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 15:12:01.420975
- Title: ImMesh: An Immediate LiDAR Localization and Meshing Framework
- Title(参考訳): immesh:lidarの即時ローカライズとメッシュ化フレームワーク
- Authors: Jiarong Lin, Chongjiang Yuan, Yixi Cai, Haotian Li, Yuying Zou,
Xiaoping Hong and Fu Zhang
- Abstract要約: 実時間での同時局所化とメッシュ化の目標を達成するために,新しいLiDAR(-inertial) odometry and mapping frameworkを提案する。
提案するフレームワークはImMeshと呼ばれ、レシーバ、ローカライゼーション、メッシュ、ブロードキャストの4つの密結合モジュールで構成されている。
私たちの知る限りでは、大規模なシーンのトライアングルメッシュをオンラインで再構築できる文献としては、これが初めてです。
- 参考スコア(独自算出の注目度): 6.15254487689301
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose a novel LiDAR(-inertial) odometry and mapping
framework to achieve the goal of simultaneous localization and meshing in
real-time. This proposed framework termed ImMesh comprises four tightly-coupled
modules: receiver, localization, meshing, and broadcaster. The localization
module utilizes the prepossessed sensor data from the receiver, estimates the
sensor pose online by registering LiDAR scans to maps, and dynamically grows
the map. Then, our meshing module takes the registered LiDAR scan for
incrementally reconstructing the triangle mesh on the fly. Finally, the
real-time odometry, map, and mesh are published via our broadcaster. The key
contribution of this work is the meshing module, which represents a scene by an
efficient hierarchical voxels structure, performs fast finding of voxels
observed by new scans, and reconstructs triangle facets in each voxel in an
incremental manner. This voxel-wise meshing operation is delicately designed
for the purpose of efficiency; it first performs a dimension reduction by
projecting 3D points to a 2D local plane contained in the voxel, and then
executes the meshing operation with pull, commit and push steps for incremental
reconstruction of triangle facets. To the best of our knowledge, this is the
first work in literature that can reconstruct online the triangle mesh of
large-scale scenes, just relying on a standard CPU without GPU acceleration. To
share our findings and make contributions to the community, we make our code
publicly available on our GitHub: https://github.com/hku-mars/ImMesh.
- Abstract(参考訳): 本稿では,リアルタイムの同時局所化とメッシュ化を実現するために,新しいLiDAR(-inertial odometry and mapping framework)を提案する。
このフレームワークはImMeshと呼ばれ、レシーバ、ローカライゼーション、メッシュ、ブロードキャストの4つの密結合モジュールで構成されている。
ローカライゼーションモジュールは、受信機から推定されるセンサデータを利用し、LiDARスキャンを地図に登録してオンラインのポーズを推定し、地図を動的に成長させる。
そして、私たちのメッシュモジュールは登録済みのLiDARスキャンを使って、オンザフライでトライアングルメッシュを漸進的に再構築します。
最後に、リアルタイムのオドメトリ、マップ、メッシュをブロードキャストで公開します。
この研究の主な貢献は、効率的な階層的なボクセル構造によってシーンを表現するメッシュモジュールであり、新しいスキャンで観察されたボクセルの高速発見を実行し、各ボクセルの三角形のファセットを漸進的に再構築する。
このボクセルワイドメッシュ操作は、効率性のために微妙に設計され、まず、ボクセルに含まれる2次元局所平面に3Dポイントを投影し、次に、三角形の面を漸進的に再構成するためのプル、コミット、プッシュステップでメッシュ操作を実行する。
私たちの知る限りでは、gpuアクセラレーションなしで標準的なcpuに頼るだけで、大規模なシーンのトライアングルメッシュをオンラインで再構築できる文学作品はこれが初めてです。
私たちの発見を共有し、コミュニティへのコントリビューションをするために、私たちのコードをGitHubで公開しています。
関連論文リスト
- FAST-LIVO2: Fast, Direct LiDAR-Inertial-Visual Odometry [28.606325312582218]
我々は,SLAMタスクにおける高精度かつ堅牢な状態推定を実現するために,高速かつ直接的LiDAR慣性・視覚的オドメトリーフレームワークであるFAST-LIVO2を提案する。
FAST-LIVO2はIMU、LiDAR、画像計測を逐次更新戦略で効率的に融合する。
本稿では,FAST-LIVO2のリアルタイムナビゲーション,空中マッピング,3次元モデルレンダリングの3つの応用例を示す。
論文 参考訳(メタデータ) (2024-08-26T06:01:54Z) - Voxel Mamba: Group-Free State Space Models for Point Cloud based 3D Object Detection [59.34834815090167]
3Dボクセルをシリアライズして複数のシーケンスにグループ化し、トランスフォーマーに入力するシリアライズベースの手法は、3Dオブジェクト検出においてその効果を実証している。
グループフリー戦略を用いて、ボクセルの全空間を1つのシーケンスにシリアライズするVoxel SSMを提案する。
論文 参考訳(メタデータ) (2024-06-15T17:45:07Z) - SHINE-Mapping: Large-Scale 3D Mapping Using Sparse Hierarchical Implicit
Neural Representations [37.733802382489515]
本稿では, 3次元LiDAR計測を用いて, 暗示表現を用いた大規模3次元再構成を実現する際の課題について述べる。
我々はオクツリーに基づく階層構造を通じて暗黙的な特徴を学習し、保存する。
我々の3D再構成は、現在の最先端3Dマッピング法よりも正確で、完全で、メモリ効率が高いことを示す。
論文 参考訳(メタデータ) (2022-10-05T14:38:49Z) - Efficient Spatial-Temporal Information Fusion for LiDAR-Based 3D Moving
Object Segmentation [23.666607237164186]
本稿では,LiDAR-MOSの性能向上のために,空間時空間情報とLiDARスキャンの異なる表現モダリティを併用した新しいディープニューラルネットワークを提案する。
具体的には、まず、空間情報と時間情報とを別々に扱うために、レンジ画像に基づくデュアルブランチ構造を用いる。
また、3次元スパース畳み込みによるポイントリファインメントモジュールを使用して、LiDAR範囲の画像とポイントクラウド表現の両方からの情報を融合する。
論文 参考訳(メタデータ) (2022-07-05T17:59:17Z) - MobRecon: Mobile-Friendly Hand Mesh Reconstruction from Monocular Image [18.68544438724187]
本研究では,高速な推論速度,時間的コヒーレンスを同時に実現可能な単一視点ハンドメッシュ再構築フレームワークを提案する。
私たちのフレームワークであるMobReconは、安価な計算コストとミニチュアモデルサイズを備えており、Apple A14 CPU上で83FPSの高速な推論速度を実現しています。
論文 参考訳(メタデータ) (2021-12-06T03:01:24Z) - Progressive Coordinate Transforms for Monocular 3D Object Detection [52.00071336733109]
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
論文 参考訳(メタデータ) (2021-08-12T15:22:33Z) - From Voxel to Point: IoU-guided 3D Object Detection for Point Cloud with
Voxel-to-Point Decoder [79.39041453836793]
We present an Intersection-over-Union (IoU) guided two-stage 3D object detector with a voxel-to-point decoder。
本稿では,Voxel based Region Proposal Network (RPN) からマップビュー機能に加えて,点特徴を抽出する残余のvoxel-to-pointデコーダを提案する。
そこで本研究では,推定したIoUと改良された提案ボックスをより関連性の高いローカライゼーション信頼度として整列する,簡便で効率的な手法を提案する。
論文 参考訳(メタデータ) (2021-08-08T14:30:13Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR
Segmentation [81.02742110604161]
大規模運転シーンのLiDARセグメンテーションのための最先端の手法は、しばしば点雲を2次元空間に投影し、2D畳み込みによって処理する。
そこで我々は,3次元幾何学的パタンを探索するために,円筒分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
提案手法はセマンティックKITTIのリーダーボードにおいて第1位を獲得し,既存のnuScenesの手法を約4%のマージンで上回っている。
論文 参考訳(メタデータ) (2020-11-19T18:53:11Z) - Rethinking Pseudo-LiDAR Representation [70.29791705160203]
我々は、より一般化され、擬似LiDARベースの3D検出器としてインスタンス化できるPatch-Netという画像ベースCNN検出器を提案する。
提案するPatchNetは,既存の擬似LiDARベースデータセットよりも優れています。
論文 参考訳(メタデータ) (2020-08-11T08:44:18Z) - 3D Sketch-aware Semantic Scene Completion via Semi-supervised Structure
Prior [50.73148041205675]
セマンティック・シーン・コンプリート(SSC)タスクの目標は、単一視点で観察することで、ボリューム占有率とシーン内のオブジェクトの意味ラベルの完全な3Dボクセル表現を同時に予測することである。
低解像度のボクセル表現で深度情報を埋め込む新しい幾何学的手法を提案する。
提案手法は,SSCフレームワークからの深度特徴学習よりも有効である。
論文 参考訳(メタデータ) (2020-03-31T09:33:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。