論文の概要: That's My Point: Compact Object-centric LiDAR Pose Estimation for
Large-scale Outdoor Localisation
- arxiv url: http://arxiv.org/abs/2403.04755v1
- Date: Thu, 7 Mar 2024 18:55:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-08 12:56:18.995123
- Title: That's My Point: Compact Object-centric LiDAR Pose Estimation for
Large-scale Outdoor Localisation
- Title(参考訳): 大規模屋外局地化のためのコンパクトオブジェクト中心LiDARポース推定
- Authors: Georgi Pramatarov and Matthew Gadd and Paul Newman and Daniele De
Martini
- Abstract要約: 本稿では,LiDARスキャンにおける3次元ポーズ推定について述べる。
セグメント化されたスキャンのすべての点をセマンティックオブジェクトにクラスタリングし、それらをそれぞれのセントロイドとセマンティッククラスでのみ表現することで、これを実現する。
ほぼ半分の表現サイズを持つ最先端の手法に匹敵する正確な距離推定を実現する。
- 参考スコア(独自算出の注目度): 18.26335698291226
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper is about 3D pose estimation on LiDAR scans with extremely minimal
storage requirements to enable scalable mapping and localisation. We achieve
this by clustering all points of segmented scans into semantic objects and
representing them only with their respective centroid and semantic class. In
this way, each LiDAR scan is reduced to a compact collection of four-number
vectors. This abstracts away important structural information from the scenes,
which is crucial for traditional registration approaches. To mitigate this, we
introduce an object-matching network based on self- and cross-correlation that
captures geometric and semantic relationships between entities. The respective
matches allow us to recover the relative transformation between scans through
weighted Singular Value Decomposition (SVD) and RANdom SAmple Consensus
(RANSAC). We demonstrate that such representation is sufficient for metric
localisation by registering point clouds taken under different viewpoints on
the KITTI dataset, and at different periods of time localising between KITTI
and KITTI-360. We achieve accurate metric estimates comparable with
state-of-the-art methods with almost half the representation size, specifically
1.33 kB on average.
- Abstract(参考訳): 本稿では,LiDARスキャンの3次元ポーズ推定を極端に最小限のストレージで行うことで,スケーラブルなマッピングとローカライゼーションを実現する。
セグメンテーションされたスキャンのすべてのポイントをセマンティックオブジェクトにクラスタリングし、それらをそれぞれのcentroidクラスとsemanticクラスで表現することで、これを達成する。
このようにして、各LiDARスキャンは4個の数ベクトルのコンパクトコレクションに縮小される。
これは、伝統的な登録手法にとって重要なシーンから重要な構造情報を抽象化する。
そこで本稿では,エンティティ間の幾何学的・意味的関係を捉えた自己相関と相互相関に基づくオブジェクトマッチングネットワークを提案する。
これらの結果から,Singular Value Decomposition (SVD) とRANdom SAmple Consensus (RANSAC) によるスキャン間の相対変換を再現できることがわかった。
このような表現は、KITTIデータセット上で異なる視点で取られた点雲を登録し、KITTIとKITTI-360間の異なる時間的ローカライズにより、計量的ローカライズに十分であることを示す。
我々は,表現サイズがほぼ半分である最先端の手法,特に平均1.43kbの正確な測定結果を得る。
関連論文リスト
- KP-RED: Exploiting Semantic Keypoints for Joint 3D Shape Retrieval and Deformation [87.23575166061413]
KP-RED は KeyPoint 主導の Retrieval and deformation フレームワークである。
オブジェクトスキャンを入力として、最も幾何学的に類似したCADモデルを共同で検索し、変形させる。
論文 参考訳(メタデータ) (2024-03-15T08:44:56Z) - Coupled Laplacian Eigenmaps for Locally-Aware 3D Rigid Point Cloud Matching [0.0]
局所構造を考慮したグラフラプラシアン固有写像に基づく新しい手法を提案する。
ラプラシアン固有写像の順序と符号のあいまいさに対処するために、結合ラプラシアンと呼ばれる新しい作用素を導入する。
これらの高次元空間間の類似性は、形状に一致するような局所的な意味のあるスコアを与えることを示す。
論文 参考訳(メタデータ) (2024-02-27T10:10:12Z) - LISNeRF Mapping: LiDAR-based Implicit Mapping via Semantic Neural Fields for Large-Scale 3D Scenes [2.822816116516042]
大規模セマンティックマッピングは、屋外の自律エージェントが計画やナビゲーションといった高度なタスクを遂行するために不可欠である。
本稿では,提案するLiDAR測度のみでの暗黙的表現による大規模3次元意味再構築手法を提案する。
論文 参考訳(メタデータ) (2023-11-04T03:55:38Z) - Lidar Panoptic Segmentation and Tracking without Bells and Whistles [48.078270195629415]
ライダーセグメンテーションと追跡のための検出中心ネットワークを提案する。
私たちのネットワークのコアコンポーネントの1つは、オブジェクトインスタンス検出ブランチです。
提案手法を複数の3D/4D LPSベンチマークで評価し,我々のモデルがオープンソースモデル間で新たな最先端性を確立することを確認した。
論文 参考訳(メタデータ) (2023-10-19T04:44:43Z) - Improving Lidar-Based Semantic Segmentation of Top-View Grid Maps by
Learning Features in Complementary Representations [3.0413873719021995]
我々は、自律運転の文脈において、スパースで単発のLiDAR測定から意味情報を予測するための新しい方法を提案する。
このアプローチは、トップビューグリッドマップのセマンティックセグメンテーションを改善することを目的としている。
各表現に対して、セマンティック情報を効果的に抽出するために、調整されたディープラーニングアーキテクチャが開発された。
論文 参考訳(メタデータ) (2022-03-02T14:49:51Z) - TC-Net: Triple Context Network for Automated Stroke Lesion Segmentation [0.5482532589225552]
本稿では,空間的コンテキスト情報を中心として,新たなネットワークである Triple Context Network (TC-Net) を提案する。
我々のネットワークはオープンデータセットATLASで評価され、最高スコアは0.594、ハウスドルフ距離は27.005mm、平均対称性表面距離は7.137mmである。
論文 参考訳(メタデータ) (2022-02-28T11:12:16Z) - Category-Level Metric Scale Object Shape and Pose Estimation [73.92460712829188]
本稿では,測度スケールの形状と1枚のRGB画像からのポーズを共同で推定するフレームワークを提案する。
カテゴリーレベルのオブジェクトのポーズと形状を評価するために,合成と実世界の両方のデータセット上で本手法の有効性を検証した。
論文 参考訳(メタデータ) (2021-09-01T12:16:46Z) - A Self-Training Approach for Point-Supervised Object Detection and
Counting in Crowds [54.73161039445703]
本稿では,ポイントレベルのアノテーションのみを用いて訓練された典型的なオブジェクト検出を可能にする,新たな自己学習手法を提案する。
トレーニング中、利用可能なポイントアノテーションを使用して、オブジェクトの中心点の推定を監督する。
実験の結果,本手法は検出タスクとカウントタスクの両方において,最先端のポイント管理手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2020-07-25T02:14:42Z) - Point-Set Anchors for Object Detection, Instance Segmentation and Pose
Estimation [85.96410825961966]
中心点から抽出された画像の特徴は、離れたキーポイントや境界ボックスの境界を予測するための限られた情報を含んでいると論じる。
推論を容易にするために,より有利な位置に配置された点集合からの回帰を行うことを提案する。
我々は、オブジェクト検出、インスタンス分割、人間のポーズ推定にPoint-Set Anchorsと呼ばれるこのフレームワークを適用した。
論文 参考訳(メタデータ) (2020-07-06T15:59:56Z) - Improving Few-shot Learning by Spatially-aware Matching and
CrossTransformer [116.46533207849619]
数ショット学習シナリオにおけるスケールと位置ミスマッチの影響について検討する。
本稿では,複数のスケールや場所のマッチングを効果的に行うための,空間認識型マッチング手法を提案する。
論文 参考訳(メタデータ) (2020-01-06T14:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。