論文の概要: GPCO: An Unsupervised Green Point Cloud Odometry Method
- arxiv url: http://arxiv.org/abs/2112.04054v1
- Date: Wed, 8 Dec 2021 00:24:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-09 14:43:37.174228
- Title: GPCO: An Unsupervised Green Point Cloud Odometry Method
- Title(参考訳): gpco : 教師なしグリーンポイントクラウドオドメトリー法
- Authors: Pranav Kadam, Min Zhang, Shan Liu, C.-C. Jay Kuo
- Abstract要約: 軽量な点状クラウド・オドメトリー法を提案し, GPCO法と名付けた。
GPCOは、連続点雲スキャンの特徴と一致することによって物体の動きを予測する教師なし学習法である。
GPCOは、モデルサイズが大幅に小さく、トレーニング時間も少ないのに対して、ディープラーニング手法のベンチマークを精度で上回ることが観察された。
- 参考スコア(独自算出の注目度): 64.86292006892093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual odometry aims to track the incremental motion of an object using the
information captured by visual sensors. In this work, we study the point cloud
odometry problem, where only the point cloud scans obtained by the LiDAR (Light
Detection And Ranging) are used to estimate object's motion trajectory. A
lightweight point cloud odometry solution is proposed and named the green point
cloud odometry (GPCO) method. GPCO is an unsupervised learning method that
predicts object motion by matching features of consecutive point cloud scans.
It consists of three steps. First, a geometry-aware point sampling scheme is
used to select discriminant points from the large point cloud. Second, the view
is partitioned into four regions surrounding the object, and the PointHop++
method is used to extract point features. Third, point correspondences are
established to estimate object motion between two consecutive scans.
Experiments on the KITTI dataset are conducted to demonstrate the effectiveness
of the GPCO method. It is observed that GPCO outperforms benchmarking deep
learning methods in accuracy while it has a significantly smaller model size
and less training time.
- Abstract(参考訳): 視覚計測は、視覚センサが捉えた情報を用いて物体の漸進的な動きを追跡することを目的としている。
本研究では,lidar (light detection and ranging) によって得られた点雲スキャンのみを用いて物体の運動軌跡を推定する点雲オドメトリ問題について検討する。
ライトウェイトポイントクラウドオドメトリ (lightweight point cloud odometry) ソリューションが提案され、グリーンポイントクラウドオドメトリ (green point cloud odometry,gpco) と名付けられた。
GPCOは、連続点雲スキャンの特徴と一致することによって物体の動きを予測する教師なし学習法である。
3つのステップからなる。
まず、幾何対応の点サンプリングスキームを用いて、大きな点雲から識別点を選択する。
次に、ビューをオブジェクトを囲む4つのリージョンに分割し、PointHop++メソッドを使用してポイント特徴を抽出する。
第3に、2つの連続走査間の物体の動きを推定する点対応を確立する。
GPCO法の有効性を示すため,KITTIデータセットの実験を行った。
GPCOは,モデルサイズが大幅に小さく,トレーニング時間も少ないのに対して,ディープラーニング手法を精度良く評価する。
関連論文リスト
- Point Cloud Pre-training with Diffusion Models [62.12279263217138]
我々は、ポイントクラウド拡散事前学習(PointDif)と呼ばれる新しい事前学習手法を提案する。
PointDifは、分類、セグメンテーション、検出など、さまざまな下流タスクのために、さまざまな現実世界のデータセット間で大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-25T08:10:05Z) - Point2Point : A Framework for Efficient Deep Learning on Hilbert sorted
Point Clouds with applications in Spatio-Temporal Occupancy Prediction [0.0]
ヒルベルト空間充填曲線によって誘導される局所性保存1次元秩序として点雲を表現する新しい手法を提案する。
また、Hilbert分類のポイントクラウドで効果的に学習できるニューラルネットワークであるPoint2Pointを紹介します。
論文 参考訳(メタデータ) (2023-06-28T15:30:08Z) - GeoMAE: Masked Geometric Target Prediction for Self-supervised Point
Cloud Pre-Training [16.825524577372473]
幾何学的特徴再構成に基づくポイントクラウド表現学習フレームワークを提案する。
我々は,3つの自己教師型学習目標を特異点雲,すなわちセントロイド予測,正規推定,曲率予測と同定する。
私たちのパイプラインは概念的にはシンプルで、まずポイントのグループをランダムにマスキングし、次にTransformerベースのポイントクラウドエンコーダという2つの大きなステップで構成されています。
論文 参考訳(メタデータ) (2023-05-15T17:14:55Z) - Quadric Representations for LiDAR Odometry, Mapping and Localization [93.24140840537912]
現在のLiDARオードメトリ、マッピング、ローカライズ手法は、3Dシーンのポイントワイズ表現を利用する。
3次元オブジェクトのよりコンパクトな表現である2次元曲面を用いたシーン記述法を提案する。
提案手法は低レイテンシとメモリの有効性を維持しつつ、競争力があり、しかも精度も優れている。
論文 参考訳(メタデータ) (2023-04-27T13:52:01Z) - PointFlowHop: Green and Interpretable Scene Flow Estimation from
Consecutive Point Clouds [49.7285297470392]
本研究では,PointFlowHopと呼ばれる3次元シーンフローの効率的な推定法を提案する。
ポイントフローホップは2つの連続する点雲を取り、第1点雲の各点の3次元フローベクトルを決定する。
シーンフロー推定タスクを,エゴモーション補償,オブジェクトアソシエーション,オブジェクトワイドモーション推定など,一連のサブタスクに分解する。
論文 参考訳(メタデータ) (2023-02-27T23:06:01Z) - PCRP: Unsupervised Point Cloud Object Retrieval and Pose Estimation [50.3020332934185]
そこで本研究では,PCRPと呼ばれる,教師なしのクラウドオブジェクトの検索とポーズ推定手法を提案する。
ModelNet40データセットの実験は、従来の学習ベースの手法と比較して、PCRPの優れた性能を示している。
論文 参考訳(メタデータ) (2022-02-16T03:37:43Z) - Attribute Artifacts Removal for Geometry-based Point Cloud Compression [43.60640890971367]
幾何ベースの点雲圧縮(G-PCC)は点雲に対する顕著な圧縮効率を達成する。
特に低いシナリオ下では、重要な属性圧縮アーティファクトが発生します。
本稿では,ポイントクラウド属性のアーティファクトを除去するマルチスケールグラフ注意ネットワーク(MSGAT)を提案する。
論文 参考訳(メタデータ) (2021-12-01T15:21:06Z) - PRIN/SPRIN: On Extracting Point-wise Rotation Invariant Features [91.2054994193218]
点群解析における回転不変特徴抽出に着目した点集合学習フレームワークPRINを提案する。
さらに、PRINをスパースポイントクラウド上で直接動作するSPRINと呼ばれるスパースバージョンに拡張します。
その結果、ランダムに回転した点群を持つデータセットでは、SPRINはデータ拡張なしで最先端の方法よりも優れたパフォーマンスを発揮します。
論文 参考訳(メタデータ) (2021-02-24T06:44:09Z) - Robust Kernel-based Feature Representation for 3D Point Cloud Analysis
via Circular Graph Convolutional Network [2.42919716430661]
本稿では,回転,密度,スケール変動に堅牢な新しい局所特徴記述法を提案する。
局所記述子の表現を改善するために,グローバルアグリゲーション手法を提案する。
本手法は最先端手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2020-12-22T18:02:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。