論文の概要: Automatic marker-free registration of tree point-cloud data based on
rotating projection
- arxiv url: http://arxiv.org/abs/2001.11192v1
- Date: Thu, 30 Jan 2020 06:53:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 12:20:53.505162
- Title: Automatic marker-free registration of tree point-cloud data based on
rotating projection
- Title(参考訳): 回転射影に基づく木点雲データの自動マーカーフリー登録
- Authors: Xiuxian Xu, Pei Wang, Xiaozheng Gan, Yaxin Li, Li Zhang, Qing Zhang,
Mei Zhou, Yinghui Zhao, Xinwei Li
- Abstract要約: 本研究では,1本の木を複数スキャンした点クラウドデータの登録のための粗大な自動登録手法を提案する。
粗い登録では、各スキャンによって生成された点雲を球面に投影して一連の2次元画像を生成する。
対応する特徴点対は、これらの一連の2次元画像から抽出される。
微細な登録では、点雲データスライシングとフィッティング法を用いて、対応する中心茎と分岐中心を抽出する。
- 参考スコア(独自算出の注目度): 23.08199833637939
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Point-cloud data acquired using a terrestrial laser scanner (TLS) play an
important role in digital forestry research. Multiple scans are generally used
to overcome occlusion effects and obtain complete tree structural information.
However, it is time-consuming and difficult to place artificial reflectors in a
forest with complex terrain for marker-based registration, a process that
reduces registration automation and efficiency. In this study, we propose an
automatic coarse-to-fine method for the registration of point-cloud data from
multiple scans of a single tree. In coarse registration, point clouds produced
by each scan are projected onto a spherical surface to generate a series of
two-dimensional (2D) images, which are used to estimate the initial positions
of multiple scans. Corresponding feature-point pairs are then extracted from
these series of 2D images. In fine registration, point-cloud data slicing and
fitting methods are used to extract corresponding central stem and branch
centers for use as tie points to calculate fine transformation parameters. To
evaluate the accuracy of registration results, we propose a model of error
evaluation via calculating the distances between center points from
corresponding branches in adjacent scans. For accurate evaluation, we conducted
experiments on two simulated trees and a real-world tree. Average registration
errors of the proposed method were 0.26m around on simulated tree point clouds,
and 0.05m around on real-world tree point cloud.
- Abstract(参考訳): 地上レーザースキャナ(TLS)を用いて取得したポイントクラウドデータは、デジタル林業研究において重要な役割を果たす。
複数のスキャンは、閉塞効果を克服し、完全な木構造情報を得るために一般的に使用される。
しかし,複雑な地形を有する森林に人工反射板を設置することは,登録の自動化と効率を低下させるプロセスである。
本研究では,1本の木を複数スキャンした点クラウドデータの自動登録法を提案する。
粗い登録では、各スキャンによって生成された点雲を球面上に投影して、複数のスキャンの初期位置を推定する2次元画像を生成する。
そして、これら一連の2次元画像から対応する特徴点対を抽出する。
微細な登録では、細かな変換パラメータを計算するために、対応する中央茎と分岐中心を抽出するために、ポイントクラウドデータスライシングとフィッティング法を用いる。
登録結果の精度を評価するために,隣接スキャンにおける対応する枝から中心点の距離を計算し,誤差評価のモデルを提案する。
正確な評価のために,2本の模擬木と実生木を用いて実験を行った。
提案手法の平均登録誤差はシミュレーション木点雲上で0.26m,実世界の木点雲上で0.05mであった。
関連論文リスト
- Automatic marker-free registration based on similar tetrahedras for single-tree point clouds [14.043846409201112]
本稿では,類似のテトラヘドラに基づく単一ツリー点雲のマーカーフリー自動登録法を提案する。
提案手法はICPとNDTの両方の登録精度を著しく上回り、ICPとNDTの最大速度は593倍、NDTの最大速度は113倍である。
論文 参考訳(メタデータ) (2024-11-20T06:34:47Z) - PointRegGPT: Boosting 3D Point Cloud Registration using Generative Point-Cloud Pairs for Training [90.06520673092702]
生成点クラウドペアを用いた3Dポイントクラウドの登録をトレーニングのために促進するPointRegGPTを提案する。
我々の知る限り、これは屋内のクラウド登録のためのリアルなデータ生成を探求する最初の生成的アプローチである。
論文 参考訳(メタデータ) (2024-07-19T06:29:57Z) - DIPR: Efficient Point Cloud Registration via Dynamic Iteration [4.491867613612359]
我々は、ダイナミックイットフレームワークであるDIPRを通じて、スペーサー入力ポイントに基づくオーバーラップポイントに対話的にフォーカスする、新しい効率的なポイントクラウド登録を導入する。
提案手法は,最先端手法と比較して計算時間とGPUメモリ消費を大幅に削減しつつ,優れた登録精度を実現する。
論文 参考訳(メタデータ) (2023-12-05T16:47:46Z) - Zero-Shot Point Cloud Registration [94.39796531154303]
ZeroRegは、ポイントクラウドデータセットのトレーニングを不要にする最初のゼロショットポイントクラウド登録アプローチである。
ZeroRegの基盤は、キーポイントからポイントクラウドへの画像特徴の新たな移行であり、三次元幾何学的近傍からの情報を集約することによって強化されている。
3DMatch、3DLoMatch、ScanNetなどのベンチマークでは、ZeroRegはそれぞれ84%、46%、75%という印象的なリコール比(RR)を達成した。
論文 参考訳(メタデータ) (2023-12-05T11:33:16Z) - CorrI2P: Deep Image-to-Point Cloud Registration via Dense Correspondence [51.91791056908387]
我々は,CorrI2Pと呼ばれる画像間クラウドの登録問題に対処するための,機能に基づく最初の高密度対応フレームワークを提案する。
具体的には、3次元の点雲の前に2次元画像が1対あるとすると、まずそれらを高次元の特徴空間に変換し、特徴を対称的に重なり合う領域に変換して、画像点雲が重なり合う領域を決定する。
論文 参考訳(メタデータ) (2022-07-12T11:49:31Z) - GlobalMatch: Registration of Forest Terrestrial Point Clouds by Global
Matching of Relative Stem Positions [1.3192560874022086]
本稿では,森林点雲の自動登録方法を提案する。
提案手法は,まず原点雲から樹幹を抽出し,その相対的空間関係に基づいて樹幹をマッチングし,登録変換を決定する。
このアルゴリズムは、追加の個々の木の属性を必要とせず、環境内の木の数に二次的な複雑さを持ち、大きな森林環境の点雲を整列させることができる。
論文 参考訳(メタデータ) (2021-12-21T11:47:51Z) - Simulated LiDAR Repositioning: a novel point cloud data augmentation
method [0.0]
ある位置からシーンのLiDARスキャンをすると、そのシーンの異なる二次的な位置からの新しいスキャンをシミュレートするにはどうすればよいのか?
この方法は有効な二次位置を選択するための基準を定義し、次に元の点雲からのどの点がこれらの位置からスキャナーによって取得されるかを推定する。
提案手法は, 短時間で精度が向上し, 原点雲の高分解能化が生成点雲の類似性に強い影響を与えることを示す。
論文 参考訳(メタデータ) (2021-11-20T18:35:39Z) - Consistent Two-Flow Network for Tele-Registration of Point Clouds [74.51029406361997]
任意のポーズで提示される点群間の登録を可能とし,重複がほとんどあるいは全くない学習ベースの手法を提案する。
本手法は,一群の形状の先行を学習し,部分的な形状を完遂できる新しいニューラルネットワーク設計に基づいている。
個別のフローと比較して、この2フローのトレーニングが堅牢で信頼性の高い遠隔登録につながることを示す。
論文 参考訳(メタデータ) (2021-06-01T09:03:21Z) - DeepI2P: Image-to-Point Cloud Registration via Deep Classification [71.3121124994105]
DeepI2Pは、イメージとポイントクラウドの間のクロスモダリティ登録のための新しいアプローチです。
本手法は,カメラとライダーの座標フレーム間の相対的剛性変換を推定する。
登録問題を分類および逆カメラ投影最適化問題に変換することで難易度を回避する。
論文 参考訳(メタデータ) (2021-04-08T04:27:32Z) - SimTreeLS: Simulating aerial and terrestrial laser scans of trees [0.0]
我々は,ユーザ定義センサ,軌道,木の形状,レイアウトパラメータによる走査をシミュレートする点雲を生成するオープンソースツールSimTreeLSを提案する。
材料分類はポイントワイズに維持されているため、葉や木質の物質は完全に知られている。
SimTreeLSは、公開ライブラリ上に構築されたオープンソースリソースとして利用できる。
論文 参考訳(メタデータ) (2020-11-24T08:25:42Z) - Refinement of Predicted Missing Parts Enhance Point Cloud Completion [62.997667081978825]
点雲完了は、部分的な観測から3次元形状の点集合表現を用いて完全な幾何学を予測するタスクである。
従来のアプローチでは、不完全点集合によって供給されるエンコーダ・デコーダモデルにより、点雲全体を直接推定するニューラルネットワークが提案されていた。
本稿では、欠落した幾何を計算し、既知の入力と予測点クラウドを融合することに焦点を当てたエンドツーエンドニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-10-08T22:01:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。