論文の概要: Intensity Image-based LiDAR Fiducial Marker System
- arxiv url: http://arxiv.org/abs/2203.01816v1
- Date: Thu, 3 Mar 2022 16:25:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-04 21:05:29.534737
- Title: Intensity Image-based LiDAR Fiducial Marker System
- Title(参考訳): 強度画像に基づくライダーfiducial markerシステム
- Authors: Yibo Liu, Hunter Schofield, Jinjun Shan
- Abstract要約: Intensity Image-based LiDAR Fiducial Marker (IILFM) システムを開発した。
点雲内の予め定義された3次元形状を特定するマーカー検出方法を提案する。
検出された3次元形状を利用してLiDAR 6-DOFのポーズを推定する手法も開発されている。
- 参考スコア(独自算出の注目度): 1.2891210250935146
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The fiducial marker system for LiDAR is crucial for the robotic application
but it is still rare to date. In this paper, an Intensity Image-based LiDAR
Fiducial Marker (IILFM) system is developed. This system only requires an
unstructured point cloud with intensity as the input and it has no restriction
on marker placement and shape. A marker detection method that locates the
predefined 3D fiducials in the point cloud through the intensity image is
introduced. Then, an approach that utilizes the detected 3D fiducials to
estimate the LiDAR 6-DOF pose that describes the transmission from the world
coordinate system to the LiDAR coordinate system is developed. Moreover, all
these processes run in real-time (approx 40 Hz on Livox Mid-40 and approx 143
Hz on VLP-16). Qualitative and quantitative experiments are conducted to
demonstrate that the proposed system has similar convenience and accuracy as
the conventional visual fiducial marker system. The codes and results are
available at: https://github.com/York-SDCNLab/IILFM.
- Abstract(参考訳): LiDARのフィデューシャルマーカーシステムはロボット応用には不可欠だが、現時点では稀である。
本稿では,強度画像に基づくlidar fiducial marker (iilfm) システムを開発した。
このシステムは入力として強度を持つ非構造点雲のみを必要とし、マーカー配置や形状に制限はない。
インテンシティ画像を介してポイントクラウド内の予め定義された3次元フィドシアムを探索するマーカー検出方法を導入する。
そして、検出された3D画像を利用して世界座標系からLiDAR座標系への伝達を記述するLiDAR 6-DOFポーズを推定する手法を開発した。
さらに、これらのプロセスはすべてリアルタイムで実行される(Livox Mid-40では40Hz、VLP-16では143Hz)。
定性的,定量的な実験を行い,従来の視覚計測マーカーシステムと同様の利便性と精度を実証した。
コードと結果は、https://github.com/York-SDCNLab/IILFMで公開されている。
関連論文リスト
- GSPR: Multimodal Place Recognition Using 3D Gaussian Splatting for Autonomous Driving [9.023864430027333]
マルチモーダル位置認識は ユニセンサーシステムの弱点を克服する能力によって 注目を集めています
本稿では,GSPRと呼ばれる3次元ガウス型マルチモーダル位置認識ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2024-10-01T00:43:45Z) - DELO: Deep Evidential LiDAR Odometry using Partial Optimal Transport [23.189529003370303]
リアルタイムLiDARベースのオドメトリーは、ロボットナビゲーション、一貫した3Dシーンマップの再構築、安全なモーションプランニングなど、多くのアプリケーションに必須である。
本稿では,フレーム間の正確な対応とモデルの予測不確実性(PU)を共同で学習し,LO予測を安全に保護するための証拠として,新しいディープラーニングベースのリアルタイム(約35~40ms/fps/fps/fps/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s /s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s/s
提案手法をKITTIデータセット上で評価し,最近の最先端手法よりも優れた一般化能力を有する競争性能を示す。
論文 参考訳(メタデータ) (2023-08-14T14:06:21Z) - SeqOT: A Spatial-Temporal Transformer Network for Place Recognition
Using Sequential LiDAR Data [9.32516766412743]
本研究では,シーケンシャルレンジ画像から得られる時間的・空間的情報を活用するトランスフォーマーネットワークSeqOTを提案する。
異なる環境下で異なる種類のLiDARセンサを用いて収集した4つのデータセットに対するアプローチを評価した。
本手法は,センサのフレームレートよりも高速に動作する。
論文 参考訳(メタデータ) (2022-09-16T14:08:11Z) - Boosting 3D Object Detection by Simulating Multimodality on Point Clouds [51.87740119160152]
本稿では,LiDAR 画像検出器に追従する特徴や応答をシミュレートすることで,単一モダリティ (LiDAR) 3次元物体検出器を高速化する新しい手法を提案する。
このアプローチでは、単一モダリティ検出器をトレーニングする場合のみ、LiDARイメージデータを必要とし、十分にトレーニングされた場合には、推論時にのみLiDARデータが必要である。
nuScenesデータセットの実験結果から,本手法はSOTA LiDARのみの3D検出器よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-06-30T01:44:30Z) - MonoDistill: Learning Spatial Features for Monocular 3D Object Detection [80.74622486604886]
本稿では,LiDAR信号からの空間情報を単分子3D検出器に導入するための簡易かつ効果的な手法を提案する。
得られたデータを用いて、ベースラインモデルと同じアーキテクチャで3D検出器をトレーニングする。
実験の結果,提案手法はベースラインモデルの性能を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-01-26T09:21:41Z) - Progressive Coordinate Transforms for Monocular 3D Object Detection [52.00071336733109]
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
論文 参考訳(メタデータ) (2021-08-12T15:22:33Z) - Supervision by Registration and Triangulation for Landmark Detection [70.13440728689231]
本稿では,マルチビュー映像を用いた教師なし手法である登録・三角測量(srt)による監視を行い,ランドマーク検出器の精度と精度を向上させる。
ラベルのないデータを活用することで、検出者は大量のラベルのないデータから自由に学べる。
論文 参考訳(メタデータ) (2021-01-25T02:48:21Z) - ACSC: Automatic Calibration for Non-repetitive Scanning Solid-State
LiDAR and Camera Systems [11.787271829250805]
Solid-State LiDAR(SSL)は、環境から3Dポイントクラウドを低コストで効率的に取得することを可能にする。
非繰り返し走査型SSLとカメラシステムのための完全自動校正法を提案する。
実環境下でのLiDARとカメラセンサの組み合わせについて検討した。
論文 参考訳(メタデータ) (2020-11-17T09:11:28Z) - Manual-Label Free 3D Detection via An Open-Source Simulator [50.74299948748722]
我々は、CARLAシミュレータを利用して、大量の自己ラベル付きトレーニングサンプルを生成する手動ラベルフリーな3D検出アルゴリズムを提案する。
ドメイン適応型VoxelNet(DA-VoxelNet)は、合成データから実際のシナリオへの分散ギャップを横断することができる。
実験の結果、提案されたDA 3D検出器は、KITTI評価セット上で76.66%と56.64%のmAPを達成することができた。
論文 参考訳(メタデータ) (2020-11-16T08:29:01Z) - Automatic Target Recognition (ATR) from SAR Imaginary by Using Machine
Learning Techniques [0.0]
合成開口レーダ(SAR)画像におけるターゲット自動認識(ATR)は、高レベルノイズを含むため、非常に難しい問題となる。
本研究では,SAR画像を用いた移動目標と静止目標を機械学習で検出する手法を提案する。
論文 参考訳(メタデータ) (2020-09-11T21:27:59Z) - Accurate Alignment Inspection System for Low-resolution Automotive and
Mobility LiDAR [125.41260574344933]
車両やロボットなどの移動システムにおいて,センサ装着後のLiDARアライメント誤差を正確に推定する検査システムを提案する。
提案手法は, 固定位置における1つのターゲットボードのみを用いて, 水平方向(回転, 傾き, ヨー)とLiDARアタッチメントの水平位置を, 水平方向の精度で推定する。
論文 参考訳(メタデータ) (2020-08-24T17:47:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。