論文の概要: An Efficient Convex Hull-based Vehicle Pose Estimation Method for 3D
LiDAR
- arxiv url: http://arxiv.org/abs/2302.01034v3
- Date: Tue, 6 Feb 2024 05:33:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 21:14:33.515789
- Title: An Efficient Convex Hull-based Vehicle Pose Estimation Method for 3D
LiDAR
- Title(参考訳): 3次元LiDARの効率よい凸ハル型車両電位推定法
- Authors: Ningning Ding
- Abstract要約: 自動運転車の認識技術において,LiDARを用いた車両の姿勢推定が不可欠である。
既存のポーズ推定手法を用いて3次元LiDARに基づく良好なポーズ抽出を実現することは困難である。
凸船体に基づく新しい車両のポーズ推定手法を提案する。
- 参考スコア(独自算出の注目度): 1.9580473532948401
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vehicle pose estimation with LiDAR is essential in the perception technology
of autonomous driving. However, due to incomplete observation measurements and
sparsity of the LiDAR point cloud, it is challenging to achieve satisfactory
pose extraction based on 3D LiDAR with the existing pose estimation methods. In
addition, the demand for real-time performance further increases the difficulty
of the pose estimation task. In this paper, we propose a novel vehicle pose
estimation method based on the convex hull. The extracted 3D cluster is reduced
to the convex hull, reducing the subsequent computation burden while preserving
essential contour information. Subsequently, a novel criterion based on the
minimum occlusion area is developed for the search-based algorithm, enabling
accurate pose estimation. Additionally, this criterion renders the proposed
algorithm particularly well-suited for obstacle avoidance. The proposed
algorithm is validated on the KITTI dataset and a manually labeled dataset
acquired at an industrial park. The results demonstrate that our proposed
method can achieve better accuracy than the classical pose estimation method
while maintaining real-time speed.
- Abstract(参考訳): lidarによる車両ポーズ推定は、自動運転の知覚技術において不可欠である。
しかし,lidar点雲の不完全観測とスパース性のため,既存のポーズ推定法を用いて3次元lidarに基づく適切なポーズ抽出を実現することが困難である。
また、リアルタイム性能要求により、ポーズ推定タスクの難易度がさらに向上する。
本稿では,凸船体に基づく新しい車両ポーズ推定手法を提案する。
抽出した3Dクラスタを凸船体に還元し、重要な輪郭情報を保持しながらその後の計算負担を低減する。
その後、探索に基づくアルゴリズムに対して、最小閉塞面積に基づく新しい基準を開発し、正確なポーズ推定を可能にする。
さらに、この基準により提案アルゴリズムは特に障害物回避に適している。
提案アルゴリズムは,工業団地で取得したKITTIデータセットと手動ラベル付きデータセットで検証される。
その結果,提案手法は実時間速度を維持しつつ,従来のポーズ推定法よりも精度が高いことを示した。
関連論文リスト
- OPUS: Occupancy Prediction Using a Sparse Set [64.60854562502523]
学習可能なクエリの集合を用いて、占有された場所とクラスを同時に予測するフレームワークを提案する。
OPUSには、モデルパフォーマンスを高めるための非自明な戦略が組み込まれている。
最も軽量なモデルではOcc3D-nuScenesデータセットの2倍 FPS に優れたRayIoUが得られる一方、最も重いモデルは6.1 RayIoUを上回ります。
論文 参考訳(メタデータ) (2024-09-14T07:44:22Z) - iComMa: Inverting 3D Gaussian Splatting for Camera Pose Estimation via Comparing and Matching [14.737266480464156]
コンピュータビジョンにおける6次元カメラのポーズ推定問題に対処するため,iComMaという手法を提案する。
3次元ガウススプラッティング(3DGS)の反転による高精度カメラポーズ推定法を提案する。
論文 参考訳(メタデータ) (2023-12-14T15:31:33Z) - P2O-Calib: Camera-LiDAR Calibration Using Point-Pair Spatial Occlusion
Relationship [1.6921147361216515]
本研究では,3次元空間における閉塞関係を用いた2次元3次元エッジポイント抽出に基づく新たなターゲットレスキャリブレーション手法を提案する。
本手法は,高画質カメラ-LiDARキャリブレーションによる実用的応用に寄与する,低誤差かつ高ロバスト性を実現する。
論文 参考訳(メタデータ) (2023-11-04T14:32:55Z) - A Simple Framework for 3D Occupancy Estimation in Autonomous Driving [16.605853706182696]
本稿では,CNNをベースとした3次元占有率推定のための重要な要素をいくつか明らかにするフレームワークを提案する。
また,3次元占有率推定と,単眼深度推定や3次元再構成などの関連課題との関係についても検討した。
論文 参考訳(メタデータ) (2023-03-17T15:57:14Z) - 3D Harmonic Loss: Towards Task-consistent and Time-friendly 3D Object
Detection on Edge for Intelligent Transportation System [28.55894241049706]
本稿では,ポイントクラウドに基づく不整合予測を緩和する3次元高調波損失関数を提案する。
提案手法はベンチマークモデルよりも性能が大幅に向上する。
私たちのコードはオープンソースで公開されています。
論文 参考訳(メタデータ) (2022-11-07T10:11:48Z) - On Triangulation as a Form of Self-Supervision for 3D Human Pose
Estimation [57.766049538913926]
ラベル付きデータが豊富である場合, 単一画像からの3次元ポーズ推定に対する改良されたアプローチは, 極めて効果的である。
最近の注目の多くは、セミと(あるいは)弱い教師付き学習に移行している。
本稿では,多視点の幾何学的制約を,識別可能な三角測量を用いて課し,ラベルがない場合の自己監督の形式として用いることを提案する。
論文 参考訳(メタデータ) (2022-03-29T19:11:54Z) - Roadside Lidar Vehicle Detection and Tracking Using Range And Intensity
Background Subtraction [0.0]
本稿では,2つの教師なし学習アルゴリズムを組み合わせた道路側LiDAR物体検出手法を提案する。
この手法は商用トラフィックデータ収集プラットフォームに対して検証された。
論文 参考訳(メタデータ) (2022-01-13T00:54:43Z) - Uncertainty-Aware Camera Pose Estimation from Points and Lines [101.03675842534415]
Perspective-n-Point-and-Line (Pn$PL) は、2D-3D特徴座標の3Dモデルに関して、高速で正確で堅牢なカメラローカライゼーションを目指している。
論文 参考訳(メタデータ) (2021-07-08T15:19:36Z) - SLPC: a VRNN-based approach for stochastic lidar prediction and
completion in autonomous driving [63.87272273293804]
VRNN(Variiational Recurrent Neural Networks)と呼ばれる生成モデルに基づく新しいLiDAR予測フレームワークを提案する。
提案手法は,フレーム内の奥行きマップを空間的に塗り替えることで,スパースデータを扱う際の従来のビデオ予測フレームワークの限界に対処できる。
VRNNのスパースバージョンとラベルを必要としない効果的な自己監督型トレーニング方法を紹介します。
論文 参考訳(メタデータ) (2021-02-19T11:56:44Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。