論文の概要: An Efficient Convex Hull-based Vehicle Pose Estimation Method for 3D
LiDAR
- arxiv url: http://arxiv.org/abs/2302.01034v2
- Date: Sat, 1 Jul 2023 23:47:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-04 14:51:10.762285
- Title: An Efficient Convex Hull-based Vehicle Pose Estimation Method for 3D
LiDAR
- Title(参考訳): 3次元LiDARの効率よい凸ハル型車両電位推定法
- Authors: Ningning Ding
- Abstract要約: 提案アルゴリズムは,工業団地で取得したKITTIデータセットと手動ラベル付きデータセットで検証される。
その結果,提案手法は最先端のポーズ推定法よりも精度が高いことがわかった。
- 参考スコア(独自算出の注目度): 2.1447870545812924
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vehicle pose estimation with LiDAR is essential in the perception technology
of autonomous driving. However, due to incomplete observation measurements and
sparsity of the LiDAR point cloud, it is challenging to achieve satisfactory
pose extraction based on 3D LiDAR by using the existing pose estimation
methods. In addition, the requirement for real-time performance further
increases the difficulty of the pose estimation task. In this paper, we
proposed a novel convex hull-based vehicle pose estimation method. The
extracted 3D cluster is reduced to the convex hull, reducing the computation
burden and retaining contour information. Then a novel criterion based on the
minimum occlusion area is developed for the search-based algorithm, which can
achieve accurate pose estimation. This criterion also makes the proposed
algorithm especially suitable for obstacle avoidance. The proposed algorithm is
validated on the KITTI dataset and a manually labeled dataset acquired at an
industrial park. The results show that our proposed method can achieve better
accuracy than the state-of-the-art pose estimation method while maintaining
real-time speed.
- Abstract(参考訳): lidarによる車両ポーズ推定は、自動運転の知覚技術において不可欠である。
しかし,LiDAR点雲の不完全観測と空間性のため,既存のポーズ推定手法を用いて3次元LiDARに基づく良好なポーズ抽出を実現することは困難である。
さらに、リアルタイム性能要求により、ポーズ推定タスクの難易度がさらに向上する。
本稿では,新しい凸殻型車両ポーズ推定法を提案する。
抽出した3dクラスタを凸殻に縮小し、計算負荷を低減し、輪郭情報を保持する。
そして、探索に基づくアルゴリズムに対して、最小閉塞面積に基づく新しい基準を開発し、正確なポーズ推定を実現する。
この基準により、提案アルゴリズムは特に障害物回避に適している。
提案アルゴリズムは,工業団地で取得したKITTIデータセットと手動ラベル付きデータセットで検証される。
その結果,提案手法は実時間速度を維持しつつ,最先端のポーズ推定手法よりも精度が良いことがわかった。
関連論文リスト
- OPUS: Occupancy Prediction Using a Sparse Set [64.60854562502523]
学習可能なクエリの集合を用いて、占有された場所とクラスを同時に予測するフレームワークを提案する。
OPUSには、モデルパフォーマンスを高めるための非自明な戦略が組み込まれている。
最も軽量なモデルではOcc3D-nuScenesデータセットの2倍 FPS に優れたRayIoUが得られる一方、最も重いモデルは6.1 RayIoUを上回ります。
論文 参考訳(メタデータ) (2024-09-14T07:44:22Z) - iComMa: Inverting 3D Gaussian Splatting for Camera Pose Estimation via Comparing and Matching [14.737266480464156]
コンピュータビジョンにおける6次元カメラのポーズ推定問題に対処するため,iComMaという手法を提案する。
3次元ガウススプラッティング(3DGS)の反転による高精度カメラポーズ推定法を提案する。
論文 参考訳(メタデータ) (2023-12-14T15:31:33Z) - P2O-Calib: Camera-LiDAR Calibration Using Point-Pair Spatial Occlusion
Relationship [1.6921147361216515]
本研究では,3次元空間における閉塞関係を用いた2次元3次元エッジポイント抽出に基づく新たなターゲットレスキャリブレーション手法を提案する。
本手法は,高画質カメラ-LiDARキャリブレーションによる実用的応用に寄与する,低誤差かつ高ロバスト性を実現する。
論文 参考訳(メタデータ) (2023-11-04T14:32:55Z) - A Simple Framework for 3D Occupancy Estimation in Autonomous Driving [16.605853706182696]
本稿では,CNNをベースとした3次元占有率推定のための重要な要素をいくつか明らかにするフレームワークを提案する。
また,3次元占有率推定と,単眼深度推定や3次元再構成などの関連課題との関係についても検討した。
論文 参考訳(メタデータ) (2023-03-17T15:57:14Z) - 3D Harmonic Loss: Towards Task-consistent and Time-friendly 3D Object
Detection on Edge for Intelligent Transportation System [28.55894241049706]
本稿では,ポイントクラウドに基づく不整合予測を緩和する3次元高調波損失関数を提案する。
提案手法はベンチマークモデルよりも性能が大幅に向上する。
私たちのコードはオープンソースで公開されています。
論文 参考訳(メタデータ) (2022-11-07T10:11:48Z) - On Triangulation as a Form of Self-Supervision for 3D Human Pose
Estimation [57.766049538913926]
ラベル付きデータが豊富である場合, 単一画像からの3次元ポーズ推定に対する改良されたアプローチは, 極めて効果的である。
最近の注目の多くは、セミと(あるいは)弱い教師付き学習に移行している。
本稿では,多視点の幾何学的制約を,識別可能な三角測量を用いて課し,ラベルがない場合の自己監督の形式として用いることを提案する。
論文 参考訳(メタデータ) (2022-03-29T19:11:54Z) - Roadside Lidar Vehicle Detection and Tracking Using Range And Intensity
Background Subtraction [0.0]
本稿では,2つの教師なし学習アルゴリズムを組み合わせた道路側LiDAR物体検出手法を提案する。
この手法は商用トラフィックデータ収集プラットフォームに対して検証された。
論文 参考訳(メタデータ) (2022-01-13T00:54:43Z) - Uncertainty-Aware Camera Pose Estimation from Points and Lines [101.03675842534415]
Perspective-n-Point-and-Line (Pn$PL) は、2D-3D特徴座標の3Dモデルに関して、高速で正確で堅牢なカメラローカライゼーションを目指している。
論文 参考訳(メタデータ) (2021-07-08T15:19:36Z) - SLPC: a VRNN-based approach for stochastic lidar prediction and
completion in autonomous driving [63.87272273293804]
VRNN(Variiational Recurrent Neural Networks)と呼ばれる生成モデルに基づく新しいLiDAR予測フレームワークを提案する。
提案手法は,フレーム内の奥行きマップを空間的に塗り替えることで,スパースデータを扱う際の従来のビデオ予測フレームワークの限界に対処できる。
VRNNのスパースバージョンとラベルを必要としない効果的な自己監督型トレーニング方法を紹介します。
論文 参考訳(メタデータ) (2021-02-19T11:56:44Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。