論文の概要: Lidar with Velocity: Motion Distortion Correction of Point Clouds from
Oscillating Scanning Lidars
- arxiv url: http://arxiv.org/abs/2111.09497v1
- Date: Thu, 18 Nov 2021 03:13:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-19 14:42:56.587279
- Title: Lidar with Velocity: Motion Distortion Correction of Point Clouds from
Oscillating Scanning Lidars
- Title(参考訳): 速度を有するライダー:振動走査ライダーからの点雲の運動歪み補正
- Authors: Wen Yang, Zheng Gong, Baifu Huang and Xiaoping Hong
- Abstract要約: 移動物体からのライダー点雲の歪みは、自律運転において重要な問題である。
グスタフソンをベースとしたライダーとカメラの融合は,全速度を推定し,ライダーの歪みを補正するために提案される。
このフレームワークは実際の道路データに基づいて評価され、融合法は従来のICP法やポイントクラウド法よりも優れている。
- 参考スコア(独自算出の注目度): 5.285472406047901
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lidar point cloud distortion from moving object is an important problem in
autonomous driving, and recently becomes even more demanding with the emerging
of newer lidars, which feature back-and-forth scanning patterns. Accurately
estimating moving object velocity would not only provide a tracking capability
but also correct the point cloud distortion with more accurate description of
the moving object. Since lidar measures the time-of-flight distance but with a
sparse angular resolution, the measurement is precise in the radial measurement
but lacks angularly. Camera on the other hand provides a dense angular
resolution. In this paper, Gaussian-based lidar and camera fusion is proposed
to estimate the full velocity and correct the lidar distortion. A probabilistic
Kalman-filter framework is provided to track the moving objects, estimate their
velocities and simultaneously correct the point clouds distortions. The
framework is evaluated on real road data and the fusion method outperforms the
traditional ICP-based and point-cloud only method. The complete working
framework is open-sourced
(https://github.com/ISEE-Technology/lidar-with-velocity) to accelerate the
adoption of the emerging lidars.
- Abstract(参考訳): 移動物体からのlidar点雲の歪みは、自動運転において重要な問題であり、最近は、バック・アンド・フォア・フォア・スキャンパターンを備えた新しいlidarの登場により、さらに需要が高まっている。
移動物体の速度を正確に推定することは、追跡能力を提供するだけでなく、移動物体のより正確な記述で点雲の歪みを補正する。
lidarは飛行時間を測定するが、偏角分解能を持つため、ラジアル測定では正確な測定を行うが、角度に欠ける。
一方、カメラは密集した角分解能を提供する。
本稿では,全速度を推定し,ライダー歪みを補正するために,ガウス系lidarとカメラ融合を提案する。
移動物体を追跡し、速度を推定し、点雲の歪みを同時に補正する確率的カルマンフィルタフレームワークが提供される。
このフレームワークは実際の道路データに基づいて評価され、融合法は従来のICP法やポイントクラウド法よりも優れている。
完全動作するフレームワークはオープンソースである(https://github.com/isee-technology/lidar-with-velocity)。
関連論文リスト
- StraightPCF: Straight Point Cloud Filtering [50.66412286723848]
ポイントクラウドフィルタリングは、基礎となるクリーンな表面を回復しながらノイズを取り除くことを目的とした、基本的な3Dビジョンタスクである。
我々は、ポイントクラウドフィルタリングのための新しいディープラーニングベースの方法であるStraightPCFを紹介する。
ノイズの多い点を直線に沿って移動させることで、離散化誤差を低減し、クリーン表面への高速な収束を保証する。
論文 参考訳(メタデータ) (2024-05-14T05:41:59Z) - Spatio-Temporal Bi-directional Cross-frame Memory for Distractor Filtering Point Cloud Single Object Tracking [2.487142846438629]
LIDARポイント内の1つのオブジェクトトラッキングは、コンピュータビジョンにおける重要なタスクである。
既存の手法は、ネットワーク経由の外観マッチングのみに依存するか、連続したフレームからの情報を利用するが、重大な課題に遭遇する。
我々は、これらの課題を緩和するために、STMD-Trackerという、革新的なクロスフレームバイテンポラルモーショントラッカーを設計する。
論文 参考訳(メタデータ) (2024-03-23T13:15:44Z) - A 5-Point Minimal Solver for Event Camera Relative Motion Estimation [47.45081895021988]
本稿では,直線パラメータと線形カメラ速度予測を推定し,複数の直線を考慮した場合の1つの平均線形速度に融合できる新しい最小5点解法を提案する。
本手法は,既存の閉形式解法が23%から70%しか達成できない線形速度の推定において,連続的に100%の成功率を達成する。
論文 参考訳(メタデータ) (2023-09-29T08:30:18Z) - Aligning Bird-Eye View Representation of Point Cloud Sequences using
Scene Flow [0.0]
低解像度の点雲は、その空間性のため、物体検出法では困難である。
本研究では,単一フレーム検出器がシーンフローを計算してBird-Eye View表現を修正できるプラグインモジュールを開発した。
論文 参考訳(メタデータ) (2023-05-04T15:16:21Z) - Correlating sparse sensing for large-scale traffic speed estimation: A
Laplacian-enhanced low-rank tensor kriging approach [76.45949280328838]
本稿では,Laplacian enhanced Low-rank tensor (LETC) フレームワークを提案する。
次に,提案したモデルをネットワークワイド・クリグにスケールアップするために,複数の有効な数値手法を用いて効率的な解アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-10-21T07:25:57Z) - ParticleSfM: Exploiting Dense Point Trajectories for Localizing Moving
Cameras in the Wild [57.37891682117178]
本稿では,一対の光流からの高密度対応に基づく動画の高密度間接構造抽出手法を提案する。
不規則点軌道データを処理するために,新しいニューラルネットワークアーキテクチャを提案する。
MPIシンテルデータセットを用いた実験により,我々のシステムはより正確なカメラ軌道を生成することがわかった。
論文 参考訳(メタデータ) (2022-07-19T09:19:45Z) - Cross-Camera Trajectories Help Person Retrieval in a Camera Network [124.65912458467643]
既存の手法では、純粋な視覚的マッチングや時間的制約を考慮することが多いが、カメラネットワークの空間情報は無視する。
本稿では,時間的情報と空間的情報を統合したクロスカメラ生成に基づく歩行者検索フレームワークを提案する。
本手法の有効性を検証するため,最初のカメラ横断歩行者軌跡データセットを構築した。
論文 参考訳(メタデータ) (2022-04-27T13:10:48Z) - FMODetect: Robust Detection and Trajectory Estimation of Fast Moving
Objects [110.29738581961955]
高速移動物体の検出と軌道推定のための最初の学習ベースアプローチを提案する。
提案手法は, 高速移動物体を軌道への切り離された距離関数として検出する。
シャープな外観推定のために,エネルギー最小化に基づくデブロワーリングを提案する。
論文 参考訳(メタデータ) (2020-12-15T11:05:34Z) - DroTrack: High-speed Drone-based Object Tracking Under Uncertainty [0.23204178451683263]
DroTrackは、ドローンがキャプチャしたビデオシーケンスのための高速なビジュアル単一オブジェクト追跡フレームワークである。
ファジィC平均に基づく効果的なオブジェクトセグメンテーションを実装した。
また、幾何角運動を利用して信頼度の高い物体スケールを推定する。
論文 参考訳(メタデータ) (2020-05-02T13:16:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。