論文の概要: Virtually increasing the measurement frequency of LIDAR sensor utilizing
a single RGB camera
- arxiv url: http://arxiv.org/abs/2302.05192v1
- Date: Fri, 10 Feb 2023 11:43:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-13 15:51:40.012246
- Title: Virtually increasing the measurement frequency of LIDAR sensor utilizing
a single RGB camera
- Title(参考訳): 単一RGBカメラを用いたLIDARセンサの測定周波数の仮想的増加
- Authors: Zoltan Rozsa and Tamas Sziranyi
- Abstract要約: 本研究は、モノカメラを用いてLIDARのフレームレートを実質的に向上させることを示唆している。
実測値と精度および類似性の観点から,大規模な公開データセット上での最先端性能を実現する。
- 参考スコア(独自算出の注目度): 1.3706331473063877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The frame rates of most 3D LIDAR sensors used in intelligent vehicles are
substantially lower than current cameras installed in the same vehicle. This
research suggests using a mono camera to virtually enhance the frame rate of
LIDARs, allowing the more frequent monitoring of dynamic objects in the
surroundings that move quickly. As a first step, dynamic object candidates are
identified and tracked in the camera frames. Following that, the LIDAR
measurement points of these items are found by clustering in the frustums of 2D
bounding boxes. Projecting these to the camera and tracking them to the next
camera frame can be used to create 3D-2D correspondences between different
timesteps. These correspondences between the last LIDAR frame and the actual
camera frame are used to solve the PnP (Perspective-n-Point) problem. Finally,
the estimated transformations are applied to the previously measured points to
generate virtual measurements. With the proposed estimation, if the ego
movement is known, not just static object position can be determined at
timesteps where camera measurement is available, but positions of dynamic
objects as well. We achieve state-of-the-art performance on large public
datasets in terms of accuracy and similarity to real measurements.
- Abstract(参考訳): インテリジェントな車両で使用されるほとんどの3D LIDARセンサーのフレームレートは、同じ車両に搭載されている現在のカメラよりもかなり低い。
本研究は、モノカメラを用いてLIDARのフレームレートを事実上向上させ、周囲の動的物体の高速な監視を可能にすることを示唆している。
第1ステップとして、ダイナミックオブジェクト候補を識別し、カメラフレーム内で追跡する。
その後、これらの項目のLIDAR測定ポイントは、2次元境界ボックスのフラストラムにクラスタリングすることによって得られる。
これらをカメラに投影し、次のカメラフレームに追跡することで、異なるタイムステップ間の3D-2D対応を作成することができる。
最後のLIDARフレームと実際のカメラフレームとの対応は、PnP(Perspective-n-Point)問題を解決するために使用される。
最後に、推定変換を予め測定した点に適用して仮想計測を行う。
提案手法では,エゴ運動が知られている場合,静止物体の位置がカメラ計測が可能な時間ステップで決定されるだけでなく,動的物体の位置も決定できる。
実測値と精度および類似性の観点から,大規模な公開データセット上での最先端性能を実現する。
関連論文リスト
- DATAP-SfM: Dynamic-Aware Tracking Any Point for Robust Structure from Motion in the Wild [85.03973683867797]
本稿では,スムーズなカメラ軌跡を推定し,野生のカジュアルビデオのための高密度点雲を得るための,簡潔でエレガントでロバストなパイプラインを提案する。
提案手法は,複雑な動的課題シーンにおいても,カメラポーズ推定による最先端性能を実現する。
論文 参考訳(メタデータ) (2024-11-20T13:01:16Z) - Line-based 6-DoF Object Pose Estimation and Tracking With an Event Camera [19.204896246140155]
イベントカメラは、高いダイナミックレンジ、低レイテンシ、動きのぼけに対するレジリエンスといった顕著な特性を持っている。
イベントカメラを用いた平面オブジェクトや非平面オブジェクトに対するラインベースロバストポーズ推定と追跡手法を提案する。
論文 参考訳(メタデータ) (2024-08-06T14:36:43Z) - Joint 3D Shape and Motion Estimation from Rolling Shutter Light-Field
Images [2.0277446818410994]
本研究では,ローリングシャッターセンサを備えた光界カメラで撮影した1枚の画像からシーンを3次元再構成する手法を提案する。
本手法は、光場に存在する3次元情報キューと、ローリングシャッター効果によって提供される動き情報を利用する。
本稿では,このセンサの撮像プロセスの汎用モデルと再投射誤差を最小化する2段階アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-02T15:08:18Z) - Delving into Motion-Aware Matching for Monocular 3D Object Tracking [81.68608983602581]
異なる時間軸に沿った物体の運動キューが3次元多物体追跡において重要であることが判明した。
3つの動き認識コンポーネントからなるフレームワークであるMoMA-M3Tを提案する。
我々はnuScenesとKITTIデータセットに関する広範な実験を行い、MoMA-M3Tが最先端の手法と競合する性能を発揮することを実証した。
論文 参考訳(メタデータ) (2023-08-22T17:53:58Z) - DORT: Modeling Dynamic Objects in Recurrent for Multi-Camera 3D Object
Detection and Tracking [67.34803048690428]
本稿では、この問題を解決するためにRecurrenT(DORT)の動的オブジェクトをモデル化することを提案する。
DORTは、重い計算負担を軽減する動き推定のために、オブジェクトワイズローカルボリュームを抽出する。
フレキシブルで実用的で、ほとんどのカメラベースの3Dオブジェクト検出器に差し込むことができる。
論文 参考訳(メタデータ) (2023-03-29T12:33:55Z) - DeepFusionMOT: A 3D Multi-Object Tracking Framework Based on
Camera-LiDAR Fusion with Deep Association [8.34219107351442]
本稿では,精度と速度の良好なトレードオフを実現するために,カメラ-LiDAR融合型MOT法を提案する。
提案手法は、追跡精度と処理速度の両方の観点から、最先端MOT法に対して明らかな利点を示す。
論文 参考訳(メタデータ) (2022-02-24T13:36:29Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - 3D-CVF: Generating Joint Camera and LiDAR Features Using Cross-View
Spatial Feature Fusion for 3D Object Detection [10.507404260449333]
本稿では,3次元物体検出のためのカメラとLiDARセンサの融合アーキテクチャを提案する。
提案した3D-CVFは,KITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2020-04-27T08:34:46Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z) - LIBRE: The Multiple 3D LiDAR Dataset [54.25307983677663]
We present LIBRE: LiDAR Benchmarking and Reference, a first-of-in-kind dataset with 10 different LiDAR sensor。
LIBREは、現在利用可能なLiDARを公平に比較するための手段を提供するために、研究コミュニティに貢献する。
また、既存の自動運転車やロボティクス関連のソフトウェアの改善も促進する。
論文 参考訳(メタデータ) (2020-03-13T06:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。