論文の概要: Cooperative Visual-LiDAR Extrinsic Calibration Technology for Intersection Vehicle-Infrastructure: A review
- arxiv url: http://arxiv.org/abs/2405.10132v1
- Date: Thu, 16 May 2024 14:29:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-17 14:02:34.208690
- Title: Cooperative Visual-LiDAR Extrinsic Calibration Technology for Intersection Vehicle-Infrastructure: A review
- Title(参考訳): インターセクション車両赤外構造のための協調的視覚-LiDAR極端校正技術:概観
- Authors: Xinyu Zhang, Yijin Xiong, Qianxin Qu, Renjie Wang, Xin Gao, Jing Liu, Shichun Guo, Jun Li,
- Abstract要約: 典型的な都市交差点のシナリオでは、車両とインフラの両方に視覚とLiDARセンサーが装備されている。
本稿では,車,道路,車両と道路の連携の観点から,マルチエンドカメラ・LiDAR装置の校正について検討し,解析する。
- 参考スコア(独自算出の注目度): 19.77659610529281
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the typical urban intersection scenario, both vehicles and infrastructures are equipped with visual and LiDAR sensors. By successfully integrating the data from vehicle-side and road monitoring devices, a more comprehensive and accurate environmental perception and information acquisition can be achieved. The Calibration of sensors, as an essential component of autonomous driving technology, has consistently drawn significant attention. Particularly in scenarios involving multiple sensors collaboratively perceiving and addressing localization challenges, the requirement for inter-sensor calibration becomes crucial. Recent years have witnessed the emergence of the concept of multi-end cooperation, where infrastructure captures and transmits surrounding environment information to vehicles, bolstering their perception capabilities while mitigating costs. However, this also poses technical complexities, underscoring the pressing need for diverse end calibration. Camera and LiDAR, the bedrock sensors in autonomous driving, exhibit expansive applicability. This paper comprehensively examines and analyzes the calibration of multi-end camera-LiDAR setups from vehicle, roadside, and vehicle-road cooperation perspectives, outlining their relevant applications and profound significance. Concluding with a summary, we present our future-oriented ideas and hypotheses.
- Abstract(参考訳): 典型的な都市交差点のシナリオでは、車両とインフラの両方に視覚とLiDARセンサーが装備されている。
車両側および道路監視装置からのデータをうまく統合することにより、より包括的で正確な環境認識と情報取得が可能になる。
センサーの校正は、自律運転技術の本質的な構成要素であり、常に大きな注目を集めている。
特に、複数のセンサが協調的に位置認識の課題を認識し、対処するシナリオでは、センサー間校正の要件が重要となる。
近年では、インフラが周囲の環境情報を収集し、車両に送信し、コストを軽減しながら認識能力を増強するマルチエンド協力の概念が出現している。
しかし、これは技術的な複雑さも引き起こし、様々なエンドキャリブレーションの必要性を浮き彫りにしている。
カメラとLiDARは、自動運転における岩盤センサーであり、広範囲の応用性を示している。
本稿では,車,路面,車両と道路の連携の観点から,多目的カメラ・LiDAR装置の校正を包括的に検討し,その応用と意義を概説する。
まとめると、我々は未来志向の考えと仮説を提示する。
関連論文リスト
- SKoPe3D: A Synthetic Dataset for Vehicle Keypoint Perception in 3D from
Traffic Monitoring Cameras [26.457695296042903]
道路側から見たユニークな合成車両キーポイントデータセットであるSKoPe3Dを提案する。
SKoPe3Dには150万以上の車両インスタンスと490万のキーポイントがある。
実験では、データセットの適用性と、合成データと実世界のデータ間の知識伝達の可能性を強調した。
論文 参考訳(メタデータ) (2023-09-04T02:57:30Z) - Smart Infrastructure: A Research Junction [5.172393727004225]
本稿では,ドイツ・アシャッフェンブルクの公的な市内交差点に位置する視覚センサ技術を備えたインテリジェントな研究基盤について紹介する。
マルチビューカメラシステムは、交通状況を監視し、道路利用者の行動を知覚する。
このシステムは、データ生成の研究、新しいHADセンサーシステム、アルゴリズム、人工知能(AI)トレーニング戦略の評価に使用される。
論文 参考訳(メタデータ) (2023-07-12T14:04:12Z) - The IMPTC Dataset: An Infrastructural Multi-Person Trajectory and
Context Dataset [4.413278371057897]
市内の交差点は、怪我や致命的な事故で最も重要な交通エリアである。
われわれは、ドイツのインテリジェントな公共都市交差点と視覚センサー技術を使用している。
得られたデータセットは8時間の計測データから構成される。
論文 参考訳(メタデータ) (2023-07-12T13:46:20Z) - Automated Static Camera Calibration with Intelligent Vehicles [58.908194559319405]
自動ジオレファレンスカメラキャリブレーションのためのロバストキャリブレーション法を提案する。
本手法では, フィルタ/RTK受信機と慣性測定ユニット(IMU)を組み合わせたキャリブレーション車両が必要である。
我々の手法は、インフラと車両の両方で記録された情報と人間との相互作用を一切必要としない。
論文 参考訳(メタデータ) (2023-04-21T08:50:52Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - Robust Perception Architecture Design for Automotive Cyber-Physical
Systems [4.226118870861363]
PASTAは、深層学習のグローバルな協調最適化と、信頼性の高い車両知覚のためのセンシングのためのフレームワークである。
PASTAがいかに堅牢で、車両固有の知覚アーキテクチャソリューションを見出すかを示す。
論文 参考訳(メタデータ) (2022-05-17T03:02:07Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - LIBRE: The Multiple 3D LiDAR Dataset [54.25307983677663]
We present LIBRE: LiDAR Benchmarking and Reference, a first-of-in-kind dataset with 10 different LiDAR sensor。
LIBREは、現在利用可能なLiDARを公平に比較するための手段を提供するために、研究コミュニティに貢献する。
また、既存の自動運転車やロボティクス関連のソフトウェアの改善も促進する。
論文 参考訳(メタデータ) (2020-03-13T06:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。