論文の概要: V2I-Calib: A Novel Calibration Approach for Collaborative Vehicle and Infrastructure LiDAR Systems
- arxiv url: http://arxiv.org/abs/2407.10195v2
- Date: Wed, 18 Sep 2024 07:26:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-19 22:53:23.221129
- Title: V2I-Calib: A Novel Calibration Approach for Collaborative Vehicle and Infrastructure LiDAR Systems
- Title(参考訳): V2I-Calib:コラボレーティブカーとインフラLiDARシステムのための新しい校正手法
- Authors: Qianxin Qu, Yijin Xiong, Guipeng Zhang, Xin Wu, Xiaohan Gao, Xin Gao, Hanyu Li, Shichun Guo, Guoying Zhang,
- Abstract要約: 本稿では,V2Iキャリブレーションに新たなアプローチを導入し,知覚対象間の空間的関連情報を活用する。
この手法の中心は、車両とインフラシステムによって識別されるターゲット間の相関を定量化する、イノベーティブなOIoU(Intersection over Union)計量である。
当社のアプローチでは,親和性行列の構築を通じて,車両とインフラのLiDARシステムの認識結果における共通目標の同定を行う。
- 参考スコア(独自算出の注目度): 19.919120489121987
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cooperative LiDAR systems integrating vehicles and road infrastructure, termed V2I calibration, exhibit substantial potential, yet their deployment encounters numerous challenges. A pivotal aspect of ensuring data accuracy and consistency across such systems involves the calibration of LiDAR units across heterogeneous vehicular and infrastructural endpoints. This necessitates the development of calibration methods that are both real-time and robust, particularly those that can ensure robust performance in urban canyon scenarios without relying on initial positioning values. Accordingly, this paper introduces a novel approach to V2I calibration, leveraging spatial association information among perceived objects. Central to this method is the innovative Overall Intersection over Union (oIoU) metric, which quantifies the correlation between targets identified by vehicle and infrastructure systems, thereby facilitating the real-time monitoring of calibration results. Our approach involves identifying common targets within the perception results of vehicle and infrastructure LiDAR systems through the construction of an affinity matrix. These common targets then form the basis for the calculation and optimization of extrinsic parameters. Comparative and ablation studies conducted using the DAIR-V2X dataset substantiate the superiority of our approach. For further insights and resources, our project repository is accessible at https://github.com/MassimoQu/v2i-calib.
- Abstract(参考訳): 車両と道路インフラを統合した共同LiDARシステムは、V2Iキャリブレーションと呼ばれ、大きな可能性を秘めているが、その展開は多くの課題に直面している。
このようなシステム間でのデータ精度と一貫性を確保するための重要な側面は、不均一な車両およびインフラの終端を越えてLiDARユニットを校正することである。
これは、特に初期位置決め値に頼ることなく、都市キャニオンのシナリオで堅牢な性能を確保することができるキャリブレーション手法の開発を必要とする。
そこで本研究では,V2Iキャリブレーションに新たなアプローチを導入し,知覚対象間の空間的関連情報を活用する。
この手法の中心は、車両とインフラシステムによって識別されるターゲット間の相関を定量化し、キャリブレーション結果のリアルタイムモニタリングを容易にする、革新的総合的連合間距離(oIoU)メートル法である。
当社のアプローチでは,親和性行列の構築を通じて,車両とインフラのLiDARシステムの認識結果における共通目標の同定を行う。
これらの共通ターゲットは、外生パラメータの計算と最適化の基礎を形成する。
DAIR-V2Xデータセットを用いて行った比較およびアブレーション研究は、我々のアプローチの優位性を裏付けるものである。
さらなる洞察とリソースについては、プロジェクトのリポジトリはhttps://github.com/MassimoQu/v2i-calib.comからアクセスできます。
関連論文リスト
- LiDAR-based End-to-end Temporal Perception for Vehicle-Infrastructure Cooperation [16.465037559349323]
LET-VIC(LDAR-based End-to-End Tracking framework for Vehicle-Temporal Cooperation)を紹介する。
LET-VICはV2X通信を利用して、車両とインフラの両方のセンサーから空間データと時間データを融合することで、時間知覚を高める。
V2X-Seq-SPDデータセットの実験では、LET-VICはベースラインモデルよりも優れており、少なくともmAPが13.7%、AMOTAが13.1%改善している。
論文 参考訳(メタデータ) (2024-11-22T13:34:29Z) - TLD-READY: Traffic Light Detection -- Relevance Estimation and Deployment Analysis [9.458657306918859]
効率的な交通信号検出は、自動運転車における知覚スタックの重要な構成要素である。
本研究は,先行研究の課題に対処しつつ,新たなディープラーニング検出システムを導入する。
本稿では,道路上の矢印マークを革新的に利用し,事前地図作成の必要性を解消する関連性推定システムを提案する。
論文 参考訳(メタデータ) (2024-09-11T14:12:44Z) - Accurate Cooperative Localization Utilizing LiDAR-equipped Roadside Infrastructure for Autonomous Driving [2.0499240875882]
LiDARは、センチメートルレベルの精度で車両のローカライズを容易にする。
これらの高精度な手法は、識別可能なマップ機能を持たない環境での信頼性上の課題に直面することが多い。
本稿では,道路側ユニット(RSU)と車両間通信(V2I)を併用して車両の自己位置決定を支援する手法を提案する。
論文 参考訳(メタデータ) (2024-07-11T10:44:42Z) - Handbook on Leveraging Lines for Two-View Relative Pose Estimation [82.72686460985297]
本稿では,画像ペア間の相対的なポーズを,点,線,およびそれらの一致をハイブリッド方式で共同で推定する手法を提案する。
我々のハイブリッドフレームワークは、すべての構成の利点を組み合わせて、挑戦的な環境で堅牢で正確な見積もりを可能にします。
論文 参考訳(メタデータ) (2023-09-27T21:43:04Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Automated Static Camera Calibration with Intelligent Vehicles [58.908194559319405]
自動ジオレファレンスカメラキャリブレーションのためのロバストキャリブレーション法を提案する。
本手法では, フィルタ/RTK受信機と慣性測定ユニット(IMU)を組み合わせたキャリブレーション車両が必要である。
我々の手法は、インフラと車両の両方で記録された情報と人間との相互作用を一切必要としない。
論文 参考訳(メタデータ) (2023-04-21T08:50:52Z) - TrajMatch: Towards Automatic Spatio-temporal Calibration for Roadside
LiDARs through Trajectory Matching [12.980324010888664]
我々は,道路沿いのLiDARを時間と空間の両方で自動調整できる最初のシステムであるTrajMatchを提案する。
実験の結果,TrajMatchは空間キャリブレーション誤差が10cm未満であり,時間キャリブレーション誤差が1.5ms未満であることがわかった。
論文 参考訳(メタデータ) (2023-02-04T12:27:01Z) - Analyzing Infrastructure LiDAR Placement with Realistic LiDAR [14.163886343824064]
V2X(V2X)協調知覚は注目されている。
インフラセンサの最適配置を見つける方法はめったに研究されていない。
本稿では,インフラセンサの最適設置位置を効率よく,効果的に検出できるパイプラインを提案する。
論文 参考訳(メタデータ) (2022-11-29T07:18:32Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z) - Robust Self-Supervised LiDAR Odometry via Representative Structure
Discovery and 3D Inherent Error Modeling [67.75095378830694]
そこで我々は,2段階のオドメトリ推定ネットワークを構築し,一連の部分領域変換を推定してエゴモーメントを求める。
本稿では,トレーニング,推論,マッピングフェーズにおける信頼できない構造の影響を軽減することを目的とする。
我々の2フレームのオードメトリーは、翻訳/回転誤差の点で、過去の芸術の状態を16%/12%上回っている。
論文 参考訳(メタデータ) (2022-02-27T12:52:27Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。