論文の概要: CalibDNN: Multimodal Sensor Calibration for Perception Using Deep Neural
Networks
- arxiv url: http://arxiv.org/abs/2103.14793v1
- Date: Sat, 27 Mar 2021 02:43:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-03 14:41:44.900049
- Title: CalibDNN: Multimodal Sensor Calibration for Perception Using Deep Neural
Networks
- Title(参考訳): CalibDNN:ディープニューラルネットワークを用いた知覚のためのマルチモーダルセンサキャリブレーション
- Authors: Ganning Zhao, Jiesi Hu, Suya You and C.-C. Jay Kuo
- Abstract要約: 本稿では,マルチモーダルセンサ,特にLiDAR-Cameraペア間の正確な校正のための新しいディープラーニング駆動技術(CalibDNN)を提案する。
全体の処理は、単一のモデルと単一のイテレーションで完全に自動です。
異なる手法と異なるデータセットに対する広範な実験の結果は、最先端の性能を示している。
- 参考スコア(独自算出の注目度): 27.877734292570967
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current perception systems often carry multimodal imagers and sensors such as
2D cameras and 3D LiDAR sensors. To fuse and utilize the data for downstream
perception tasks, robust and accurate calibration of the multimodal sensor data
is essential. We propose a novel deep learning-driven technique (CalibDNN) for
accurate calibration among multimodal sensor, specifically LiDAR-Camera pairs.
The key innovation of the proposed work is that it does not require any
specific calibration targets or hardware assistants, and the entire processing
is fully automatic with a single model and single iteration. Results comparison
among different methods and extensive experiments on different datasets
demonstrates the state-of-the-art performance.
- Abstract(参考訳): 現在の知覚システムは、しばしば2Dカメラや3D LiDARセンサーのようなマルチモーダル・イメージとセンサーを搭載している。
下流知覚課題のためのデータを融合利用するために、マルチモーダルセンサデータのロバストで正確なキャリブレーションが不可欠である。
本稿では,マルチモーダルセンサ,特にLiDAR-Cameraペア間の正確な校正のための新しいディープラーニング駆動技術(CalibDNN)を提案する。
提案した研究の重要な革新は、特定のキャリブレーションターゲットやハードウェアアシスタントを必要とせず、処理全体を1つのモデルと1つのイテレーションで完全に自動化することである。
異なる手法と異なるデータセットに対する広範な実験の結果は、最先端の性能を示している。
関連論文リスト
- SOAC: Spatio-Temporal Overlap-Aware Multi-Sensor Calibration using
Neural Radiance Fields [5.113388730604524]
自律運転のような急速に進化する領域では、動作精度と安定性を確保するために、異なるモードの複数のセンサーを使用することが不可欠である。
各センサが提供した情報を単一の共通フレームで正確に活用するためには、これらのセンサを正確に校正することが不可欠である。
我々は、共通の表現において異なるモダリティを表現するために、ニューラルラジアンス場(Neural Radiance Fields)の能力を利用する。
論文 参考訳(メタデータ) (2023-11-27T13:25:47Z) - Multi-Modal Multi-Task (3MT) Road Segmentation [0.8287206589886879]
我々は、多くのSOTA作業で通常行われているように、代わりに生のセンサー入力を使用することに重点を置いており、高い事前処理コストを必要とするアーキテクチャを活用している。
本研究では,複数センサからのデータをマルチタスク学習アーキテクチャに組み込むことにより,道路セグメンテーションの費用対効果,高精度なソリューションを提案する。
論文 参考訳(メタデータ) (2023-08-23T08:15:15Z) - Multi-Modal 3D Object Detection by Box Matching [109.43430123791684]
マルチモーダル3次元検出のためのボックスマッチング(FBMNet)による新しいフュージョンネットワークを提案する。
3Dオブジェクトと2Dオブジェクトの提案を学習することで、ROI特徴を組み合わせることで、検出のための融合を効果的に行うことができる。
論文 参考訳(メタデータ) (2023-05-12T18:08:51Z) - SST-Calib: Simultaneous Spatial-Temporal Parameter Calibration between
LIDAR and Camera [26.59231069298659]
カメラLIDARスイートの校正における幾何学的パラメータと時間的パラメータを共同で推定するセグメンテーションベースのフレームワークを提案する。
提案アルゴリズムは,KITTIデータセット上でテストし,幾何学的パラメータと時間的パラメータの正確なリアルタイムキャリブレーションを示す。
論文 参考訳(メタデータ) (2022-07-08T06:21:52Z) - Learning Online Multi-Sensor Depth Fusion [100.84519175539378]
SenFuNetは、センサ固有のノイズと外れ値統計を学習するディープフュージョンアプローチである。
実世界のCoRBSとScene3Dデータセットで様々なセンサーの組み合わせで実験を行う。
論文 参考訳(メタデータ) (2022-04-07T10:45:32Z) - Perception-aware Multi-sensor Fusion for 3D LiDAR Semantic Segmentation [59.42262859654698]
3Dセマンティックセグメンテーションは、自動運転やロボット工学など、多くのアプリケーションにおいてシーン理解において重要である。
既存の融合法は、2つのモードの差が大きいため、有望な性能を達成できない。
本研究では,知覚認識型マルチセンサフュージョン(PMF)と呼ばれる協調融合方式について検討する。
論文 参考訳(メタデータ) (2021-06-21T10:47:26Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - Infrastructure-based Multi-Camera Calibration using Radial Projections [117.22654577367246]
パターンベースのキャリブレーション技術は、カメラの内在を個別にキャリブレーションするために使用することができる。
Infrastucture-based calibration techniqueはSLAMやStructure-from-Motionで事前に構築した3Dマップを用いて外部情報を推定することができる。
本稿では,インフラストラクチャベースのアプローチを用いて,マルチカメラシステムをスクラッチから完全にキャリブレーションすることを提案する。
論文 参考訳(メタデータ) (2020-07-30T09:21:04Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。