論文の概要: CalibDNN: Multimodal Sensor Calibration for Perception Using Deep Neural
Networks
- arxiv url: http://arxiv.org/abs/2103.14793v1
- Date: Sat, 27 Mar 2021 02:43:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-03 14:41:44.900049
- Title: CalibDNN: Multimodal Sensor Calibration for Perception Using Deep Neural
Networks
- Title(参考訳): CalibDNN:ディープニューラルネットワークを用いた知覚のためのマルチモーダルセンサキャリブレーション
- Authors: Ganning Zhao, Jiesi Hu, Suya You and C.-C. Jay Kuo
- Abstract要約: 本稿では,マルチモーダルセンサ,特にLiDAR-Cameraペア間の正確な校正のための新しいディープラーニング駆動技術(CalibDNN)を提案する。
全体の処理は、単一のモデルと単一のイテレーションで完全に自動です。
異なる手法と異なるデータセットに対する広範な実験の結果は、最先端の性能を示している。
- 参考スコア(独自算出の注目度): 27.877734292570967
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current perception systems often carry multimodal imagers and sensors such as
2D cameras and 3D LiDAR sensors. To fuse and utilize the data for downstream
perception tasks, robust and accurate calibration of the multimodal sensor data
is essential. We propose a novel deep learning-driven technique (CalibDNN) for
accurate calibration among multimodal sensor, specifically LiDAR-Camera pairs.
The key innovation of the proposed work is that it does not require any
specific calibration targets or hardware assistants, and the entire processing
is fully automatic with a single model and single iteration. Results comparison
among different methods and extensive experiments on different datasets
demonstrates the state-of-the-art performance.
- Abstract(参考訳): 現在の知覚システムは、しばしば2Dカメラや3D LiDARセンサーのようなマルチモーダル・イメージとセンサーを搭載している。
下流知覚課題のためのデータを融合利用するために、マルチモーダルセンサデータのロバストで正確なキャリブレーションが不可欠である。
本稿では,マルチモーダルセンサ,特にLiDAR-Cameraペア間の正確な校正のための新しいディープラーニング駆動技術(CalibDNN)を提案する。
提案した研究の重要な革新は、特定のキャリブレーションターゲットやハードウェアアシスタントを必要とせず、処理全体を1つのモデルと1つのイテレーションで完全に自動化することである。
異なる手法と異なるデータセットに対する広範な実験の結果は、最先端の性能を示している。
関連論文リスト
- MSSIDD: A Benchmark for Multi-Sensor Denoising [55.41612200877861]
我々は,マルチセンサSIDDデータセットという新しいベンチマークを導入する。これは,認知モデルのセンサ伝達性を評価するために設計された,最初の生ドメインデータセットである。
そこで本研究では,センサに不変な特徴を認知モデルで学習することのできるセンサ一貫性トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-18T13:32:59Z) - Multimodal Object Detection using Depth and Image Data for Manufacturing Parts [1.0819408603463427]
本研究では,赤緑色(RGB)カメラと3Dポイントクラウドセンサを組み合わせたマルチセンサシステムを提案する。
RGBと深度データの両方を処理するために,新しいマルチモーダルオブジェクト検出法を開発した。
その結果、マルチモーダルモデルは、確立されたオブジェクト検出基準に基づいて、深さのみのベースラインとRGBのみのベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2024-11-13T22:43:15Z) - UniCal: Unified Neural Sensor Calibration [32.7372115947273]
自動運転車(SDV)には、LiDARとカメラの正確な校正が必要である。
従来のキャリブレーション手法では、制御され構造化されたシーンでキャプチャされたフィデューシャルを利用し、処理を最適化するために対応を計算する。
我々は、複数のLiDARとカメラを備えたSDVを強制的に校正する統合フレームワークUniCalを提案する。
論文 参考訳(メタデータ) (2024-09-27T17:56:04Z) - Sparse Points to Dense Clouds: Enhancing 3D Detection with Limited LiDAR Data [68.18735997052265]
単分子と点雲に基づく3次元検出の利点を組み合わせたバランスの取れたアプローチを提案する。
本手法では,低コストで低解像度のセンサから得られる3Dポイントを少数必要としている。
3次元検出の精度は最先端の単分子検出法と比較して20%向上する。
論文 参考訳(メタデータ) (2024-04-10T03:54:53Z) - SOAC: Spatio-Temporal Overlap-Aware Multi-Sensor Calibration using Neural Radiance Fields [10.958143040692141]
自律運転のような急速に進化する領域では、動作精度と安定性を確保するために、異なるモードの複数のセンサーを使用することが不可欠である。
各センサが提供した情報を単一の共通フレームで正確に活用するためには、これらのセンサを正確に校正することが不可欠である。
我々は、共通の表現において異なるモダリティを表現するために、ニューラルラジアンス場(Neural Radiance Fields)の能力を利用する。
論文 参考訳(メタデータ) (2023-11-27T13:25:47Z) - Multi-Modal Multi-Task (3MT) Road Segmentation [0.8287206589886879]
我々は、多くのSOTA作業で通常行われているように、代わりに生のセンサー入力を使用することに重点を置いており、高い事前処理コストを必要とするアーキテクチャを活用している。
本研究では,複数センサからのデータをマルチタスク学習アーキテクチャに組み込むことにより,道路セグメンテーションの費用対効果,高精度なソリューションを提案する。
論文 参考訳(メタデータ) (2023-08-23T08:15:15Z) - Multi-Modal 3D Object Detection by Box Matching [109.43430123791684]
マルチモーダル3次元検出のためのボックスマッチング(FBMNet)による新しいフュージョンネットワークを提案する。
3Dオブジェクトと2Dオブジェクトの提案を学習することで、ROI特徴を組み合わせることで、検出のための融合を効果的に行うことができる。
論文 参考訳(メタデータ) (2023-05-12T18:08:51Z) - Learning Online Multi-Sensor Depth Fusion [100.84519175539378]
SenFuNetは、センサ固有のノイズと外れ値統計を学習するディープフュージョンアプローチである。
実世界のCoRBSとScene3Dデータセットで様々なセンサーの組み合わせで実験を行う。
論文 参考訳(メタデータ) (2022-04-07T10:45:32Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。