論文の概要: Automatic Spatial Calibration of Near-Field MIMO Radar With Respect to Optical Sensors
- arxiv url: http://arxiv.org/abs/2403.10981v1
- Date: Sat, 16 Mar 2024 17:24:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 20:46:34.646768
- Title: Automatic Spatial Calibration of Near-Field MIMO Radar With Respect to Optical Sensors
- Title(参考訳): 光センサを用いた近接場MIMOレーダの自動空間校正
- Authors: Vanessa Wirth, Johanna Bräunig, Danti Khouri, Florian Gutsche, Martin Vossiek, Tim Weyrich, Marc Stamminger,
- Abstract要約: 本稿では,光学RGB-DセンサとMIMOレーダの連成校正手法を提案する。
私たちのパイプラインは、自動目標検出と位置決めを可能にする、ベスポークキャリブレーションターゲットで構成されています。
我々は光学領域から2つの異なる深度センシング技術を用いてアプローチを検証する。
- 参考スコア(独自算出の注目度): 4.328226032204419
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite an emerging interest in MIMO radar, the utilization of its complementary strengths in combination with optical sensors has so far been limited to far-field applications, due to the challenges that arise from mutual sensor calibration in the near field. In fact, most related approaches in the autonomous industry propose target-based calibration methods using corner reflectors that have proven to be unsuitable for the near field. In contrast, we propose a novel, joint calibration approach for optical RGB-D sensors and MIMO radars that is designed to operate in the radar's near-field range, within decimeters from the sensors. Our pipeline consists of a bespoke calibration target, allowing for automatic target detection and localization, followed by the spatial calibration of the two sensor coordinate systems through target registration. We validate our approach using two different depth sensing technologies from the optical domain. The experiments show the efficiency and accuracy of our calibration for various target displacements, as well as its robustness of our localization in terms of signal ambiguities.
- Abstract(参考訳): MIMOレーダーへの関心が高まりつつあるにもかかわらず、光学センサと組み合わせた補完強度の利用は、近接場における相互センサの校正による課題のため、これまでは遠距離場に限られてきた。
実際、自律産業におけるほとんどの関連するアプローチは、近距離場に不適であることが証明されたコーナーリフレクタを用いたターゲットベースキャリブレーション手法を提案する。
対照的に,光学RGB-DセンサとMIMOレーダの連接校正手法を提案する。
我々のパイプラインは、自動目標検出と位置決めが可能なベスポークキャリブレーションターゲットと、ターゲット登録による2つのセンサ座標系の空間キャリブレーションで構成される。
我々は光学領域から2つの異なる深度センシング技術を用いてアプローチを検証する。
実験により, 種々の目標変位に対する校正の効率と精度, 信号のあいまいさの観点からの局所化の頑健さが示された。
関連論文リスト
- MAROON: A Framework for the Joint Characterization of Near-Field High-Resolution Radar and Optical Depth Imaging Techniques [4.816237933371206]
我々は、光学領域と電波領域の両方から深度イメージを特徴付けるというユニークな課題に挑戦する。
本研究では, 対象物, ジオメトリー, 物体間距離について, 深度測定の総合的な評価を行う。
すべてのオブジェクトの測定は、MAROONと呼ばれるマルチモーダルデータセットとして公開されます。
論文 参考訳(メタデータ) (2024-11-01T11:53:10Z) - SOAC: Spatio-Temporal Overlap-Aware Multi-Sensor Calibration using Neural Radiance Fields [10.958143040692141]
自律運転のような急速に進化する領域では、動作精度と安定性を確保するために、異なるモードの複数のセンサーを使用することが不可欠である。
各センサが提供した情報を単一の共通フレームで正確に活用するためには、これらのセンサを正確に校正することが不可欠である。
我々は、共通の表現において異なるモダリティを表現するために、ニューラルラジアンス場(Neural Radiance Fields)の能力を利用する。
論文 参考訳(メタデータ) (2023-11-27T13:25:47Z) - Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - Automated Automotive Radar Calibration With Intelligent Vehicles [73.15674960230625]
本稿では,自動車用レーダセンサの自動校正手法を提案する。
本手法では, 車両の外部改造を必要とせず, 自動走行車から得られる位置情報を利用する。
実地試験場からのデータを評価した結果,インフラセンサを自動で正確に校正できることが判明した。
論文 参考訳(メタデータ) (2023-06-23T07:01:10Z) - Vision Guided MIMO Radar Beamforming for Enhanced Vital Signs Detection
in Crowds [26.129503530877006]
本研究では,レーダ内のデジタルビームフォーミングを誘導するために,視覚センサを活用する新しいデュアルセンシングシステムを開発した。
キャリブレーションされた双対システムは、視野内における3次元空間で約2センチメートルの精度を75円×65円で、2メートルの範囲で達成する。
論文 参考訳(メタデータ) (2023-06-18T10:09:16Z) - Continuous Target-free Extrinsic Calibration of a Multi-Sensor System
from a Sequence of Static Viewpoints [0.0]
モバイルロボットアプリケーションは、プラットフォーム上の個々のセンサーの幾何学的位置に関する正確な情報を必要とする。
誤校正パラメータは、典型的なロボット推定タスクに悪影響を及ぼす。
本稿では,ロボットの動作中にキャリブレーションパラメータを連続的に推定する手法を提案する。
論文 参考訳(メタデータ) (2022-07-08T09:36:17Z) - Drone Detection and Tracking in Real-Time by Fusion of Different Sensing
Modalities [66.4525391417921]
マルチセンサ・ドローン検知システムの設計と評価を行う。
われわれのソリューションは、魚眼カメラを統合し、空の広い部分を監視し、他のカメラを興味ある対象に向けて操縦する。
このサーマルカメラは、たとえこのカメラが解像度が低いとしても、ビデオカメラと同じくらい実現可能なソリューションであることが示されている。
論文 参考訳(メタデータ) (2022-07-05T10:00:58Z) - Design of Sensor Fusion Driver Assistance System for Active Pedestrian
Safety [0.0]
本稿では,カメラと1次元光検出とオブジェクト検出のための距離(ライダー)センサを組み合わせたセンサ融合検出システムを提案する。
提案システムは,車両前方における歩行者や物体検出の高精度化を実現し,特殊環境に対するロバスト性が高い。
論文 参考訳(メタデータ) (2022-01-23T08:52:32Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z) - Deep Soft Procrustes for Markerless Volumetric Sensor Alignment [81.13055566952221]
本研究では、より堅牢なマルチセンサ空間アライメントを実現するために、マーカーレスデータ駆動対応推定を改善する。
我々は、幾何学的制約を終末的に典型的なセグメンテーションベースモデルに組み込み、対象のポーズ推定タスクと中間密な分類タスクをブリッジする。
実験により,マーカーベースの手法で同様の結果が得られ,マーカーレス手法よりも優れ,またキャリブレーション構造のポーズ変動にも頑健であることがわかった。
論文 参考訳(メタデータ) (2020-03-23T10:51:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。