論文の概要: Warping of Radar Data into Camera Image for Cross-Modal Supervision in
Automotive Applications
- arxiv url: http://arxiv.org/abs/2012.12809v1
- Date: Wed, 23 Dec 2020 17:12:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 18:17:26.816017
- Title: Warping of Radar Data into Camera Image for Cross-Modal Supervision in
Automotive Applications
- Title(参考訳): 自動車用クロスモーダル監視用カメラ画像へのレーダデータのワーピング
- Authors: Christopher Grimm, Tai Fei, Ernst Warsitz, Ridha Farhoud, Tobias
Breddermann, Reinhold Haeb-Umbach
- Abstract要約: 本稿では,レーダレンジドップラー(RD)スペクトルをカメラ画像に投影する新しい枠組みを提案する。
カメラ、ライダー、レーダーから供給される新しいシーンフロー推定アルゴリズムを提示し、ワーピング操作の精度を向上させる。
本フレームワークは,カメラデータからの指向性推定(DoA),ターゲット検出,セマンティックセグメンテーション,レーダパワー推定など,複数のアプリケーションで実証されている。
- 参考スコア(独自算出の注目度): 17.592974060001993
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we present a novel framework to project automotive radar
range-Doppler (RD) spectrum into camera image. The utilized warping operation
is designed to be fully differentiable, which allows error backpropagation
through the operation. This enables the training of neural networks (NN)
operating exclusively on RD spectrum by utilizing labels provided from camera
vision models. As the warping operation relies on accurate scene flow,
additionally, we present a novel scene flow estimation algorithm fed from
camera, lidar and radar, enabling us to improve the accuracy of the warping
operation. We demonstrate the framework in multiple applications like
direction-of-arrival (DoA) estimation, target detection, semantic segmentation
and estimation of radar power from camera data. Extensive evaluations have been
carried out for the DoA application and suggest superior quality for NN based
estimators compared to classical estimators. The novel scene flow estimation
approach is benchmarked against state-of-the-art scene flow algorithms and
outperforms them by roughly a third.
- Abstract(参考訳): 本稿では,自動車用レーダレンジドップラー(rd)スペクトルをカメラ画像に投影する新しい枠組みを提案する。
使用済みのワーピング操作は、操作を通じてエラーバックプロパゲーションを可能にするため、完全に微分可能なように設計されている。
これにより、カメラビジョンモデルから提供されるラベルを利用することで、RDスペクトルのみで動作するニューラルネットワーク(NN)のトレーニングが可能になる。
ウォーピング操作は正確なシーンフローに依存するため,カメラ,ライダー,レーダーから供給されるシーンフロー推定アルゴリズムを提案することにより,ウォーピング動作の精度を向上させることができる。
本フレームワークは,カメラデータからの指向性推定(DoA),ターゲット検出,セマンティックセグメンテーション,レーダパワー推定など,複数のアプリケーションで実証されている。
広範に評価を行った結果,従来の推定値と比較してNNベース推定値に優れた品質が示唆された。
新たなシーンフロー推定手法は,最先端のシーンフローアルゴリズムに対してベンチマークを行い,約3分の1の精度で評価する。
関連論文リスト
- Fully Convolutional One-Stage 3D Object Detection on LiDAR Range Images [96.66271207089096]
FCOS-LiDARは、自律走行シーンのLiDAR点雲のための完全な1段式3Dオブジェクト検出器である。
標準的な2Dコンボリューションを持つRVベースの3D検出器は、最先端のBEVベースの検出器と同等の性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-05-27T05:42:16Z) - Toward Data-Driven STAP Radar [23.333816677794115]
我々は、時空間適応処理(STAP)レーダーに対するデータ駆動アプローチを特徴付ける。
所定領域に可変強度のターゲットをランダムに配置することにより、受信レーダ信号の豊富なサンプルデータセットを生成する。
この領域内の各データサンプルに対して、ビームフォーマの出力パワーのレンジ、方位、および上昇のヒートマップテンソルを生成する。
空中に浮かぶシナリオでは、動くレーダーは、ビデオに似た、これらのタイムインデクシングされたイメージスタックのシーケンスを生成する。
論文 参考訳(メタデータ) (2022-01-26T02:28:13Z) - Rethinking Drone-Based Search and Rescue with Aerial Person Detection [79.76669658740902]
航空ドローンの映像の視覚検査は、現在土地捜索救助(SAR)活動に不可欠な部分である。
本稿では,この空中人物検出(APD)タスクを自動化するための新しいディープラーニングアルゴリズムを提案する。
本稿では,Aerial Inspection RetinaNet (AIR) アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-11-17T21:48:31Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - Full-Velocity Radar Returns by Radar-Camera Fusion [20.741391191916197]
本稿では、カメラ画像からの対応する光フローを用いて、ドップラー帰還のポイントワイド全速度推定法を提案する。
また、レーダ・カメラ対応を推定するニューラルネットワークを用いて、レーダ・リターンとカメラ画像の関連性にも対処する。
論文 参考訳(メタデータ) (2021-08-24T10:42:16Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z) - Multi-View Radar Semantic Segmentation [3.2093811507874768]
自動車用レーダーは、周囲の物体の特性を測定する安価なアクティブセンサーである。
レーダー生データのサイズと複雑さのため、シーン理解にはほとんど使われない。
我々は,複数の新しいアーキテクチャとそれに伴う損失を提案し,レンジアングル・ドップラーレーダテンソルの複数の"ビュー"を分析し,意味的にセグメンテーションする。
論文 参考訳(メタデータ) (2021-03-30T09:56:41Z) - RadarLoc: Learning to Relocalize in FMCW Radar [36.68888832365474]
6-DoFのグローバルポーズを直接推定できる,自己アテンションを備えた新しいエンドツーエンドニューラルネットワークであるRadarLocを提案する。
我々は最近リリースされた屋外データセットOxford Radar RobotCarに対するアプローチを検証する。
論文 参考訳(メタデータ) (2021-03-22T03:22:37Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z) - Radar Artifact Labeling Framework (RALF): Method for Plausible Radar
Detections in Datasets [2.5899040911480187]
粗いレーダ点雲のラベル付けのためのクロスセンサレーダアーチファクトラベルフレームワーク(RALF)を提案する。
RALFは、レーダーの生検出のための可視性ラベルを提供し、アーティファクトとターゲットを区別する。
半手動ラベル付き地上真理データセットの3.28cdot106$ポイントの誤差測定値を評価することにより,結果を検証する。
論文 参考訳(メタデータ) (2020-12-03T15:11:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。