論文の概要: A Deep Learning-based Radar and Camera Sensor Fusion Architecture for
Object Detection
- arxiv url: http://arxiv.org/abs/2005.07431v1
- Date: Fri, 15 May 2020 09:28:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 23:19:07.141871
- Title: A Deep Learning-based Radar and Camera Sensor Fusion Architecture for
Object Detection
- Title(参考訳): 物体検出のための深層学習型レーダ・カメラセンサ融合アーキテクチャ
- Authors: Felix Nobis, Maximilian Geisslinger, Markus Weber, Johannes Betz and
Markus Lienkamp
- Abstract要約: 本研究の目的は,現在の2次元物体検出ネットワークを,カメラデータとスパースレーダデータをネットワーク層内に投影することによって拡張することである。
提案するCameraRadarFusionNet(CRF-Net)は,センサデータの融合が検出結果に最も有用であるレベルを自動的に学習する。
Dropoutにインスパイアされたトレーニング戦略であるBlackInは、特定のセンサータイプに関する学習に焦点を当てている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object detection in camera images, using deep learning has been proven
successfully in recent years. Rising detection rates and computationally
efficient network structures are pushing this technique towards application in
production vehicles. Nevertheless, the sensor quality of the camera is limited
in severe weather conditions and through increased sensor noise in sparsely lit
areas and at night. Our approach enhances current 2D object detection networks
by fusing camera data and projected sparse radar data in the network layers.
The proposed CameraRadarFusionNet (CRF-Net) automatically learns at which level
the fusion of the sensor data is most beneficial for the detection result.
Additionally, we introduce BlackIn, a training strategy inspired by Dropout,
which focuses the learning on a specific sensor type. We show that the fusion
network is able to outperform a state-of-the-art image-only network for two
different datasets. The code for this research will be made available to the
public at: https://github.com/TUMFTM/CameraRadarFusionNet.
- Abstract(参考訳): 近年,ディープラーニングを用いたカメラ画像の物体検出が成功している。
検知率の上昇と計算効率のよいネットワーク構造は、この技術を量産車への適用に向けて推進している。
それでも、カメラのセンサー品質は、厳しい気象条件や、薄暗い場所や夜間のセンサーノイズの増加によって制限される。
本手法は,ネットワーク層にカメラデータとスパースレーダデータを投影することにより,現在の2次元物体検出ネットワークを強化する。
提案するCameraRadarFusionNet(CRF-Net)は,センサデータの融合が検出結果に最も有用であるレベルを自動的に学習する。
さらに,特定のセンサタイプに学習を集中した,ドロップアウトに触発されたトレーニング戦略であるblackinを紹介する。
融合ネットワークは、2つの異なるデータセットに対して最先端の画像専用ネットワークより優れていることを示す。
この研究のコードは、https://github.com/TUMFTM/CameraRadarFusionNet.comで公開される。
関連論文リスト
- Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - HVDetFusion: A Simple and Robust Camera-Radar Fusion Framework [10.931114142452895]
現在のSOTAアルゴリズムは、カメラとLidarセンサーを組み合わせており、Lidarの価格に制限されている。
HVDetFusionは、純粋なカメラデータを検出の入力としてサポートするマルチモーダル検出アルゴリズムである。
HVDetFusionは、すべてのカメラレーダー3Dオブジェクト検出器の中で、挑戦的なnuScenesテストセットに対して、最先端の67.4% NDSを新たに達成した。
論文 参考訳(メタデータ) (2023-07-21T03:08:28Z) - DensePose From WiFi [86.61881052177228]
WiFi信号の位相と振幅を24のヒト領域内の紫外線座標にマッピングするディープニューラルネットワークを開発した。
本モデルでは,複数の被験者の密集したポーズを,画像に基づくアプローチと同等の性能で推定することができる。
論文 参考訳(メタデータ) (2022-12-31T16:48:43Z) - CramNet: Camera-Radar Fusion with Ray-Constrained Cross-Attention for
Robust 3D Object Detection [12.557361522985898]
本稿では,カメラとレーダーの読み取りを3次元空間に融合させるカメラレーダマッチングネットワークCramNetを提案する。
本手法は, カメラやレーダセンサが車両内で突然故障した場合においても, 頑健な3次元物体検出を実現するセンサモダリティ・ドロップアウトによるトレーニングを支援する。
論文 参考訳(メタデータ) (2022-10-17T17:18:47Z) - Drone Detection and Tracking in Real-Time by Fusion of Different Sensing
Modalities [66.4525391417921]
マルチセンサ・ドローン検知システムの設計と評価を行う。
われわれのソリューションは、魚眼カメラを統合し、空の広い部分を監視し、他のカメラを興味ある対象に向けて操縦する。
このサーマルカメラは、たとえこのカメラが解像度が低いとしても、ビデオカメラと同じくらい実現可能なソリューションであることが示されている。
論文 参考訳(メタデータ) (2022-07-05T10:00:58Z) - Radar Voxel Fusion for 3D Object Detection [0.0]
本稿では,3次元物体検出のための低レベルセンサ融合ネットワークを開発する。
レーダーセンサーの融合は、雨や夜景のような裂け目状態において特に有益である。
論文 参考訳(メタデータ) (2021-06-26T20:34:12Z) - Sparse Auxiliary Networks for Unified Monocular Depth Prediction and
Completion [56.85837052421469]
コスト効率のよいセンサで得られたデータからシーン形状を推定することは、ロボットや自動運転車にとって鍵となる。
本稿では,1枚のRGB画像から,低コストな能動深度センサによるスパース計測により,深度を推定する問題について検討する。
sparse networks (sans) は,深さ予測と完了という2つのタスクをmonodepthネットワークで実行可能にする,新しいモジュールである。
論文 参考訳(メタデータ) (2021-03-30T21:22:26Z) - Multi-Modal Depth Estimation Using Convolutional Neural Networks [0.8701566919381223]
本論文では, 厳しい気象条件下での遠距離センサデータと単一カメラ画像からの深度予測について考察する。
ディープラーニングアプローチを適用して深度を推定するカメラ、レーダー、ライダーなど、さまざまなセンサーモダリティの重要性を探ります。
論文 参考訳(メタデータ) (2020-12-17T15:31:49Z) - YOdar: Uncertainty-based Sensor Fusion for Vehicle Detection with Camera
and Radar Sensors [4.396860522241306]
本稿では,カメラとレーダデータとのセンサ融合のための不確実性に基づく手法を提案する。
実験では、YOLOv3オブジェクト検出ネットワークと、カスタマイズされた1D$レーダセグメンテーションネットワークを組み合わせる。
実験の結果,この不確実性認識融合のアプローチは単一センサのベースラインに比べて性能が著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-10-07T10:40:02Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。