論文の概要: YOdar: Uncertainty-based Sensor Fusion for Vehicle Detection with Camera
and Radar Sensors
- arxiv url: http://arxiv.org/abs/2010.03320v2
- Date: Mon, 23 Nov 2020 18:47:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 22:26:12.339624
- Title: YOdar: Uncertainty-based Sensor Fusion for Vehicle Detection with Camera
and Radar Sensors
- Title(参考訳): yodar: 不確実性に基づくカメラとレーダセンサによる車両検出のためのセンサ融合
- Authors: Kamil Kowol, Matthias Rottmann, Stefan Bracke, Hanno Gottschalk
- Abstract要約: 本稿では,カメラとレーダデータとのセンサ融合のための不確実性に基づく手法を提案する。
実験では、YOLOv3オブジェクト検出ネットワークと、カスタマイズされた1D$レーダセグメンテーションネットワークを組み合わせる。
実験の結果,この不確実性認識融合のアプローチは単一センサのベースラインに比べて性能が著しく向上することがわかった。
- 参考スコア(独自算出の注目度): 4.396860522241306
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we present an uncertainty-based method for sensor fusion with
camera and radar data. The outputs of two neural networks, one processing
camera and the other one radar data, are combined in an uncertainty aware
manner. To this end, we gather the outputs and corresponding meta information
for both networks. For each predicted object, the gathered information is
post-processed by a gradient boosting method to produce a joint prediction of
both networks. In our experiments we combine the YOLOv3 object detection
network with a customized $1D$ radar segmentation network and evaluate our
method on the nuScenes dataset. In particular we focus on night scenes, where
the capability of object detection networks based on camera data is potentially
handicapped. Our experiments show, that this approach of uncertainty aware
fusion, which is also of very modular nature, significantly gains performance
compared to single sensor baselines and is in range of specifically tailored
deep learning based fusion approaches.
- Abstract(参考訳): 本研究では,カメラとレーダデータとのセンサ融合のための不確実性に基づく手法を提案する。
1つの処理カメラともう1つのレーダーデータの2つのニューラルネットワークの出力は、不確実な認識方法で結合される。
この目的のために,両ネットワークの出力と対応するメタ情報を収集する。
各予測対象について、収集した情報を勾配促進法で後処理し、両ネットワークの合同予測を生成する。
我々の実験では、yolov3オブジェクト検出ネットワークと1d$レーダーセグメンテーションネットワークを組み合わせることで、nuscenesデータセット上での手法を評価する。
特に、カメラデータに基づく物体検出ネットワークの能力が潜在的に障害となる夜景に焦点を当てている。
実験の結果,本手法は非常にモジュール性が高く,単一センサのベースラインに比べて性能が著しく向上し,特に深層学習に基づくフュージョンアプローチが適していることがわかった。
関連論文リスト
- Cross-Domain Spatial Matching for Camera and Radar Sensor Data Fusion in Autonomous Vehicle Perception System [0.0]
本稿では,自律走行車認識システムにおける3次元物体検出のためのカメラとレーダーセンサの融合問題に対する新しいアプローチを提案する。
我々のアプローチは、ディープラーニングの最近の進歩に基づいており、両方のセンサーの強度を活用して物体検出性能を向上させる。
提案手法は単一センサ・ソリューションよりも優れた性能を実現し,他のトップレベルの融合手法と直接競合できることを示す。
論文 参考訳(メタデータ) (2024-04-25T12:04:31Z) - Multi-Task Cross-Modality Attention-Fusion for 2D Object Detection [6.388430091498446]
レーダとカメラデータの整合性を向上する2つの新しいレーダ前処理手法を提案する。
また,オブジェクト検出のためのMulti-Task Cross-Modality Attention-Fusion Network (MCAF-Net)を導入する。
我々のアプローチは、nuScenesデータセットにおける現在の最先端のレーダーカメラフュージョンベースのオブジェクト検出器よりも優れています。
論文 参考訳(メタデータ) (2023-07-17T09:26:13Z) - Multi-Modal 3D Object Detection by Box Matching [109.43430123791684]
マルチモーダル3次元検出のためのボックスマッチング(FBMNet)による新しいフュージョンネットワークを提案する。
3Dオブジェクトと2Dオブジェクトの提案を学習することで、ROI特徴を組み合わせることで、検出のための融合を効果的に行うことができる。
論文 参考訳(メタデータ) (2023-05-12T18:08:51Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Target-aware Dual Adversarial Learning and a Multi-scenario
Multi-Modality Benchmark to Fuse Infrared and Visible for Object Detection [65.30079184700755]
本研究は、物体検出のために異なるように見える赤外線と可視画像の融合の問題に対処する。
従来のアプローチでは、2つのモダリティの根底にある共通点を発見し、反復最適化またはディープネットワークによって共通空間に融合する。
本稿では、融合と検出の連立問題に対する二段階最適化の定式化を提案し、その後、核融合と一般的に使用される検出ネットワークのためのターゲット認識デュアル逆学習(TarDAL)ネットワークに展開する。
論文 参考訳(メタデータ) (2022-03-30T11:44:56Z) - TransFusion: Robust LiDAR-Camera Fusion for 3D Object Detection with
Transformers [49.689566246504356]
そこで本研究では,LiDAR-カメラ融合に対するソフトアソシエーション機構による堅牢な解であるTransFusionを提案する。
TransFusionは大規模データセット上で最先端のパフォーマンスを実現する。
提案手法を3次元トラッキングタスクに拡張し,nuScenesトラッキングのリーダーボードにおける第1位を達成する。
論文 参考訳(メタデータ) (2022-03-22T07:15:13Z) - CFTrack: Center-based Radar and Camera Fusion for 3D Multi-Object
Tracking [9.62721286522053]
本稿では,レーダとカメラセンサの融合に基づく共同物体検出と追跡のためのエンドツーエンドネットワークを提案する。
提案手法では,物体検出に中心型レーダカメラ融合アルゴリズムを用い,物体関連にグリーディアルゴリズムを用いる。
提案手法は,20.0AMOTAを達成し,ベンチマークにおける視覚ベースの3Dトラッキング手法よりも優れる,挑戦的なnuScenesデータセット上で評価する。
論文 参考訳(メタデータ) (2021-07-11T23:56:53Z) - Perception-aware Multi-sensor Fusion for 3D LiDAR Semantic Segmentation [59.42262859654698]
3Dセマンティックセグメンテーションは、自動運転やロボット工学など、多くのアプリケーションにおいてシーン理解において重要である。
既存の融合法は、2つのモードの差が大きいため、有望な性能を達成できない。
本研究では,知覚認識型マルチセンサフュージョン(PMF)と呼ばれる協調融合方式について検討する。
論文 参考訳(メタデータ) (2021-06-21T10:47:26Z) - On the Role of Sensor Fusion for Object Detection in Future Vehicular
Networks [25.838878314196375]
異なるセンサの組み合わせが車両の移動・運転環境の検出にどのように影響するかを評価します。
最終的な目標は、チャネルに分散するデータの量を最小限に抑える最適な設定を特定することです。
論文 参考訳(メタデータ) (2021-04-23T18:58:37Z) - Cross-Modality 3D Object Detection [63.29935886648709]
本稿では,3次元物体検出のための新しい2段階多モード融合ネットワークを提案する。
アーキテクチャ全体が2段階の融合を促進する。
KITTIデータセットを用いた実験により,提案したマルチステージ融合により,ネットワークがより良い表現を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-08-16T11:01:20Z) - A Deep Learning-based Radar and Camera Sensor Fusion Architecture for
Object Detection [0.0]
本研究の目的は,現在の2次元物体検出ネットワークを,カメラデータとスパースレーダデータをネットワーク層内に投影することによって拡張することである。
提案するCameraRadarFusionNet(CRF-Net)は,センサデータの融合が検出結果に最も有用であるレベルを自動的に学習する。
Dropoutにインスパイアされたトレーニング戦略であるBlackInは、特定のセンサータイプに関する学習に焦点を当てている。
論文 参考訳(メタデータ) (2020-05-15T09:28:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。