論文の概要: Radar Voxel Fusion for 3D Object Detection
- arxiv url: http://arxiv.org/abs/2106.14087v1
- Date: Sat, 26 Jun 2021 20:34:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-29 18:08:26.929377
- Title: Radar Voxel Fusion for 3D Object Detection
- Title(参考訳): 3次元物体検出のためのレーダーボクセル融合
- Authors: Felix Nobis, Ehsan Shafiei, Phillip Karle, Johannes Betz and Markus
Lienkamp
- Abstract要約: 本稿では,3次元物体検出のための低レベルセンサ融合ネットワークを開発する。
レーダーセンサーの融合は、雨や夜景のような裂け目状態において特に有益である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automotive traffic scenes are complex due to the variety of possible
scenarios, objects, and weather conditions that need to be handled. In contrast
to more constrained environments, such as automated underground trains,
automotive perception systems cannot be tailored to a narrow field of specific
tasks but must handle an ever-changing environment with unforeseen events. As
currently no single sensor is able to reliably perceive all relevant activity
in the surroundings, sensor data fusion is applied to perceive as much
information as possible. Data fusion of different sensors and sensor modalities
on a low abstraction level enables the compensation of sensor weaknesses and
misdetections among the sensors before the information-rich sensor data are
compressed and thereby information is lost after a sensor-individual object
detection. This paper develops a low-level sensor fusion network for 3D object
detection, which fuses lidar, camera, and radar data. The fusion network is
trained and evaluated on the nuScenes data set. On the test set, fusion of
radar data increases the resulting AP (Average Precision) detection score by
about 5.1% in comparison to the baseline lidar network. The radar sensor fusion
proves especially beneficial in inclement conditions such as rain and night
scenes. Fusing additional camera data contributes positively only in
conjunction with the radar fusion, which shows that interdependencies of the
sensors are important for the detection result. Additionally, the paper
proposes a novel loss to handle the discontinuity of a simple yaw
representation for object detection. Our updated loss increases the detection
and orientation estimation performance for all sensor input configurations. The
code for this research has been made available on GitHub.
- Abstract(参考訳): 自動車の交通シーンは、さまざまなシナリオ、オブジェクト、および処理が必要な気象条件のために複雑である。
自動化された地下列車のようなより制約のある環境とは対照的に、自動車の認識システムは特定のタスクの狭い分野に合わせて調整することはできない。
現在、周囲のすべての活動を確実に知覚できるセンサは存在しないため、センサデータ融合は可能な限り多くの情報を知覚するために適用される。
異なるセンサと低抽象化レベルでのセンサモダリティのデータ融合により、情報豊富なセンサデータが圧縮される前にセンサ間のセンサーの弱点や誤検出を補償することができ、センサ個別のオブジェクト検出後に情報が失われる。
本稿では,lidar,カメラ,レーダーデータを融合する3次元物体検出のための低レベルセンサ融合ネットワークを開発した。
核融合ネットワークは、nuScenesデータセットに基づいて訓練され評価される。
テストセットでは、レーダデータの融合によって得られたap(平均精度)検出スコアがベースラインlidarネットワークと比較して約5.1%向上する。
レーダーセンサーの融合は、雨や夜景のような裂け目状態において特に有益である。
追加のカメラデータを使用すると、レーダーフュージョンと組み合わせることで、検出結果にセンサーの相互依存性が重要であることを示す。
さらに,オブジェクト検出のための単純なyaw表現の不連続性を扱うための新しい損失を提案する。
最新の損失により,センサ入力構成の検出と方向推定性能が向上した。
この研究のコードはGitHubで公開されている。
関連論文リスト
- Multi-Modal 3D Object Detection by Box Matching [109.43430123791684]
マルチモーダル3次元検出のためのボックスマッチング(FBMNet)による新しいフュージョンネットワークを提案する。
3Dオブジェクトと2Dオブジェクトの提案を学習することで、ROI特徴を組み合わせることで、検出のための融合を効果的に行うことができる。
論文 参考訳(メタデータ) (2023-05-12T18:08:51Z) - Multimodal Dataset from Harsh Sub-Terranean Environment with Aerosol
Particles for Frontier Exploration [55.41644538483948]
本稿では, エアロゾル粒子を用いた過酷で非構造的な地下環境からのマルチモーダルデータセットを提案する。
ロボットオペレーティング・システム(ROS)フォーマットのすべてのオンボードセンサーから、同期された生データ計測を含んでいる。
本研究の焦点は、時間的・空間的なデータの多様性を捉えることだけでなく、取得したデータに厳しい条件が及ぼす影響を示すことである。
論文 参考訳(メタデータ) (2023-04-27T20:21:18Z) - On the Importance of Accurate Geometry Data for Dense 3D Vision Tasks [61.74608497496841]
不正確または破損したデータのトレーニングは、モデルバイアスとハマーズ一般化能力を誘導する。
本稿では,深度推定と再構成における高密度3次元視覚課題に対するセンサ誤差の影響について検討する。
論文 参考訳(メタデータ) (2023-03-26T22:32:44Z) - Edge-Aided Sensor Data Sharing in Vehicular Communication Networks [8.67588704947974]
車両・車間通信と車両・車間通信を併用した車両ネットワークにおけるセンサデータ共有と融合を考察する。
本稿では、エッジサーバが車両からセンサ計測データを収集・キャッシュするBidirectional Feedback Noise Estimation (BiFNoE) 手法を提案する。
認識精度は平均80%向上し, アップリンクは12kbps, ダウンリンク帯域は28kbpsであった。
論文 参考訳(メタデータ) (2022-06-17T16:30:56Z) - Learning Online Multi-Sensor Depth Fusion [100.84519175539378]
SenFuNetは、センサ固有のノイズと外れ値統計を学習するディープフュージョンアプローチである。
実世界のCoRBSとScene3Dデータセットで様々なセンサーの組み合わせで実験を行う。
論文 参考訳(メタデータ) (2022-04-07T10:45:32Z) - Multi-Modal 3D Object Detection in Autonomous Driving: a Survey [10.913958563906931]
自動運転車には、堅牢で正確な環境認識を行うための一連のセンサーが備わっている。
センサーの数や種類が増加し続けており、それらを組み合わせることで知覚を向上させることが自然のトレンドになりつつある。
この調査では、複数のセンサデータソースを利用する、最近の核融合に基づく3D検出ディープラーニングモデルについてレビューする。
論文 参考訳(メタデータ) (2021-06-24T02:52:12Z) - Complex-valued Convolutional Neural Networks for Enhanced Radar Signal
Denoising and Interference Mitigation [73.0103413636673]
本稿では,レーダセンサ間の相互干渉問題に対処するために,複合価値畳み込みニューラルネットワーク(CVCNN)を提案する。
CVCNNはデータ効率を高め、ネットワークトレーニングを高速化し、干渉除去時の位相情報の保存を大幅に改善する。
論文 参考訳(メタデータ) (2021-04-29T10:06:29Z) - On the Role of Sensor Fusion for Object Detection in Future Vehicular
Networks [25.838878314196375]
異なるセンサの組み合わせが車両の移動・運転環境の検出にどのように影響するかを評価します。
最終的な目標は、チャネルに分散するデータの量を最小限に抑える最適な設定を特定することです。
論文 参考訳(メタデータ) (2021-04-23T18:58:37Z) - YOdar: Uncertainty-based Sensor Fusion for Vehicle Detection with Camera
and Radar Sensors [4.396860522241306]
本稿では,カメラとレーダデータとのセンサ融合のための不確実性に基づく手法を提案する。
実験では、YOLOv3オブジェクト検出ネットワークと、カスタマイズされた1D$レーダセグメンテーションネットワークを組み合わせる。
実験の結果,この不確実性認識融合のアプローチは単一センサのベースラインに比べて性能が著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-10-07T10:40:02Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z) - A Deep Learning-based Radar and Camera Sensor Fusion Architecture for
Object Detection [0.0]
本研究の目的は,現在の2次元物体検出ネットワークを,カメラデータとスパースレーダデータをネットワーク層内に投影することによって拡張することである。
提案するCameraRadarFusionNet(CRF-Net)は,センサデータの融合が検出結果に最も有用であるレベルを自動的に学習する。
Dropoutにインスパイアされたトレーニング戦略であるBlackInは、特定のセンサータイプに関する学習に焦点を当てている。
論文 参考訳(メタデータ) (2020-05-15T09:28:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。