論文の概要: Multi-Task Cross-Modality Attention-Fusion for 2D Object Detection
- arxiv url: http://arxiv.org/abs/2307.08339v1
- Date: Mon, 17 Jul 2023 09:26:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 14:03:01.257470
- Title: Multi-Task Cross-Modality Attention-Fusion for 2D Object Detection
- Title(参考訳): 2次元物体検出のためのマルチタスククロスモーダルアテンションフュージョン
- Authors: Huawei Sun, Hao Feng, Georg Stettinger, Lorenzo Servadei, Robert Wille
- Abstract要約: レーダとカメラデータの整合性を向上する2つの新しいレーダ前処理手法を提案する。
また,オブジェクト検出のためのMulti-Task Cross-Modality Attention-Fusion Network (MCAF-Net)を導入する。
我々のアプローチは、nuScenesデータセットにおける現在の最先端のレーダーカメラフュージョンベースのオブジェクト検出器よりも優れています。
- 参考スコア(独自算出の注目度): 6.388430091498446
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate and robust object detection is critical for autonomous driving.
Image-based detectors face difficulties caused by low visibility in adverse
weather conditions. Thus, radar-camera fusion is of particular interest but
presents challenges in optimally fusing heterogeneous data sources. To approach
this issue, we propose two new radar preprocessing techniques to better align
radar and camera data. In addition, we introduce a Multi-Task Cross-Modality
Attention-Fusion Network (MCAF-Net) for object detection, which includes two
new fusion blocks. These allow for exploiting information from the feature maps
more comprehensively. The proposed algorithm jointly detects objects and
segments free space, which guides the model to focus on the more relevant part
of the scene, namely, the occupied space. Our approach outperforms current
state-of-the-art radar-camera fusion-based object detectors in the nuScenes
dataset and achieves more robust results in adverse weather conditions and
nighttime scenarios.
- Abstract(参考訳): 正確で堅牢な物体検出は、自動運転に不可欠である。
画像ベースの検出器は、悪天候下での視認性が低いために困難に直面している。
したがって、レーダー・カメラ融合は特に興味深いが、不均一なデータソースを最適に融合させる際の課題が提示される。
そこで本研究では,レーダーデータとカメラデータの整合性を向上させるための2つの新しいレーダー前処理手法を提案する。
さらに,オブジェクト検出のためのMulti-Task Cross-Modality Attention-Fusion Network (MCAF-Net)を導入する。
これにより、機能マップからの情報をより包括的に活用することができる。
提案アルゴリズムはオブジェクトとセグメントの自由空間を共同で検出し、モデルがシーンのより関連性の高い部分、すなわち占有空間に集中するように誘導する。
提案手法は,現在最先端のレーダカメラ融合型オブジェクト検出器をnuScenesデータセットで上回り,悪天候や夜間シナリオにおいてより堅牢な結果が得られる。
関連論文リスト
- MUFASA: Multi-View Fusion and Adaptation Network with Spatial Awareness for Radar Object Detection [3.1212590312985986]
レーダー点雲の空間は 正確な物体検出に 困難を生じさせます
本稿では,レーダポイント雲の包括的特徴抽出手法を提案する。
我々は、VoDデータセット上のレーダベース手法のmAPが50.24%である場合、最先端の結果を得る。
論文 参考訳(メタデータ) (2024-08-01T13:52:18Z) - ROFusion: Efficient Object Detection using Hybrid Point-wise
Radar-Optical Fusion [14.419658061805507]
本稿では,自律走行シナリオにおける物体検出のためのハイブリッドなポイントワイドレーダ・オプティカル融合手法を提案する。
このフレームワークは、マルチモーダルな特徴表現を学習するために統合されたレンジドップラースペクトルと画像の両方からの密集したコンテキスト情報から恩恵を受ける。
論文 参考訳(メタデータ) (2023-07-17T04:25:46Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - MVFusion: Multi-View 3D Object Detection with Semantic-aligned Radar and
Camera Fusion [6.639648061168067]
マルチビューレーダーカメラで融合した3Dオブジェクト検出は、より遠くの検知範囲と自律運転に有用な機能を提供する。
現在のレーダーとカメラの融合方式は、レーダー情報をカメラデータで融合するための種類の設計を提供する。
セマンティック・アライメント・レーダ機能を実現するための新しいマルチビューレーダカメラフュージョン法であるMVFusionを提案する。
論文 参考訳(メタデータ) (2023-02-21T08:25:50Z) - Bridging the View Disparity of Radar and Camera Features for Multi-modal
Fusion 3D Object Detection [6.959556180268547]
本稿では3次元物体検出にミリ波レーダとカメラセンサ融合を用いる方法について述べる。
より優れた特徴表現のための鳥眼ビュー(BEV)における特徴レベル融合を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2022-08-25T13:21:37Z) - Target-aware Dual Adversarial Learning and a Multi-scenario
Multi-Modality Benchmark to Fuse Infrared and Visible for Object Detection [65.30079184700755]
本研究は、物体検出のために異なるように見える赤外線と可視画像の融合の問題に対処する。
従来のアプローチでは、2つのモダリティの根底にある共通点を発見し、反復最適化またはディープネットワークによって共通空間に融合する。
本稿では、融合と検出の連立問題に対する二段階最適化の定式化を提案し、その後、核融合と一般的に使用される検出ネットワークのためのターゲット認識デュアル逆学習(TarDAL)ネットワークに展開する。
論文 参考訳(メタデータ) (2022-03-30T11:44:56Z) - TransFusion: Robust LiDAR-Camera Fusion for 3D Object Detection with
Transformers [49.689566246504356]
そこで本研究では,LiDAR-カメラ融合に対するソフトアソシエーション機構による堅牢な解であるTransFusionを提案する。
TransFusionは大規模データセット上で最先端のパフォーマンスを実現する。
提案手法を3次元トラッキングタスクに拡張し,nuScenesトラッキングのリーダーボードにおける第1位を達成する。
論文 参考訳(メタデータ) (2022-03-22T07:15:13Z) - LIF-Seg: LiDAR and Camera Image Fusion for 3D LiDAR Semantic
Segmentation [78.74202673902303]
本稿では,LiDAR分割のための粗大なLiDARとカメラフュージョンベースネットワーク(LIF-Seg)を提案する。
提案手法は,画像の文脈情報を完全に活用し,単純だが効果的な早期融合戦略を導入する。
これら2つのコンポーネントの協力により、効果的なカメラ-LiDAR融合が成功する。
論文 参考訳(メタデータ) (2021-08-17T08:53:11Z) - YOdar: Uncertainty-based Sensor Fusion for Vehicle Detection with Camera
and Radar Sensors [4.396860522241306]
本稿では,カメラとレーダデータとのセンサ融合のための不確実性に基づく手法を提案する。
実験では、YOLOv3オブジェクト検出ネットワークと、カスタマイズされた1D$レーダセグメンテーションネットワークを組み合わせる。
実験の結果,この不確実性認識融合のアプローチは単一センサのベースラインに比べて性能が著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-10-07T10:40:02Z) - Cross-Modality 3D Object Detection [63.29935886648709]
本稿では,3次元物体検出のための新しい2段階多モード融合ネットワークを提案する。
アーキテクチャ全体が2段階の融合を促進する。
KITTIデータセットを用いた実験により,提案したマルチステージ融合により,ネットワークがより良い表現を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-08-16T11:01:20Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。