論文の概要: CoFF: Cooperative Spatial Feature Fusion for 3D Object Detection on
Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2009.11975v1
- Date: Thu, 24 Sep 2020 22:51:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 05:05:46.028255
- Title: CoFF: Cooperative Spatial Feature Fusion for 3D Object Detection on
Autonomous Vehicles
- Title(参考訳): CoFF:自律走行車における3次元物体検出のための協調的空間特徴融合
- Authors: Jingda Guo, Dominic Carrillo, Sihai Tang, Qi Chen, Qing Yang, Song Fu,
Xi Wang, Nannan Wang, Paparao Palacharla
- Abstract要約: CoFFは、自動運転車の検知精度と有効検出範囲の両方において、大幅な改善を実現している。
その結果,自動走行車における検出精度と有効検出範囲の両面で,CoFFは著しく向上していることがわかった。
- 参考スコア(独自算出の注目度): 20.333191597167847
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To reduce the amount of transmitted data, feature map based fusion is
recently proposed as a practical solution to cooperative 3D object detection by
autonomous vehicles. The precision of object detection, however, may require
significant improvement, especially for objects that are far away or occluded.
To address this critical issue for the safety of autonomous vehicles and human
beings, we propose a cooperative spatial feature fusion (CoFF) method for
autonomous vehicles to effectively fuse feature maps for achieving a higher 3D
object detection performance. Specially, CoFF differentiates weights among
feature maps for a more guided fusion, based on how much new semantic
information is provided by the received feature maps. It also enhances the
inconspicuous features corresponding to far/occluded objects to improve their
detection precision. Experimental results show that CoFF achieves a significant
improvement in terms of both detection precision and effective detection range
for autonomous vehicles, compared to previous feature fusion solutions.
- Abstract(参考訳): 送信データ量を削減するため, 自律走行車による協調3次元物体検出のための実用的ソリューションとして, 特徴マップベースの融合が提案されている。
しかし、オブジェクト検出の精度は、特に遠くにある、あるいは隠されているオブジェクトに対して、大幅に改善する必要があるかもしれない。
そこで本研究では,自律走行車と人間との協調的空間的特徴融合法(coff)を提案し,より高い3次元物体検出性能を実現するために,特徴マップを効果的に融合する。
特に、CoFFは、受信した特徴マップがどれだけ新しい意味情報を提供するかに基づいて、より誘導された融合のために特徴マップ間で重みを区別する。
また、遠近の物体に対応する不明瞭な特徴を強化し、検出精度を向上する。
実験結果から,CoFFは従来の機能融合ソリューションと比較して,自動走行車の検出精度と有効検出範囲の両方において有意な改善が得られた。
関連論文リスト
- Kaninfradet3D:A Road-side Camera-LiDAR Fusion 3D Perception Model based on Nonlinear Feature Extraction and Intrinsic Correlation [7.944126168010804]
AI支援運転の開発に伴い、エゴ車両の3D知覚タスクのための多くの手法が登場した。
グローバルな視点と広いセンシング範囲を提供する能力によって、道端の視点は発展する価値がある。
本稿では,特徴抽出と融合モジュールを最適化したKaninfradet3Dを提案する。
論文 参考訳(メタデータ) (2024-10-21T09:28:42Z) - Cross-Cluster Shifting for Efficient and Effective 3D Object Detection
in Autonomous Driving [69.20604395205248]
本稿では,自律運転における3次元物体検出のための3次元点検出モデルであるShift-SSDを提案する。
我々は、ポイントベース検出器の表現能力を解き放つために、興味深いクロスクラスタシフト操作を導入する。
我々は、KITTI、ランタイム、nuScenesデータセットに関する広範な実験を行い、Shift-SSDの最先端性能を実証した。
論文 参考訳(メタデータ) (2024-03-10T10:36:32Z) - An Empirical Analysis of Range for 3D Object Detection [70.54345282696138]
本稿では,長距離検出データセットArgoverse 2.0を用いた遠距離3次元検出の実験的検討を行った。
近接場LiDARの測定は、小さなボクセルによって密度が高く最適に符号化され、遠距離場の測定は疎く、大きなボクセルで符号化されている。
本研究では,33%の効率向上と3.2%のCDSの精度向上を図った。
論文 参考訳(メタデータ) (2023-08-08T05:29:26Z) - DeepFusion: A Robust and Modular 3D Object Detector for Lidars, Cameras
and Radars [2.2166853714891057]
本研究では,ライダー,カメラ,レーダーを異なる組み合わせで融合して3次元物体検出を行うモジュール型マルチモーダルアーキテクチャを提案する。
特殊特徴抽出器は各モードの利点を生かし、容易に交換でき、アプローチをシンプルかつ柔軟にする。
Lidar-camera, lidar-camera-radar, camera-radar fusion の実験結果から, 融合法の柔軟性と有効性が確認された。
論文 参考訳(メタデータ) (2022-09-26T14:33:30Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Adaptive Feature Fusion for Cooperative Perception using LiDAR Point
Clouds [0.0]
協調認識により、コネクテッド・オートモービルは近隣の他のCAVと対話することができる。
盲点、低解像度、気象効果などの従来の車体知覚の限界を補うことができる。
CODDデータセットを用いた車両と歩行者の両方の協調認識性能の評価を行った。
論文 参考訳(メタデータ) (2022-07-30T01:53:05Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Collaborative 3D Object Detection for Automatic Vehicle Systems via
Learnable Communications [8.633120731620307]
本稿では,3つのコンポーネントから構成される新しい3次元オブジェクト検出フレームワークを提案する。
実験結果と帯域使用量分析により,本手法は通信コストと計算コストを削減できることを示した。
論文 参考訳(メタデータ) (2022-05-24T07:17:32Z) - Exploiting Playbacks in Unsupervised Domain Adaptation for 3D Object
Detection [55.12894776039135]
ディープラーニングに基づく最先端の3Dオブジェクト検出器は、有望な精度を示しているが、ドメインの慣用性に過度に適合する傾向がある。
対象領域の擬似ラベルの検出器を微調整することで,このギャップを大幅に削減する新たな学習手法を提案する。
5つの自律運転データセットにおいて、これらの擬似ラベル上の検出器を微調整することで、新しい運転環境への領域ギャップを大幅に減らすことを示す。
論文 参考訳(メタデータ) (2021-03-26T01:18:11Z) - Multi-View Adaptive Fusion Network for 3D Object Detection [14.506796247331584]
LiDAR-カメラ融合に基づく3Dオブジェクト検出は、自動運転の新たな研究テーマになりつつある。
本稿では,LiDARの鳥眼ビュー,LiDARレンジビュー,カメラビューイメージを3Dオブジェクト検出の入力として利用する,単一ステージ多視点融合フレームワークを提案する。
これら2つのコンポーネントを統合するために,MVAF-Netというエンドツーエンドの学習ネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-02T00:06:01Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。