論文の概要: 3D-FFS: Faster 3D object detection with Focused Frustum Search in sensor
fusion based networks
- arxiv url: http://arxiv.org/abs/2103.08294v1
- Date: Mon, 15 Mar 2021 11:32:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-16 14:05:38.450182
- Title: 3D-FFS: Faster 3D object detection with Focused Frustum Search in sensor
fusion based networks
- Title(参考訳): 3D-FFS:センサフュージョンネットワークにおけるフォーカスフラストラムサーチによる高速3次元物体検出
- Authors: Aniruddha Ganguly, Tasin Ishmam, Khandker Aftarul Islam, Md Zahidur
Rahman and Md. Shamsuzzoha Bayzid
- Abstract要約: センサフュージョンに基づく3Dオブジェクト検出ネットワークを高速化する新しいアプローチである3D-FFSを提案する。
3D-FFSは3D検索スペースを大幅に制限し、トレーニング時間、推論時間、メモリ消費を大幅に削減できます。
F-ConvNetと比較して62.84%、56.46%のトレーニングと推論時間の改善を実現し、メモリ使用量を58.53%削減しました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work we propose 3D-FFS, a novel approach to make sensor fusion based
3D object detection networks significantly faster using a class of
computationally inexpensive heuristics. Existing sensor fusion based networks
generate 3D region proposals by leveraging inferences from 2D object detectors.
However, as images have no depth information, these networks rely on extracting
semantic features of points from the entire scene to locate the object. By
leveraging aggregated intrinsic properties (e.g. point density) of the 3D point
cloud data, 3D-FFS can substantially constrain the 3D search space and thereby
significantly reduce training time, inference time and memory consumption
without sacrificing accuracy. To demonstrate the efficacy of 3D-FFS, we have
integrated it with Frustum ConvNet (F-ConvNet), a prominent sensor fusion based
3D object detection model. We assess the performance of 3D-FFS on the KITTI
dataset. Compared to F-ConvNet, we achieve improvements in training and
inference times by up to 62.84% and 56.46%, respectively, while reducing the
memory usage by up to 58.53%. Additionally, we achieve 0.59%, 2.03% and 3.34%
improvements in accuracy for the Car, Pedestrian and Cyclist classes,
respectively. 3D-FFS shows a lot of promise in domains with limited computing
power, such as autonomous vehicles, drones and robotics where LiDAR-Camera
based sensor fusion perception systems are widely used.
- Abstract(参考訳): 本研究では,センサフュージョンに基づく3Dオブジェクト検出ネットワークを,計算コストの低いヒューリスティックスを用いて大幅に高速化する手法である3D-FFSを提案する。
既存のセンサフュージョンベースネットワークは、2Dオブジェクト検出器からの推論を利用して3D領域の提案を生成する。
しかし、画像に深度情報がないため、これらのネットワークはシーン全体からポイントのセマンティックな特徴を抽出してオブジェクトを見つける。
集約した固有の特性(例えば)を活用することで
3Dポイントクラウドデータの3D−FFSは、3D検索空間を著しく制約し、精度を犠牲にすることなく、トレーニング時間、推論時間、メモリ消費を著しく低減することができる。
3D-FFSの有効性を実証するため、Frustum ConvNet(F-ConvNet)と統合しました。
KITTIデータセットにおける3D-FFSの性能を評価する。
F-ConvNetと比較して62.84%、56.46%のトレーニングと推論時間の改善を実現し、メモリ使用量を58.53%削減しました。
さらに, 自動車, 歩行者, 自転車の精度が0.59%, 2.03%, 3.34%向上した。
3D-FFSは、LiDAR-Cameraベースのセンサー融合認識システムが広く使用されている自動運転車、ドローン、ロボットなど、限られた計算能力を持つ領域で多くの約束を示しています。
関連論文リスト
- HEDNet: A Hierarchical Encoder-Decoder Network for 3D Object Detection
in Point Clouds [19.1921315424192]
ポイントクラウドにおける3Dオブジェクト検出は、自律運転システムにとって重要である。
3Dオブジェクト検出における主な課題は、3Dシーン内の点のスパース分布に起因する。
本稿では3次元オブジェクト検出のための階層型エンコーダデコーダネットワークであるHEDNetを提案する。
論文 参考訳(メタデータ) (2023-10-31T07:32:08Z) - Multi-Sem Fusion: Multimodal Semantic Fusion for 3D Object Detection [11.575945934519442]
LiDARとカメラ融合技術は、自律運転において3次元物体検出を実現することを約束している。
多くのマルチモーダルな3Dオブジェクト検出フレームワークは、2D画像からのセマンティック知識を3D LiDARポイントクラウドに統合する。
本稿では2次元画像と3次元ポイントシーン解析結果の両方から意味情報を融合する汎用多モード融合フレームワークであるMulti-Sem Fusion(MSF)を提案する。
論文 参考訳(メタデータ) (2022-12-10T10:54:41Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Image-to-Lidar Self-Supervised Distillation for Autonomous Driving Data [80.14669385741202]
本稿では,自律運転データに適した3次元知覚モデルのための自己教師付き事前学習手法を提案する。
我々は、自動走行装置における同期・校正画像とLidarセンサーの可用性を活用している。
私たちのメソッドは、ポイントクラウドや画像アノテーションを一切必要としません。
論文 参考訳(メタデータ) (2022-03-30T12:40:30Z) - VPFNet: Improving 3D Object Detection with Virtual Point based LiDAR and
Stereo Data Fusion [62.24001258298076]
VPFNetは、ポイントクラウドとイメージデータを仮想のポイントで巧みに調整し集約する新しいアーキテクチャである。
当社のVPFNetは,KITTIテストセットで83.21%の中等度3D AP,91.86%中等度BEV APを達成し,2021年5月21日以来の1位となった。
論文 参考訳(メタデータ) (2021-11-29T08:51:20Z) - RoIFusion: 3D Object Detection from LiDAR and Vision [7.878027048763662]
本稿では,3次元関心領域(RoI)の集合を点雲から対応する画像の2次元ロIに投影することで,新しい融合アルゴリズムを提案する。
提案手法は,KITTI 3Dオブジェクト検出課題ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2020-09-09T20:23:27Z) - End-to-End Pseudo-LiDAR for Image-Based 3D Object Detection [62.34374949726333]
擬似LiDAR(PL)は、LiDARセンサに基づく手法と安価なステレオカメラに基づく手法の精度ギャップを劇的に減らした。
PLは最先端のディープニューラルネットワークと2D深度マップ出力を3Dポイントクラウド入力に変換することで3Dオブジェクト検出のための3D深度推定を組み合わせている。
我々は、PLパイプライン全体をエンドツーエンドにトレーニングできるように、差別化可能なRepresentation (CoR)モジュールに基づく新しいフレームワークを導入します。
論文 参考訳(メタデータ) (2020-04-07T02:18:38Z) - Boundary-Aware Dense Feature Indicator for Single-Stage 3D Object
Detection from Point Clouds [32.916690488130506]
本稿では,3次元検出器が境界を意識して点雲の最も密集した領域に焦点を合わせるのを支援する普遍モジュールを提案する。
KITTIデータセットの実験により、DENFIはベースライン単段検出器の性能を著しく改善することが示された。
論文 参考訳(メタデータ) (2020-04-01T01:21:23Z) - D3Feat: Joint Learning of Dense Detection and Description of 3D Local
Features [51.04841465193678]
私たちは3Dポイントクラウドに3D完全畳み込みネットワークを活用しています。
本稿では,3次元点ごとに検出スコアと記述特徴の両方を密に予測する,新しい,実践的な学習機構を提案する。
本手法は,屋内と屋外の両方のシナリオで最先端の手法を実現する。
論文 参考訳(メタデータ) (2020-03-06T12:51:09Z) - ZoomNet: Part-Aware Adaptive Zooming Neural Network for 3D Object
Detection [69.68263074432224]
ステレオ画像に基づく3D検出のためのZoomNetという新しいフレームワークを提案する。
ZoomNetのパイプラインは、通常の2Dオブジェクト検出モデルから始まり、左右のバウンディングボックスのペアを取得するために使用される。
さらに,RGB画像のテクスチャキューを多用し,より正確な異質度推定を行うため,適応ズームという概念的に真直ぐなモジュールを導入する。
論文 参考訳(メタデータ) (2020-03-01T17:18:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。