論文の概要: Achieving Real-Time LiDAR 3D Object Detection on a Mobile Device
- arxiv url: http://arxiv.org/abs/2012.13801v2
- Date: Sun, 7 Mar 2021 00:52:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 01:14:23.512674
- Title: Achieving Real-Time LiDAR 3D Object Detection on a Mobile Device
- Title(参考訳): モバイルデバイス上でリアルタイムLiDAR 3Dオブジェクト検出を実現する
- Authors: Pu Zhao, Wei Niu, Geng Yuan, Yuxuan Cai, Hsin-Hsuan Sung, Sijia Liu,
Xipeng Shen, Bin Ren, Yanzhi Wang, Xue Lin
- Abstract要約: 本稿では,強化学習技術を用いたネットワーク拡張とpruning検索を組み込んだコンパイラ対応統一フレームワークを提案する。
具体的には,リカレントニューラルネットワーク(RNN)を用いて,ネットワークの強化とプルーニングの両面での統一的なスキームを自動で提供する。
提案手法は,モバイルデバイス上でのリアルタイム3次元物体検出を実現する。
- 参考スコア(独自算出の注目度): 53.323878851563414
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: 3D object detection is an important task, especially in the autonomous
driving application domain. However, it is challenging to support the real-time
performance with the limited computation and memory resources on edge-computing
devices in self-driving cars. To achieve this, we propose a compiler-aware
unified framework incorporating network enhancement and pruning search with the
reinforcement learning techniques, to enable real-time inference of 3D object
detection on the resource-limited edge-computing devices. Specifically, a
generator Recurrent Neural Network (RNN) is employed to provide the unified
scheme for both network enhancement and pruning search automatically, without
human expertise and assistance. And the evaluated performance of the unified
schemes can be fed back to train the generator RNN. The experimental results
demonstrate that the proposed framework firstly achieves real-time 3D object
detection on mobile devices (Samsung Galaxy S20 phone) with competitive
detection performance.
- Abstract(参考訳): 3Dオブジェクト検出は特に自律運転アプリケーション領域において重要なタスクである。
しかし、自動運転車のエッジコンピューティングデバイス上での計算とメモリリソースの制限により、リアルタイムパフォーマンスをサポートすることは困難である。
そこで本研究では,ネットワークの強化と強化学習手法による探索を取り入れたコンパイラ対応統合フレームワークを提案し,資源限定エッジコンピューティングデバイス上での3Dオブジェクト検出のリアルタイム推論を実現する。
具体的には,リカレントニューラルネットワーク(RNN)を用いて,人的知識や支援を伴わずに,ネットワークの強化とプルーニングの両方を自動で行う統一的なスキームを提供する。
また、統一スキームの評価性能は、ジェネレータRNNを訓練するためにフィードバックすることができる。
実験の結果,提案フレームワークはモバイル端末(Samsung Galaxy S20)におけるリアルタイム3Dオブジェクト検出を競合検出性能で実現していることがわかった。
関連論文リスト
- Cross-Cluster Shifting for Efficient and Effective 3D Object Detection
in Autonomous Driving [69.20604395205248]
本稿では,自律運転における3次元物体検出のための3次元点検出モデルであるShift-SSDを提案する。
我々は、ポイントベース検出器の表現能力を解き放つために、興味深いクロスクラスタシフト操作を導入する。
我々は、KITTI、ランタイム、nuScenesデータセットに関する広範な実験を行い、Shift-SSDの最先端性能を実証した。
論文 参考訳(メタデータ) (2024-03-10T10:36:32Z) - LiDAR-BEVMTN: Real-Time LiDAR Bird's-Eye View Multi-Task Perception
Network for Autonomous Driving [7.137567622606353]
本稿では,LiDARに基づくオブジェクト検出,意味論,動作セグメンテーションのためのリアルタイムマルチタスク畳み込みニューラルネットワークを提案する。
オブジェクト検出を選択的に改善するためのセマンティック・ウェイト・アンド・ガイダンス(SWAG)モジュールを提案する。
我々は,2つのタスク,セマンティックとモーションセグメンテーション,および3Dオブジェクト検出のための最先端性能に近い2つのタスクに対して,最先端の結果を得る。
論文 参考訳(メタデータ) (2023-07-17T21:22:17Z) - Rethinking Voxelization and Classification for 3D Object Detection [68.8204255655161]
LiDARポイントクラウドからの3Dオブジェクト検出の主な課題は、ネットワークの信頼性に影響を与えることなく、リアルタイムのパフォーマンスを実現することである。
本稿では,高速な動的ボキセラライザを実装することにより,ネットワークの推論速度と精度を同時に向上するソリューションを提案する。
さらに,予測対象を分類し,偽検出対象をフィルタリングする軽量検出サブヘッドモデルを提案する。
論文 参考訳(メタデータ) (2023-01-10T16:22:04Z) - Achieving Real-Time Object Detection on MobileDevices with Neural
Pruning Search [45.20331644857981]
本稿では,2次元および3次元物体検出のための自律走行車における高速推論を実現するために,コンパイラ対応のニューラルプルーニング検索フレームワークを提案する。
提案手法は, YOLOv4 を用いた2次元物体検出と PointPillars による3次元物体検出において, 実時間, 55ms および 99ms の推論時間を実現する。
論文 参考訳(メタデータ) (2021-06-28T18:59:20Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z) - YOLOpeds: Efficient Real-Time Single-Shot Pedestrian Detection for Smart
Camera Applications [2.588973722689844]
この研究は、スマートカメラアプリケーションにおけるディープラーニングに基づく歩行者検出の効率的な展開のために、精度と速度の良好なトレードオフを達成するという課題に対処する。
分離可能な畳み込みに基づいて計算効率の良いアーキテクチャを導入し、層間密結合とマルチスケール機能融合を提案する。
全体として、YOLOpedsは、既存のディープラーニングモデルよりも86%の速度で、毎秒30フレーム以上のリアルタイム持続的な操作を提供する。
論文 参考訳(メタデータ) (2020-07-27T09:50:11Z) - Real-time 3D object proposal generation and classification under limited
processing resources [1.6242924916178285]
本稿では,3次元提案生成と分類による効率的な検出手法を提案する。
実験により, 点雲からのリアルタイム3次元物体検出手法の有効性を実証した。
論文 参考訳(メタデータ) (2020-03-24T05:36:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。