論文の概要: Achieving Real-Time Object Detection on MobileDevices with Neural
Pruning Search
- arxiv url: http://arxiv.org/abs/2106.14943v1
- Date: Mon, 28 Jun 2021 18:59:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-01 08:59:36.410488
- Title: Achieving Real-Time Object Detection on MobileDevices with Neural
Pruning Search
- Title(参考訳): ニューラルネットワークによるモバイルデバイスのリアルタイム物体検出
- Authors: Pu Zhao, Wei Niu, Geng Yuan, Yuxuan Cai, Bin Ren, Yanzhi Wang, Xue Lin
- Abstract要約: 本稿では,2次元および3次元物体検出のための自律走行車における高速推論を実現するために,コンパイラ対応のニューラルプルーニング検索フレームワークを提案する。
提案手法は, YOLOv4 を用いた2次元物体検出と PointPillars による3次元物体検出において, 実時間, 55ms および 99ms の推論時間を実現する。
- 参考スコア(独自算出の注目度): 45.20331644857981
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Object detection plays an important role in self-driving cars for security
development. However, mobile systems on self-driving cars with limited
computation resources lead to difficulties for object detection. To facilitate
this, we propose a compiler-aware neural pruning search framework to achieve
high-speed inference on autonomous vehicles for 2D and 3D object detection. The
framework automatically searches the pruning scheme and rate for each layer to
find a best-suited pruning for optimizing detection accuracy and speed
performance under compiler optimization. Our experiments demonstrate that for
the first time, the proposed method achieves (close-to) real-time, 55ms and
99ms inference times for YOLOv4 based 2D object detection and PointPillars
based 3D detection, respectively, on an off-the-shelf mobile phone with minor
(or no) accuracy loss.
- Abstract(参考訳): 物体検出は、自動運転車のセキュリティ開発において重要な役割を担っている。
しかし,計算資源が限られている自動運転車の移動システムは,物体検出に困難をもたらす。
これを容易にするために,2次元および3次元物体検出のための自律走行車における高速推論を実現する,コンパイラ対応ニューラルプルーニング探索フレームワークを提案する。
このフレームワークは、各レイヤのプルーニングスキームとレートを自動的に検索し、コンパイラ最適化の下で検出精度と速度性能を最適化する最適なプルーニングを見つける。
実験の結果,提案手法は, YOLOv4による2次元物体検出とPointPillarsによる3次元物体検出において, 最小(あるいは無)の精度で, 実時間, 55ms, 99msの推測時間を実現することができた。
関連論文リスト
- Uncertainty Estimation for 3D Object Detection via Evidential Learning [63.61283174146648]
本稿では,3次元検出器における鳥の視線表示における明らかな学習損失を利用して,3次元物体検出の不確かさを定量化するためのフレームワークを提案する。
本研究では,これらの不確実性評価の有効性と重要性を,分布外シーンの特定,局所化の不十分な物体の発見,および(偽陰性)検出の欠如について示す。
論文 参考訳(メタデータ) (2024-10-31T13:13:32Z) - oTTC: Object Time-to-Contact for Motion Estimation in Autonomous Driving [4.707950656037167]
自律運転システムは衝突を避け安全に運転するために 物体検出に大きく依存している
モノクロ3Dオブジェクト検出器は、カメラ画像から3D境界ボックスと物体速度を直接予測することでこの問題を解決しようとする。
最近の研究では、ピクセルごとの時間対接触を推定し、速度と深さの組み合わせよりも効果的に測定できることが示唆されている。
オブジェクト検出モデルを拡張したオブジェクトごとの時間対接触推定を提案し,各オブジェクトの時間対接触属性を付加的に予測する。
論文 参考訳(メタデータ) (2024-05-13T12:34:18Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - CFTrack: Center-based Radar and Camera Fusion for 3D Multi-Object
Tracking [9.62721286522053]
本稿では,レーダとカメラセンサの融合に基づく共同物体検出と追跡のためのエンドツーエンドネットワークを提案する。
提案手法では,物体検出に中心型レーダカメラ融合アルゴリズムを用い,物体関連にグリーディアルゴリズムを用いる。
提案手法は,20.0AMOTAを達成し,ベンチマークにおける視覚ベースの3Dトラッキング手法よりも優れる,挑戦的なnuScenesデータセット上で評価する。
論文 参考訳(メタデータ) (2021-07-11T23:56:53Z) - 2nd Place Solution for Waymo Open Dataset Challenge - Real-time 2D
Object Detection [26.086623067939605]
本稿では,画像から2次元物体を検出するリアルタイム手法を提案する。
我々は、加速度RTを活用して、検出パイプラインの推論時間を最適化する。
我々のフレームワークはNvidia Tesla V100 GPU上で45.8ms/frameのレイテンシを実現する。
論文 参考訳(メタデータ) (2021-06-16T11:32:03Z) - Analysis of voxel-based 3D object detection methods efficiency for
real-time embedded systems [93.73198973454944]
本稿では, ボクセルをベースとした2つの3次元物体検出手法について述べる。
実験の結果,これらの手法は入力点雲が遠距離にあるため,遠距離の小さな物体を検出できないことが確認できた。
この結果から,既存手法の計算のかなりの部分は,検出に寄与しないシーンの位置に着目していることが示唆された。
論文 参考訳(メタデータ) (2021-05-21T12:40:59Z) - Exploiting Playbacks in Unsupervised Domain Adaptation for 3D Object
Detection [55.12894776039135]
ディープラーニングに基づく最先端の3Dオブジェクト検出器は、有望な精度を示しているが、ドメインの慣用性に過度に適合する傾向がある。
対象領域の擬似ラベルの検出器を微調整することで,このギャップを大幅に削減する新たな学習手法を提案する。
5つの自律運転データセットにおいて、これらの擬似ラベル上の検出器を微調整することで、新しい運転環境への領域ギャップを大幅に減らすことを示す。
論文 参考訳(メタデータ) (2021-03-26T01:18:11Z) - Achieving Real-Time LiDAR 3D Object Detection on a Mobile Device [53.323878851563414]
本稿では,強化学習技術を用いたネットワーク拡張とpruning検索を組み込んだコンパイラ対応統一フレームワークを提案する。
具体的には,リカレントニューラルネットワーク(RNN)を用いて,ネットワークの強化とプルーニングの両面での統一的なスキームを自動で提供する。
提案手法は,モバイルデバイス上でのリアルタイム3次元物体検出を実現する。
論文 参考訳(メタデータ) (2020-12-26T19:41:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。