論文の概要: 2D-Empowered 3D Object Detection on the Edge
- arxiv url: http://arxiv.org/abs/2302.09221v1
- Date: Sat, 18 Feb 2023 03:42:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 19:51:12.862599
- Title: 2D-Empowered 3D Object Detection on the Edge
- Title(参考訳): エッジ上の2次元エンパワー3次元物体検出
- Authors: Jingzong Li, Yik Hong Cai, Libin Liu, Yu Mao, Chun Jason Xue, Hong Xu
- Abstract要約: 3Dオブジェクト検出は、特に自律運転とロボット工学など、幅広いアプリケーションにおいて重要な役割を担っている。
計算能力が限られているため、高度に複雑なニューラルネットワークを用いてエッジ上で3D検出を実行することは困難である。
提案するMobyは,我々のアプローチの実現可能性と可能性を示す新しいシステムである。
- 参考スコア(独自算出の注目度): 13.889658753173418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D object detection has a pivotal role in a wide range of applications, most
notably autonomous driving and robotics. These applications are commonly
deployed on edge devices to promptly interact with the environment, and often
require near real-time response. With limited computation power, it is
challenging to execute 3D detection on the edge using highly complex neural
networks. Common approaches such as offloading to the cloud brings latency
overheads due to the large amount of 3D point cloud data during transmission.
To resolve the tension between wimpy edge devices and compute-intensive
inference workloads, we explore the possibility of transforming fast 2D
detection results to extrapolate 3D bounding boxes. To this end, we present
Moby, a novel system that demonstrates the feasibility and potential of our
approach. Our main contributions are two-fold: First, we design a 2D-to-3D
transformation pipeline that takes as input the point cloud data from LiDAR and
2D bounding boxes from camera that are captured at exactly the same time, and
generate 3D bounding boxes efficiently and accurately based on detection
results of the previous frames without running 3D detectors. Second, we design
a frame offloading scheduler that dynamically launches a 3D detection when the
error of 2D-to-3D transformation accumulates to a certain level, so the
subsequent transformations can draw upon the latest 3D detection results with
better accuracy. Extensive evaluation on NVIDIA Jetson TX2 with the autonomous
driving dataset KITTI and real-world 4G/LTE traces shows that, Moby reduces the
end-to-end latency by up to 91.9% with mild accuracy drop compared to
baselines. Further, Moby shows excellent energy efficiency by saving power
consumption and memory footprint up to 75.7% and 48.1%, respectively.
- Abstract(参考訳): 3dオブジェクト検出は、自動運転やロボティクスなど、幅広いアプリケーションにおいて重要な役割を担っている。
これらのアプリケーションは、環境と迅速に対話するために一般的にエッジデバイスにデプロイされる。
計算能力が限られているため、高度に複雑なニューラルネットワークを用いてエッジ上で3d検出を行うことは困難である。
クラウドへのオフロードのような一般的なアプローチは、転送中の大量の3dポイントクラウドデータによるレイテンシーオーバーヘッドをもたらす。
ワイムピーエッジデバイスと計算集約型推論ワークロードの緊張を解消するために,高速な2次元検出結果を3次元境界ボックスの外挿に変換する可能性を検討する。
この目的のために,我々のアプローチの実現可能性と可能性を示す新しいシステムであるMobyを紹介する。
まず,2次元から3次元への変換パイプラインを設計し,同時に撮影されるカメラからLiDARと2Dバウンディングボックスから点雲データを入力し,従来のフレームの検出結果に基づいて3次元バウンディングボックスを効率よく高精度に生成する。
第2に,2d-to-3d変換の誤差が一定のレベルに達すると動的に3d検出を起動するフレームオフロードスケジューラを設計した。
NVIDIA Jetson TX2に対する、自律運転データセットKITTIと現実世界の4G/LTEトレースによる広範な評価は、Mobyがベースラインに比べてわずかに精度が低下し、エンドツーエンドのレイテンシを最大91.9%削減していることを示している。
さらに、モビーは消費電力とメモリフットプリントをそれぞれ75.7%、48.1%まで節約することで、優れたエネルギー効率を示す。
関連論文リスト
- DetZero: Rethinking Offboard 3D Object Detection with Long-term
Sequential Point Clouds [55.755450273390004]
既存のオフボード3D検出器は、無限の逐次点雲を利用するために常にモジュラーパイプライン設計に従っている。
その結果, 物体の運動状態は, 物体中心の精製段階において必然的な課題となること, 物体の運動状態は, 物体軌道を十分に生成できないこと, 物体中心の精製段階において必然的な課題となること, の2つの理由から, オフボード型3D検出器の完全なポテンシャルは明らかにされていないことがわかった。
これらの問題に対処するために,DetZero という,オフボード型3次元物体検出の新たなパラダイムを提案する。
論文 参考訳(メタデータ) (2023-06-09T16:42:00Z) - Sparse2Dense: Learning to Densify 3D Features for 3D Object Detection [85.08249413137558]
LiDARが生成する点雲は、最先端の3Dオブジェクト検出器の主要な情報源である。
小さい、遠く、不完全な点の少ない物体は、しばしば検出するのが困難である。
Sparse2Denseは、潜在空間における点雲の密度化を学習することで、3D検出性能を効率的に向上する新しいフレームワークである。
論文 参考訳(メタデータ) (2022-11-23T16:01:06Z) - A Lightweight and Detector-free 3D Single Object Tracker on Point Clouds [50.54083964183614]
生のLiDARスキャンにおける物体の点雲は、通常スパースで不完全であるため、正確な目標固有検出を行うのは簡単ではない。
DMTは、複雑な3D検出器の使用を完全に除去する3Dトラッキングネットワークである。
論文 参考訳(メタデータ) (2022-03-08T17:49:07Z) - PiFeNet: Pillar-Feature Network for Real-Time 3D Pedestrian Detection
from Point Cloud [64.12626752721766]
点雲からの歩行者検出に有効なリアルタイム3D検出器であるPiFeNetを提案する。
歩行者を検知する際の3次元物体検出フレームワークが直面する課題として, 柱の特徴の少ない点と, 点群における歩行者の占有面積の小さい点があげられる。
提案手法は,26fps/秒(FPS)で走行しながら,KITTI歩行者BEVと3Dリーダーボードで第1位にランクされ,Nuscenes検出ベンチマークの最先端性能を実現している。
論文 参考訳(メタデータ) (2021-12-31T13:41:37Z) - Anchor-free 3D Single Stage Detector with Mask-Guided Attention for
Point Cloud [79.39041453836793]
我々は、点雲をアンカーフリーで検出する新しい1段3次元検出器を開発した。
ボクセルをベースとしたスパース3D特徴量からスパース2D特徴量マップに変換することでこれを克服する。
検出信頼度スコアとバウンディングボックス回帰の精度との相関性を改善するために,IoUに基づく検出信頼度再校正手法を提案する。
論文 参考訳(メタデータ) (2021-08-08T13:42:13Z) - Fast and Furious: Real Time End-to-End 3D Detection, Tracking and Motion
Forecasting with a Single Convolutional Net [93.51773847125014]
本研究では,3Dセンサが捉えたデータを用いて,3D検出,追跡,動作予測を共同で推論する,新たなディープニューラルネットワークを提案する。
鳥の眼球を3次元の世界として表現し,空間と時間にまたがる3次元畳み込みを行う。
論文 参考訳(メタデータ) (2020-12-22T22:43:35Z) - Boundary-Aware Dense Feature Indicator for Single-Stage 3D Object
Detection from Point Clouds [32.916690488130506]
本稿では,3次元検出器が境界を意識して点雲の最も密集した領域に焦点を合わせるのを支援する普遍モジュールを提案する。
KITTIデータセットの実験により、DENFIはベースライン単段検出器の性能を著しく改善することが示された。
論文 参考訳(メタデータ) (2020-04-01T01:21:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。