論文の概要: Anytime-Lidar: Deadline-aware 3D Object Detection
- arxiv url: http://arxiv.org/abs/2208.12181v1
- Date: Thu, 25 Aug 2022 16:07:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-26 13:13:12.503131
- Title: Anytime-Lidar: Deadline-aware 3D Object Detection
- Title(参考訳): Anytime-Lidar: デッドライン対応の3Dオブジェクト検出
- Authors: Ahmet Soyyigit, Shuochao Yao, Heechul Yun
- Abstract要約: スケジューリングアルゴリズムを提案する。このアルゴリズムは,コンポーネントのサブセットをインテリジェントに選択し,有効時間と高精度のトレードオフをオンザフライで行う。
我々は,最先端の3Dオブジェクト検出ネットワークであるPointPillarsにアプローチを適用し,Jetson Xavier AGXデータセットの性能評価を行った。
- 参考スコア(独自算出の注目度): 5.491655566898372
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this work, we present a novel scheduling framework enabling anytime
perception for deep neural network (DNN) based 3D object detection pipelines.
We focus on computationally expensive region proposal network (RPN) and
per-category multi-head detector components, which are common in 3D object
detection pipelines, and make them deadline-aware. We propose a scheduling
algorithm, which intelligently selects the subset of the components to make
effective time and accuracy trade-off on the fly. We minimize accuracy loss of
skipping some of the neural network sub-components by projecting previously
detected objects onto the current scene through estimations. We apply our
approach to a state-of-art 3D object detection network, PointPillars, and
evaluate its performance on Jetson Xavier AGX using nuScenes dataset. Compared
to the baselines, our approach significantly improve the network's accuracy
under various deadline constraints.
- Abstract(参考訳): 本研究では,ディープニューラルネットワーク(DNN)に基づく3次元物体検出パイプラインのリアルタイム認識を可能にする新しいスケジューリングフレームワークを提案する。
本稿では,3次元オブジェクト検出パイプラインに共通する計算コストの高い領域提案ネットワーク(RPN)とカテゴリごとのマルチヘッド検出コンポーネントに着目し,遅延認識を行う。
本研究では,コンポーネントのサブセットをインテリジェントに選択し,有効時間と精度のトレードオフを行うスケジューリングアルゴリズムを提案する。
従来検出されたオブジェクトを現在のシーンに投影することで、ニューラルネットワークのサブコンポーネントの一部をスキップする精度の損失を最小限に抑える。
我々は最先端の3Dオブジェクト検出ネットワークであるPointPillarsにアプローチを適用し、nuScenesデータセットを用いてJetson Xavier AGXの性能を評価する。
ベースラインと比較すると,本手法は様々な期限制約下でネットワークの精度を大幅に向上させる。
関連論文リスト
- VALO: A Versatile Anytime Framework for LiDAR-based Object Detection Deep Neural Networks [4.953750672237398]
本研究は,LDARオブジェクト検出ディープニューラルネットワーク(DNN)における動的期限条件の適用という課題に対処する。
VALO(Versatile Anytime Algorithm for LiDAR Object Detection)は3次元LiDARオブジェクト検出DNNの任意の時間計算を可能にする新しいデータ中心のアプローチである。
本研究では,最先端の3次元LiDARオブジェクト検出ネットワーク,すなわちCenterPointとVoxelNextにVALOを実装し,その動的適応性を広範囲の時間制約に適用できることを実証する。
論文 参考訳(メタデータ) (2024-09-17T20:30:35Z) - V-DETR: DETR with Vertex Relative Position Encoding for 3D Object
Detection [73.37781484123536]
DETRフレームワークを用いた点雲のための高性能な3次元物体検出器を提案する。
限界に対処するため,新しい3次元相対位置(3DV-RPE)法を提案する。
挑戦的なScanNetV2ベンチマークで例外的な結果を示す。
論文 参考訳(メタデータ) (2023-08-08T17:14:14Z) - Rethinking Voxelization and Classification for 3D Object Detection [68.8204255655161]
LiDARポイントクラウドからの3Dオブジェクト検出の主な課題は、ネットワークの信頼性に影響を与えることなく、リアルタイムのパフォーマンスを実現することである。
本稿では,高速な動的ボキセラライザを実装することにより,ネットワークの推論速度と精度を同時に向上するソリューションを提案する。
さらに,予測対象を分類し,偽検出対象をフィルタリングする軽量検出サブヘッドモデルを提案する。
論文 参考訳(メタデータ) (2023-01-10T16:22:04Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - CVFNet: Real-time 3D Object Detection by Learning Cross View Features [11.402076835949824]
CVFNetと呼ばれるリアルタイムビューベースの1段3Dオブジェクト検出器を提案する。
本稿ではまず,複数の段階において,ポイント・アンド・レンジ・ビュー機能を深く統合した新しいポイント・ラウンジ機能融合モジュールを提案する。
次に, 得られた深度視点特徴を鳥の目視に変換する際に, 3次元形状を良好に維持する特別のスライスピラーを設計する。
論文 参考訳(メタデータ) (2022-03-13T06:23:18Z) - Semi-supervised 3D Object Detection via Temporal Graph Neural Networks [17.90796183565084]
3Dオブジェクト検出は、自動運転やその他のロボット工学応用において重要な役割を果たす。
本研究では,3次元物体検出器の半教師付き学習により,大量の未ラベルのクラウドビデオを活用することを提案する。
本手法は,難解な nuScenes と H3D ベンチマーク上での最先端検出性能を実現する。
論文 参考訳(メタデータ) (2022-02-01T02:06:54Z) - 3D-FCT: Simultaneous 3D Object Detection and Tracking Using Feature
Correlation [0.0]
3D-FCTは、時間情報を利用して3Dオブジェクトの検出と追跡の関連タスクを同時に実行するシームズネットワークアーキテクチャである。
提案手法は,最先端手法よりも5.57%mAPの改善が期待できるKITTI追跡データセットを用いて評価した。
論文 参考訳(メタデータ) (2021-10-06T06:36:29Z) - Delving into Localization Errors for Monocular 3D Object Detection [85.77319416168362]
単眼画像から3Dバウンディングボックスを推定することは、自動運転に不可欠な要素です。
本研究では, 各サブタスクがもたらす影響を定量化し, 局所化誤差を求めることが, モノクロ3次元検出の抑制に欠かせない要因である。
論文 参考訳(メタデータ) (2021-03-30T10:38:01Z) - Fast and Furious: Real Time End-to-End 3D Detection, Tracking and Motion
Forecasting with a Single Convolutional Net [93.51773847125014]
本研究では,3Dセンサが捉えたデータを用いて,3D検出,追跡,動作予測を共同で推論する,新たなディープニューラルネットワークを提案する。
鳥の眼球を3次元の世界として表現し,空間と時間にまたがる3次元畳み込みを行う。
論文 参考訳(メタデータ) (2020-12-22T22:43:35Z) - Generative Sparse Detection Networks for 3D Single-shot Object Detection [43.91336826079574]
3Dオブジェクト検出は、ロボット工学や拡張現実など多くの有望な分野に適用可能であるため、広く研究されている。
しかし、3Dデータのまばらな性質は、このタスクに固有の課題をもたらしている。
本稿では,完全畳み込み単一ショットスパース検出ネットワークであるGenerative Sparse Detection Network (GSDN)を提案する。
論文 参考訳(メタデータ) (2020-06-22T15:54:24Z) - PV-RCNN: Point-Voxel Feature Set Abstraction for 3D Object Detection [76.30585706811993]
我々はPointVoxel-RCNN(PV-RCNN)という新しい高性能な3Dオブジェクト検出フレームワークを提案する。
提案手法は3次元ボクセル畳み込みニューラルネットワーク(CNN)とPointNetベースの集合抽象化の両方を深く統合する。
3DボクセルCNNの効率的な学習と高品質な提案と、PointNetベースのネットワークのフレキシブル・レセプティブ・フィールドを利用する。
論文 参考訳(メタデータ) (2019-12-31T06:34:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。