論文の概要: Analysis of voxel-based 3D object detection methods efficiency for
real-time embedded systems
- arxiv url: http://arxiv.org/abs/2105.10316v1
- Date: Fri, 21 May 2021 12:40:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 07:31:30.102373
- Title: Analysis of voxel-based 3D object detection methods efficiency for
real-time embedded systems
- Title(参考訳): リアルタイム組込みシステムにおけるvoxelに基づく3次元物体検出手法の効率解析
- Authors: Illia Oleksiienko and Alexandros Iosifidis
- Abstract要約: 本稿では, ボクセルをベースとした2つの3次元物体検出手法について述べる。
実験の結果,これらの手法は入力点雲が遠距離にあるため,遠距離の小さな物体を検出できないことが確認できた。
この結果から,既存手法の計算のかなりの部分は,検出に寄与しないシーンの位置に着目していることが示唆された。
- 参考スコア(独自算出の注目度): 93.73198973454944
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real-time detection of objects in the 3D scene is one of the tasks an
autonomous agent needs to perform for understanding its surroundings. While
recent Deep Learning-based solutions achieve satisfactory performance, their
high computational cost renders their application in real-life settings in
which computations need to be performed on embedded platforms intractable. In
this paper, we analyze the efficiency of two popular voxel-based 3D object
detection methods providing a good compromise between high performance and
speed based on two aspects, their ability to detect objects located at large
distances from the agent and their ability to operate in real time on embedded
platforms equipped with high-performance GPUs. Our experiments show that these
methods mostly fail to detect distant small objects due to the sparsity of the
input point clouds at large distances. Moreover, models trained on near objects
achieve similar or better performance compared to those trained on all objects
in the scene. This means that the models learn object appearance
representations mostly from near objects. Our findings suggest that a
considerable part of the computations of existing methods is focused on
locations of the scene that do not contribute with successful detection. This
means that the methods can achieve a speed-up of $40$-$60\%$ by restricting
operation to near objects while not sacrificing much in performance.
- Abstract(参考訳): 3dシーンにおけるオブジェクトのリアルタイム検出は、自律エージェントが周囲を理解するために行うべきタスクの1つだ。
最近のディープラーニングベースのソリューションは、十分なパフォーマンスを実現しているが、高い計算コストは、組み込みプラットフォームで計算を行う必要がある実際の環境でアプリケーションをレンダリングする。
本稿では,2つの性能と速度の両面から高い精度を両立させ,エージェントから離れた位置にある物体を検出できることと,高性能GPUを搭載した組込みプラットフォーム上でリアルタイムに動作できることの両面から,一般的な3Dオブジェクト検出手法の効率を解析する。
実験の結果,これらの手法は入力点雲が遠距離にあるため,遠距離の小さな物体を検出できないことがわかった。
さらに、nearオブジェクトでトレーニングされたモデルは、シーン内のすべてのオブジェクトでトレーニングされたモデルと同等または優れたパフォーマンスを達成します。
これは、モデルがオブジェクトの外観表現を主に近くのオブジェクトから学習することを意味する。
この結果から,既存手法の計算のかなりの部分は,検出に寄与しないシーンの位置に着目していることが示唆された。
これは、性能を犠牲にすることなく、近くのオブジェクトへの操作を制限することで、40$-60\%のスピードアップを達成できることを意味している。
関連論文リスト
- 3D Small Object Detection with Dynamic Spatial Pruning [62.72638845817799]
本稿では,3次元小物体検出のための効率的な特徴解析手法を提案する。
空間分解能の高いDSPDet3Dというマルチレベル3次元検出器を提案する。
ほぼ全ての物体を検知しながら、4500k以上のポイントからなる建物全体を直接処理するには2秒もかからない。
論文 参考訳(メタデータ) (2023-05-05T17:57:04Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Object Manipulation via Visual Target Localization [64.05939029132394]
オブジェクトを操作するための訓練エージェントは、多くの課題を提起します。
本研究では,対象物体を探索する環境を探索し,位置が特定されると3次元座標を計算し,対象物が見えない場合でも3次元位置を推定する手法を提案する。
評価の結果,同じ感覚スイートにアクセス可能なモデルに比べて,成功率が3倍に向上したことが示された。
論文 参考訳(メタデータ) (2022-03-15T17:59:01Z) - Iterative Corresponding Geometry: Fusing Region and Depth for Highly
Efficient 3D Tracking of Textureless Objects [25.448657318818764]
ICGは領域と深度情報を融合させる新しい確率的トラッカーであり、物体形状のみを必要とする。
本手法では, 対応線を配置し, ポーズを反復的に洗練する。
YCB-Video、OPT、Choiデータセットの実験は、テクスチャ化されたオブジェクトであっても、我々のアプローチが現在の技術よりも優れていることを示した。
論文 参考訳(メタデータ) (2022-03-10T12:30:50Z) - AA3DNet: Attention Augmented Real Time 3D Object Detection [0.0]
本稿では,ポイントクラウドデータを用いた3Dオブジェクト検出のためのトレーニングと最適化の詳細とともに,新しいニューラルネットワークアーキテクチャを提案する。
本手法は,30FPS以上の速度で走行する平均精度と速度の両面で,この領域における過去の技術状況を上回っている。
これにより、自動運転車のようなリアルタイムアプリケーションにデプロイすることが可能になる。
論文 参考訳(メタデータ) (2021-07-26T12:18:23Z) - Objects are Different: Flexible Monocular 3D Object Detection [87.82253067302561]
そこで本研究では,乱れたオブジェクトを明示的に分離し,オブジェクト深度推定のための複数のアプローチを適応的に組み合わせたモノクル3次元オブジェクト検出のためのフレキシブルなフレームワークを提案する。
実験の結果,本手法はkittiベンチマークテストセットにおいて,中等度レベルが27%,硬度が30%と,最先端法を27%上回った。
論文 参考訳(メタデータ) (2021-04-06T07:01:28Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - Meta-Cognition-Based Simple And Effective Approach To Object Detection [4.68287703447406]
物体検出のためのメタ認知学習戦略を探索し、検出速度を同時に維持しながら、一般化能力を向上させる。
実験の結果、絶対精度は2.6%(最小値)と4.4%(最大値)で、推論時間にオーバーヘッドはないことが示された。
論文 参考訳(メタデータ) (2020-12-02T13:36:51Z) - Real-time 3D object proposal generation and classification under limited
processing resources [1.6242924916178285]
本稿では,3次元提案生成と分類による効率的な検出手法を提案する。
実験により, 点雲からのリアルタイム3次元物体検出手法の有効性を実証した。
論文 参考訳(メタデータ) (2020-03-24T05:36:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。