論文の概要: Comparison of Object Detection Algorithms for Street-level Objects
- arxiv url: http://arxiv.org/abs/2208.11315v1
- Date: Wed, 24 Aug 2022 05:57:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-25 12:16:38.997369
- Title: Comparison of Object Detection Algorithms for Street-level Objects
- Title(参考訳): 街路レベル物体に対する物体検出アルゴリズムの比較
- Authors: Martinus Grady Naftali, Jason Sebastian Sulistyawan, and Kelvin Julian
- Abstract要約: 本稿では,一段検出アルゴリズムであるSSD MobileNetv2 FPN-lite 320x320,YOLOv3,YOLOv4,YOLOv5l,YOLOv5sを比較した。
YOLOv5sが最も効率的で、YOLOv5lの精度と速度はMobileNetv2 FPN-liteとほぼ同速であることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object detection for street-level objects can be applied to various use
cases, from car and traffic detection to the self-driving car system.
Therefore, finding the best object detection algorithm is essential to apply it
effectively. Many object detection algorithms have been released, and many have
compared object detection algorithms, but few have compared the latest
algorithms, such as YOLOv5, primarily which focus on street-level objects. This
paper compares various one-stage detector algorithms; SSD MobileNetv2 FPN-lite
320x320, YOLOv3, YOLOv4, YOLOv5l, and YOLOv5s for street-level object detection
within real-time images. The experiment utilizes a modified Udacity Self
Driving Car Dataset with 3,169 images. Dataset is split into train, validation,
and test; Then, it is preprocessed and augmented using rescaling, hue shifting,
and noise. Each algorithm is then trained and evaluated. Based on the
experiments, the algorithms have produced decent results according to the
inference time and the values of their precision, recall, F1-Score, and Mean
Average Precision (mAP). The results also shows that YOLOv5l outperforms the
other algorithms in terms of accuracy with a mAP@.5 of 0.593, MobileNetv2
FPN-lite has the fastest inference time among the others with only 3.20ms
inference time. It is also found that YOLOv5s is the most efficient, with it
having a YOLOv5l accuracy and a speed almost as quick as the MobileNetv2
FPN-lite. This shows that various algorithm are suitable for street-level
object detection and viable enough to be used in self-driving car.
- Abstract(参考訳): 道路レベルオブジェクトのオブジェクト検出は、自動車や交通検出から自動運転車システムまで、さまざまなユースケースに適用できる。
したがって、最適なオブジェクト検出アルゴリズムを効果的に適用することが不可欠である。
多くのオブジェクト検出アルゴリズムがリリースされ、オブジェクト検出アルゴリズムを比較するものも少なくないが、最新のアルゴリズムであるyolov5など、主にストリートレベルのオブジェクトに焦点を当てたものはほとんどない。
本稿では,一段検出アルゴリズムであるSSD MobileNetv2 FPN-lite 320x320,YOLOv3,YOLOv4,YOLOv5l,YOLOv5sを比較した。
この実験では、3,169枚の画像で修正されたUdacity Self Driving Car Datasetを利用している。
データセットはトレイン、バリデーション、テストに分割され、リスケーリング、hueシフト、ノイズを使って前処理され、拡張される。
各アルゴリズムは訓練され、評価される。
実験に基づいて、アルゴリズムは、推定時間とそれらの精度、リコール、F1スコア、平均精度(mAP)の値に基づいて、適切な結果を生成する。
その結果、YOLOv5lは0.593のmAP@.5の精度で他のアルゴリズムよりも優れており、MobileNetv2 FPN-liteは3.20msの推論時間しか持たない。
また、YOLOv5sが最も効率的で、YOLOv5lの精度と速度はMobileNetv2 FPN-liteとほぼ同等であることがわかった。
このことは、様々なアルゴリズムが道路レベルの物体検出に適しており、自動運転車で十分に使用できることを示している。
関連論文リスト
- A lightweight YOLOv5-FFM model for occlusion pedestrian detection [1.62877896907106]
ヨロは、効率的で単純な1段階目標検出法であり、様々な環境における歩行者検出によく用いられる。
本稿では,これらの問題に対処する軽量YOLOv5モデルを提案する。
このモデルは浮動小数点演算(FLOP)の少ない歩行者検出精度を向上させることができる。
論文 参考訳(メタデータ) (2024-08-13T04:42:02Z) - SalienDet: A Saliency-based Feature Enhancement Algorithm for Object
Detection for Autonomous Driving [160.57870373052577]
未知の物体を検出するために,サリエンデット法(SalienDet)を提案する。
我々のSaienDetは、オブジェクトの提案生成のための画像機能を強化するために、サリエンシに基づくアルゴリズムを利用している。
オープンワールド検出を実現するためのトレーニングサンプルセットにおいて、未知のオブジェクトをすべてのオブジェクトと区別するためのデータセットレザベリングアプローチを設計する。
論文 参考訳(メタデータ) (2023-05-11T16:19:44Z) - Fast and Accurate Object Detection on Asymmetrical Receptive Field [0.0]
本稿では,物体検出精度を受容場の変化の観点から改善する手法を提案する。
YOLOv5の頭部の構造は、非対称なプール層を付加することによって改変される。
本稿では, 従来の YOLOv5 モデルと比較し, いくつかのパラメータから解析する。
論文 参考訳(メタデータ) (2023-03-15T23:59:18Z) - TraCon: A novel dataset for real-time traffic cones detection using deep
learning [7.759841699582662]
本研究では,交通円錐の効率的かつ迅速な検出のための解を見つけるために,YOLOv5アルゴリズムを用いる。
YOLOv5はIoUのスコアを91.31%まで高感度で検出できる。
論文 参考訳(メタデータ) (2022-05-24T06:51:58Z) - CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification [53.56290185900837]
予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
論文 参考訳(メタデータ) (2021-10-22T15:05:37Z) - CFTrack: Center-based Radar and Camera Fusion for 3D Multi-Object
Tracking [9.62721286522053]
本稿では,レーダとカメラセンサの融合に基づく共同物体検出と追跡のためのエンドツーエンドネットワークを提案する。
提案手法では,物体検出に中心型レーダカメラ融合アルゴリズムを用い,物体関連にグリーディアルゴリズムを用いる。
提案手法は,20.0AMOTAを達成し,ベンチマークにおける視覚ベースの3Dトラッキング手法よりも優れる,挑戦的なnuScenesデータセット上で評価する。
論文 参考訳(メタデータ) (2021-07-11T23:56:53Z) - Achieving Real-Time Object Detection on MobileDevices with Neural
Pruning Search [45.20331644857981]
本稿では,2次元および3次元物体検出のための自律走行車における高速推論を実現するために,コンパイラ対応のニューラルプルーニング検索フレームワークを提案する。
提案手法は, YOLOv4 を用いた2次元物体検出と PointPillars による3次元物体検出において, 実時間, 55ms および 99ms の推論時間を実現する。
論文 参考訳(メタデータ) (2021-06-28T18:59:20Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - Expandable YOLO: 3D Object Detection from RGB-D Images [64.14512458954344]
本稿では,ステレオカメラから深度とカラー画像を入力する軽量物体検出器の構築を目的とする。
YOLOv3のネットワークアーキテクチャを中央から3Dに拡張することにより、深さ方向の出力が可能となる。
領域抽出結果の精度を確認するため、3次元空間におけるユニノン(IoU)の切断を導入する。
論文 参考訳(メタデータ) (2020-06-26T07:32:30Z) - Train in Germany, Test in The USA: Making 3D Object Detectors Generalize [59.455225176042404]
ディープラーニングにより、LiDARやステレオカメラデータなどの3Dオブジェクト検出精度が大幅に向上した。
自動運転のためのほとんどのデータセットは、1つの国内の都市の狭い部分で収集される。
本稿では,あるデータセットから別のデータセットに3Dオブジェクト検出器を適応させる作業について考察する。
論文 参考訳(メタデータ) (2020-05-17T00:56:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。