論文の概要: Comparison Of Deep Object Detectors On A New Vulnerable Pedestrian
Dataset
- arxiv url: http://arxiv.org/abs/2212.06218v1
- Date: Mon, 12 Dec 2022 19:59:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 14:36:56.938836
- Title: Comparison Of Deep Object Detectors On A New Vulnerable Pedestrian
Dataset
- Title(参考訳): 新しい脆弱歩行者データセットにおける深部物体検出器の比較
- Authors: Devansh Sharma, Tihitina Hade, Qing Tian
- Abstract要約: 新たに脆弱な歩行者検出データセットであるBG Vulnerable Pedestrian(BGVP)データセットを導入する。
このデータセットはパブリックドメインから収集された画像と手動で注釈付けされたバウンディングボックスで構成されている。
提案したデータセットでは,YOLOv4,YOLOv5,YOLOX,Faster R-CNN,EfficientDetという,最先端のオブジェクト検出モデルのトレーニングとテストを行った。
- 参考スコア(独自算出の注目度): 2.7393821783237184
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pedestrian safety is one primary concern in autonomous driving. The
under-representation of vulnerable groups in today's pedestrian datasets points
to an urgent need for a dataset of vulnerable road users. In this paper, we
first introduce a new vulnerable pedestrian detection dataset, BG Vulnerable
Pedestrian (BGVP) dataset to help train well-rounded models and thus induce
research to increase the efficacy of vulnerable pedestrian detection. The
dataset includes four classes, i.e., Children Without Disability, Elderly
without Disability, With Disability, and Non-Vulnerable. This dataset consists
of images collected from the public domain and manually-annotated bounding
boxes. In addition, on the proposed dataset, we have trained and tested five
state-of-the-art object detection models, i.e., YOLOv4, YOLOv5, YOLOX, Faster
R-CNN, and EfficientDet. Our results indicate that YOLOX and YOLOv4 perform the
best on our dataset, YOLOv4 scoring 0.7999 and YOLOX scoring 0.7779 on the mAP
0.5 metric, while YOLOX outperforms YOLOv4 by 3.8 percent on the mAP 0.5:0.95
metric. Generally speaking, all five detectors do well predicting the With
Disability class and perform poorly in the Elderly Without Disability class.
YOLOX consistently outperforms all other detectors on the mAP (0.5:0.95) per
class metric, obtaining 0.5644, 0.5242, 0.4781, and 0.6796 for Children Without
Disability, Elderly Without Disability, Non-vulnerable, and With Disability,
respectively. Our dataset and codes are available at
https://github.com/devvansh1997/BGVP.
- Abstract(参考訳): 歩行者の安全は自動運転の主要な関心事である。
今日の歩行者データセットにおける脆弱なグループの表現不足は、脆弱な道路ユーザのデータセットに対する緊急の必要性を示している。
本稿では、まず、BG Vulnerable Pedestrian(BGVP)データセットという、脆弱な歩行者検出データセットを導入し、身近なモデルを訓練し、脆弱な歩行者検出の有効性を高めるために研究を誘導する。
データセットには、障害のない子供、障害のない高齢者、障害のある高齢者、非脆弱性の4つのクラスが含まれている。
このデータセットはパブリックドメインから収集された画像と手動で注釈付けされたバウンディングボックスで構成されている。
さらに,提案したデータセットを用いて,YOLOv4,YOLOv5,YOLOX,Faster R-CNN,EfficientDetという,最先端オブジェクト検出モデルのトレーニングとテストを行った。
その結果,YOLOXとYOLOv4はデータセット上で最高の成績を示し,YOLOv4は0.7999,YOLOXは0.5で0.7779,YOLOXは0.5で3.8%の成績を示した。
一般的に、5つの検知器は、 with Disability クラスをよく予測し、高齢者障害クラスではうまく機能しない。
YOLOX は mAP (0.5:0.95) の他の検出器を常に上回り、障害のない子供、障害のない高齢者、障害のない子供、障害のない子供、および障害のない人それぞれ 0.5644, 0.5242, 0.4781, 0.6796 を得る。
私たちのデータセットとコードはhttps://github.com/devvansh1997/bgvpで利用可能です。
関連論文リスト
- YOLO-World: Real-Time Open-Vocabulary Object Detection [87.08732047660058]
オープン語彙検出機能でYOLOを強化する革新的なアプローチであるYOLO-Worldを紹介する。
提案手法は,ゼロショット方式で広範囲の物体を高効率で検出する。
YOLO-WorldはV100上で52.0 FPSの35.4 APを達成した。
論文 参考訳(メタデータ) (2024-01-30T18:59:38Z) - Investigating YOLO Models Towards Outdoor Obstacle Detection For
Visually Impaired People [3.4628430044380973]
7種類のYOLOオブジェクト検出モデルが実装された。
YOLOv8は最高のモデルであることが判明し、その精度は80ドルに達し、よく知られたObstacleデータセットでは68.2%だった。
YOLO-NASは障害物検出作業に最適であることがわかった。
論文 参考訳(メタデータ) (2023-12-10T13:16:22Z) - Evaluating Graph Neural Networks for Link Prediction: Current Pitfalls
and New Benchmarking [66.83273589348758]
リンク予測は、グラフのエッジの一部のみに基づいて、目に見えないエッジが存在するかどうかを予測しようとする。
近年,この課題にグラフニューラルネットワーク(GNN)を活用すべく,一連の手法が導入されている。
これらの新しいモデルの有効性をよりよく評価するために、新しい多様なデータセットも作成されている。
論文 参考訳(メタデータ) (2023-06-18T01:58:59Z) - Conservative Prediction via Data-Driven Confidence Minimization [66.35245313125934]
機械学習モデルのエラーは、特に医療のような安全クリティカルな領域では、コストがかかる。
本稿では、不確実性データセットに対する信頼性を最小化するデータ駆動型信頼性最小化(DCM)を提案する。
実験の結果、DCMは8つのID-OODデータセットペアに対して、最先端のOOD検出方法よりも一貫して優れていることがわかった。
論文 参考訳(メタデータ) (2023-06-08T07:05:36Z) - EdgeYOLO: An Edge-Real-Time Object Detector [69.41688769991482]
本稿では, 最先端のYOLOフレームワークをベースとした, 効率的で低複雑さかつアンカーフリーな物体検出器を提案する。
我々は,訓練中の過剰適合を効果的に抑制する拡張データ拡張法を開発し,小型物体の検出精度を向上させるためにハイブリッドランダム損失関数を設計する。
私たちのベースラインモデルは、MS 2017データセットで50.6%のAP50:95と69.8%のAP50、VisDrone 2019-DETデータセットで26.4%のAP50と44.8%のAP50に達し、エッジコンピューティングデバイスNvidia上でリアルタイム要求(FPS>=30)を満たす。
論文 参考訳(メタデータ) (2023-02-15T06:05:14Z) - Automatic Cattle Identification using YOLOv5 and Mosaic Augmentation: A
Comparative Analysis [2.161241370008739]
園内の牛を識別するためのYOLOv5モデルについて検討した。
牛の銃口のパターンは、人間の指紋のようなユニークな生体認証ソリューションである。
論文 参考訳(メタデータ) (2022-10-21T13:13:40Z) - YOLOX-PAI: An Improved YOLOX, Stronger and Faster than YOLOv6 [9.467160135481713]
我々は、様々なSOTAコンピュータビジョン手法の使用を容易にするために、EasyCVというオールインワンのコンピュータビジョンツールボックスを開発した。
本研究は,YOLOXに対する検出方法の影響を調べるためのアブレーション研究である。
1つのNVIDIA V100 GPUで1.0ms以内の日付セットで42.8mAPを受け取り、YOLOv6より少し高速です。
論文 参考訳(メタデータ) (2022-08-27T15:37:26Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - COVID-19 Detection Using CT Image Based On YOLOv5 Network [31.848436570442704]
Kaggleプラットフォームが提供するデータセットと、モデルとしてYOLOv5を選択します。
本研究は,作業部における客観的検出手法について紹介する。
対物検出は、1段と2段の2つのストリームに分けることができる。
論文 参考訳(メタデータ) (2022-01-24T21:50:58Z) - YOLOX: Exceeding YOLO Series in 2021 [25.734980783220976]
我々は、YOLO検出器をアンカーフリーに切り換え、他の高度な検出技術を実行する。
0.91Mパラメータと1.08G FLOPしか持たないYOLO-Nanoでは、COCOで25.3%のAPが取得でき、NanoDetを1.8%上回っている。
YOLOv4-CSP, YOLOv5-Lとほぼ同じパラメータを持つYOLOX-Lでは、Tesla V100で68.9 FPSの速度でCOCOで50.0%APを達成する。
論文 参考訳(メタデータ) (2021-07-18T12:55:11Z) - Bootstrapping Your Own Positive Sample: Contrastive Learning With
Electronic Health Record Data [62.29031007761901]
本稿では,新しいコントラスト型正規化臨床分類モデルを提案する。
EHRデータに特化した2つのユニークなポジティブサンプリング戦略を紹介します。
私たちのフレームワークは、現実世界のCOVID-19 EHRデータの死亡リスクを予測するために、競争の激しい実験結果をもたらします。
論文 参考訳(メタデータ) (2021-04-07T06:02:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。