論文の概要: Comparison Of Deep Object Detectors On A New Vulnerable Pedestrian
Dataset
- arxiv url: http://arxiv.org/abs/2212.06218v1
- Date: Mon, 12 Dec 2022 19:59:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 14:36:56.938836
- Title: Comparison Of Deep Object Detectors On A New Vulnerable Pedestrian
Dataset
- Title(参考訳): 新しい脆弱歩行者データセットにおける深部物体検出器の比較
- Authors: Devansh Sharma, Tihitina Hade, Qing Tian
- Abstract要約: 新たに脆弱な歩行者検出データセットであるBG Vulnerable Pedestrian(BGVP)データセットを導入する。
このデータセットはパブリックドメインから収集された画像と手動で注釈付けされたバウンディングボックスで構成されている。
提案したデータセットでは,YOLOv4,YOLOv5,YOLOX,Faster R-CNN,EfficientDetという,最先端のオブジェクト検出モデルのトレーニングとテストを行った。
- 参考スコア(独自算出の注目度): 2.7393821783237184
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pedestrian safety is one primary concern in autonomous driving. The
under-representation of vulnerable groups in today's pedestrian datasets points
to an urgent need for a dataset of vulnerable road users. In this paper, we
first introduce a new vulnerable pedestrian detection dataset, BG Vulnerable
Pedestrian (BGVP) dataset to help train well-rounded models and thus induce
research to increase the efficacy of vulnerable pedestrian detection. The
dataset includes four classes, i.e., Children Without Disability, Elderly
without Disability, With Disability, and Non-Vulnerable. This dataset consists
of images collected from the public domain and manually-annotated bounding
boxes. In addition, on the proposed dataset, we have trained and tested five
state-of-the-art object detection models, i.e., YOLOv4, YOLOv5, YOLOX, Faster
R-CNN, and EfficientDet. Our results indicate that YOLOX and YOLOv4 perform the
best on our dataset, YOLOv4 scoring 0.7999 and YOLOX scoring 0.7779 on the mAP
0.5 metric, while YOLOX outperforms YOLOv4 by 3.8 percent on the mAP 0.5:0.95
metric. Generally speaking, all five detectors do well predicting the With
Disability class and perform poorly in the Elderly Without Disability class.
YOLOX consistently outperforms all other detectors on the mAP (0.5:0.95) per
class metric, obtaining 0.5644, 0.5242, 0.4781, and 0.6796 for Children Without
Disability, Elderly Without Disability, Non-vulnerable, and With Disability,
respectively. Our dataset and codes are available at
https://github.com/devvansh1997/BGVP.
- Abstract(参考訳): 歩行者の安全は自動運転の主要な関心事である。
今日の歩行者データセットにおける脆弱なグループの表現不足は、脆弱な道路ユーザのデータセットに対する緊急の必要性を示している。
本稿では、まず、BG Vulnerable Pedestrian(BGVP)データセットという、脆弱な歩行者検出データセットを導入し、身近なモデルを訓練し、脆弱な歩行者検出の有効性を高めるために研究を誘導する。
データセットには、障害のない子供、障害のない高齢者、障害のある高齢者、非脆弱性の4つのクラスが含まれている。
このデータセットはパブリックドメインから収集された画像と手動で注釈付けされたバウンディングボックスで構成されている。
さらに,提案したデータセットを用いて,YOLOv4,YOLOv5,YOLOX,Faster R-CNN,EfficientDetという,最先端オブジェクト検出モデルのトレーニングとテストを行った。
その結果,YOLOXとYOLOv4はデータセット上で最高の成績を示し,YOLOv4は0.7999,YOLOXは0.5で0.7779,YOLOXは0.5で3.8%の成績を示した。
一般的に、5つの検知器は、 with Disability クラスをよく予測し、高齢者障害クラスではうまく機能しない。
YOLOX は mAP (0.5:0.95) の他の検出器を常に上回り、障害のない子供、障害のない高齢者、障害のない子供、障害のない子供、および障害のない人それぞれ 0.5644, 0.5242, 0.4781, 0.6796 を得る。
私たちのデータセットとコードはhttps://github.com/devvansh1997/bgvpで利用可能です。
関連論文リスト
- Evaluating the Evolution of YOLO (You Only Look Once) Models: A Comprehensive Benchmark Study of YOLO11 and Its Predecessors [0.0]
本研究では,YOLOv3から最新のYOLO11まで,YOLO(You Only Look Once)アルゴリズムのベンチマーク解析を行った。
トラフィックシグネチャ(さまざまなオブジェクトサイズを持つ)、アフリカ野生生物(多彩なアスペクト比と画像当たりのオブジェクトの少なくとも1つのインスタンス)、および船と船舶(単一のクラスの小さなオブジェクトを持つ)の3つの多様なデータセットでパフォーマンスを評価する。
論文 参考訳(メタデータ) (2024-10-31T20:45:00Z) - Pediatric Wrist Fracture Detection in X-rays via YOLOv10 Algorithm and Dual Label Assignment System [2.4554686192257424]
本研究は, 小児手首骨折の診断成績を評価するために, 様々なYOLOv10変異体を初めて評価したものである。
モデル複雑性の変化、アーキテクチャのスケーリング、デュアルラベル割り当て戦略の実装によって検出性能が向上する方法について検討する。
論文 参考訳(メタデータ) (2024-07-22T14:54:51Z) - Global Context Modeling in YOLOv8 for Pediatric Wrist Fracture Detection [0.0]
小児は日常的に手首を負傷することが多いが、骨折を負った放射線科医は手術前にX線画像を分析し解釈する必要がある。
ディープラーニングの開発により、ニューラルネットワークモデルはコンピュータ支援診断(CAD)ツールとして機能するようになった。
本稿では,GCブロックを用いたYOLOv8モデルの改良版であるYOLOv8モデルを提案する。
論文 参考訳(メタデータ) (2024-07-03T14:36:07Z) - YOLOv10: Real-Time End-to-End Object Detection [68.28699631793967]
リアルタイムオブジェクト検出の分野では,YOLOが主流のパラダイムとして浮上している。
非最大抑圧(NMS)による処理後ハマーによるYOLOのエンドツーエンドデプロイメントへの依存。
YOLOの総合的効率-精度駆動型モデル設計戦略を紹介する。
論文 参考訳(メタデータ) (2024-05-23T11:44:29Z) - YOLO-World: Real-Time Open-Vocabulary Object Detection [87.08732047660058]
オープン語彙検出機能でYOLOを強化する革新的なアプローチであるYOLO-Worldを紹介する。
提案手法は,ゼロショット方式で広範囲の物体を高効率で検出する。
YOLO-WorldはV100上で52.0 FPSの35.4 APを達成した。
論文 参考訳(メタデータ) (2024-01-30T18:59:38Z) - Investigating YOLO Models Towards Outdoor Obstacle Detection For
Visually Impaired People [3.4628430044380973]
7種類のYOLOオブジェクト検出モデルが実装された。
YOLOv8は最高のモデルであることが判明し、その精度は80ドルに達し、よく知られたObstacleデータセットでは68.2%だった。
YOLO-NASは障害物検出作業に最適であることがわかった。
論文 参考訳(メタデータ) (2023-12-10T13:16:22Z) - Evaluating Graph Neural Networks for Link Prediction: Current Pitfalls
and New Benchmarking [66.83273589348758]
リンク予測は、グラフのエッジの一部のみに基づいて、目に見えないエッジが存在するかどうかを予測しようとする。
近年,この課題にグラフニューラルネットワーク(GNN)を活用すべく,一連の手法が導入されている。
これらの新しいモデルの有効性をよりよく評価するために、新しい多様なデータセットも作成されている。
論文 参考訳(メタデータ) (2023-06-18T01:58:59Z) - EdgeYOLO: An Edge-Real-Time Object Detector [69.41688769991482]
本稿では, 最先端のYOLOフレームワークをベースとした, 効率的で低複雑さかつアンカーフリーな物体検出器を提案する。
我々は,訓練中の過剰適合を効果的に抑制する拡張データ拡張法を開発し,小型物体の検出精度を向上させるためにハイブリッドランダム損失関数を設計する。
私たちのベースラインモデルは、MS 2017データセットで50.6%のAP50:95と69.8%のAP50、VisDrone 2019-DETデータセットで26.4%のAP50と44.8%のAP50に達し、エッジコンピューティングデバイスNvidia上でリアルタイム要求(FPS>=30)を満たす。
論文 参考訳(メタデータ) (2023-02-15T06:05:14Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - COVID-19 Detection Using CT Image Based On YOLOv5 Network [31.848436570442704]
Kaggleプラットフォームが提供するデータセットと、モデルとしてYOLOv5を選択します。
本研究は,作業部における客観的検出手法について紹介する。
対物検出は、1段と2段の2つのストリームに分けることができる。
論文 参考訳(メタデータ) (2022-01-24T21:50:58Z) - Bootstrapping Your Own Positive Sample: Contrastive Learning With
Electronic Health Record Data [62.29031007761901]
本稿では,新しいコントラスト型正規化臨床分類モデルを提案する。
EHRデータに特化した2つのユニークなポジティブサンプリング戦略を紹介します。
私たちのフレームワークは、現実世界のCOVID-19 EHRデータの死亡リスクを予測するために、競争の激しい実験結果をもたらします。
論文 参考訳(メタデータ) (2021-04-07T06:02:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。