論文の概要: Investigating YOLO Models Towards Outdoor Obstacle Detection For
Visually Impaired People
- arxiv url: http://arxiv.org/abs/2312.07571v1
- Date: Sun, 10 Dec 2023 13:16:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-14 18:09:13.146184
- Title: Investigating YOLO Models Towards Outdoor Obstacle Detection For
Visually Impaired People
- Title(参考訳): 視覚障害者の屋外障害物検出に向けたYOLOモデルの検討
- Authors: Chenhao He and Pramit Saha
- Abstract要約: 7種類のYOLOオブジェクト検出モデルが実装された。
YOLOv8は最高のモデルであることが判明し、その精度は80ドルに達し、よく知られたObstacleデータセットでは68.2%だった。
YOLO-NASは障害物検出作業に最適であることがわかった。
- 参考スコア(独自算出の注目度): 3.4628430044380973
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The utilization of deep learning-based object detection is an effective
approach to assist visually impaired individuals in avoiding obstacles. In this
paper, we implemented seven different YOLO object detection models
\textit{viz}., YOLO-NAS (small, medium, large), YOLOv8, YOLOv7, YOLOv6, and
YOLOv5 and performed comprehensive evaluation with carefully tuned
hyperparameters, to analyze how these models performed on images containing
common daily-life objects presented on roads and sidewalks. After a systematic
investigation, YOLOv8 was found to be the best model, which reached a precision
of $80\%$ and a recall of $68.2\%$ on a well-known Obstacle Dataset which
includes images from VOC dataset, COCO dataset, and TT100K dataset along with
images collected by the researchers in the field. Despite being the latest
model and demonstrating better performance in many other applications, YOLO-NAS
was found to be suboptimal for the obstacle detection task.
- Abstract(参考訳): 深層学習に基づく物体検出の利用は、視覚障害者の障害回避を支援する効果的なアプローチである。
本稿では,7種類のYOLOオブジェクト検出モデルであるtextit{viz}を実装した。
YOLO-NAS, YOLO-NAS (小, 中, 大), YOLOv8, YOLOv7, YOLOv6, YOLOv5は, 慎重に調整したハイパーパラメータを用いて包括的評価を行い, 道路や歩道で提示される日常的物体を含む画像に対して, これらのモデルがどのように実行されたかを分析した。
系統的な調査の後、YOLOv8は最高のモデルであることが判明し、この分野の研究者が収集した画像とともにVOCデータセット、COCOデータセット、TT100Kデータセットの画像を含む、よく知られたObstacle Datasetの80\%$と68.2\%$のリコールに達した。
YOLO-NASは最新のモデルであり、他の多くのアプリケーションで優れた性能を示すが、障害物検出タスクには最適であることがわかった。
関連論文リスト
- Optimizing YOLO Architectures for Optimal Road Damage Detection and Classification: A Comparative Study from YOLOv7 to YOLOv10 [0.0]
本稿では,ディープラーニングモデルを用いた道路損傷検出のための総合ワークフローを提案する。
ハードウェアの制約を満たすため、大きな画像が収穫され、軽量モデルが利用される。
提案手法では,コーディネートアテンションレイヤを備えたカスタムYOLOv7モデルや,Tiny YOLOv7モデルなど,複数のモデルアーキテクチャを採用している。
論文 参考訳(メタデータ) (2024-10-10T22:55:12Z) - YOLOv10: Real-Time End-to-End Object Detection [68.28699631793967]
リアルタイムオブジェクト検出の分野では,YOLOが主流のパラダイムとして浮上している。
非最大抑圧(NMS)による処理後ハマーによるYOLOのエンドツーエンドデプロイメントへの依存。
YOLOの総合的効率-精度駆動型モデル設計戦略を紹介する。
論文 参考訳(メタデータ) (2024-05-23T11:44:29Z) - YOLO-World: Real-Time Open-Vocabulary Object Detection [87.08732047660058]
オープン語彙検出機能でYOLOを強化する革新的なアプローチであるYOLO-Worldを紹介する。
提案手法は,ゼロショット方式で広範囲の物体を高効率で検出する。
YOLO-WorldはV100上で52.0 FPSの35.4 APを達成した。
論文 参考訳(メタデータ) (2024-01-30T18:59:38Z) - DiffYOLO: Object Detection for Anti-Noise via YOLO and Diffusion Models [4.7846759259287985]
本稿では,DiffYOLO と呼ばれる YOLO モデルに適用可能なフレームワークを提案する。
具体的には,拡散確率モデルから特徴写像を抽出し,よく訓練されたモデルを強化する。
その結果、このフレームワークはノイズの多いデータセットのパフォーマンスを証明できるだけでなく、高品質なテストデータセットにおける検出結果も証明できることがわかった。
論文 参考訳(メタデータ) (2024-01-03T10:35:35Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - YOLOv3 with Spatial Pyramid Pooling for Object Detection with Unmanned
Aerial Vehicles [0.0]
我々は,背骨ダークネット53の端に空間ピラミッドポーリング層を追加することで,一段検出器YOLOv3の性能向上を目指す。
また, YOLOv3法の異なるバージョンについて評価を行った。
論文 参考訳(メタデータ) (2023-05-21T04:41:52Z) - Performance Analysis of YOLO-based Architectures for Vehicle Detection
from Traffic Images in Bangladesh [0.0]
バングラデシュの交通画像から高速かつ正確な車両検出を行うのに最適なYOLOアーキテクチャを見つける。
モデルは、21種類の車両に属する7390の画像を含むデータセットで訓練された。
YOLOV5xは, YOLOv3モデルとYOLOv5sモデルよりそれぞれ7~4%, 精度は12~8.5%向上した。
論文 参考訳(メタデータ) (2022-12-18T18:53:35Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - Evaluation of YOLO Models with Sliced Inference for Small Object
Detection [0.0]
この研究は、小さなオブジェクト検出のためにYOLOv5とYOLOXモデルをベンチマークすることを目的としている。
スライスされた微調整とスライスされた推論が組み合わさって全てのモデルに大幅な改善をもたらした。
論文 参考訳(メタデータ) (2022-03-09T15:24:30Z) - Learning Target Candidate Association to Keep Track of What Not to Track [100.80610986625693]
目標を追尾し続けるために、逸脱物を追跡することを提案します。
視覚的トラッキングにおいて, トラクタオブジェクト間の接地トルース対応を欠く問題に対処するために, 部分アノテーションと自己監督を組み合わせたトレーニング戦略を提案する。
我々のトラッカーは6つのベンチマークで新しい最先端のベンチマークを設定し、AUCスコアはLaSOTで67.2%、OxUvA長期データセットで+6.1%向上した。
論文 参考訳(メタデータ) (2021-03-30T17:58:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。