論文の概要: Benchmarking YOLOv5 and YOLOv7 models with DeepSORT for droplet tracking
applications
- arxiv url: http://arxiv.org/abs/2301.08189v1
- Date: Thu, 19 Jan 2023 17:37:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-20 14:32:27.003578
- Title: Benchmarking YOLOv5 and YOLOv7 models with DeepSORT for droplet tracking
applications
- Title(参考訳): ドロップレット追跡アプリケーションのためのDeepSORTによるYOLOv5およびYOLOv7モデルのベンチマーク
- Authors: Mihir Durve, Sibilla Orsini, Adriano Tiribocchi, Andrea Montessori,
Jean-Michel Tucny, Marco Lauricella, Andrea Camposeo, Dario Pisignano, and
Sauro Succi
- Abstract要約: この研究は、マイクロ流体滴のカスタムデータセットのトレーニング時間と推論時間の観点から、DeepSORTを使ったYOLOv5とYOLOv7ネットワークのベンチマーク研究である。
各種ハードウェア構成におけるビデオ解析のトレーニング時間と時間の観点から, ドロップレット追跡アプリケーションの性能を YOLOv5 と YOLOv7 と比較した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tracking droplets in microfluidics is a challenging task. The difficulty
arises in choosing a tool to analyze general microfluidic videos to infer
physical quantities. The state-of-the-art object detector algorithm You Only
Look Once (YOLO) and the object tracking algorithm Simple Online and Realtime
Tracking with a Deep Association Metric (DeepSORT) are customizable for droplet
identification and tracking. The customization includes training YOLO and
DeepSORT networks to identify and track the objects of interest. We trained
several YOLOv5 and YOLOv7 models and the DeepSORT network for droplet
identification and tracking from microfluidic experimental videos. We compare
the performance of the droplet tracking applications with YOLOv5 and YOLOv7 in
terms of training time and time to analyze a given video across various
hardware configurations. Despite the latest YOLOv7 being 10% faster, the
real-time tracking is only achieved by lighter YOLO models on RTX 3070 Ti GPU
machine due to additional significant droplet tracking costs arising from the
DeepSORT algorithm. This work is a benchmark study for the YOLOv5 and YOLOv7
networks with DeepSORT in terms of the training time and inference time for a
custom dataset of microfluidic droplets.
- Abstract(参考訳): マイクロ流体中の液滴の追跡は難しい課題だ。
この困難は、一般的なマイクロ流体ビデオを分析して物理量を推測するツールを選択する際に生じる。
最先端のオブジェクト検出アルゴリズム You Only Look Once (YOLO) とオブジェクト追跡アルゴリズム Simple Online and Realtime Tracking with a Deep Association Metric (DeepSORT) は、ドロップレットの識別と追跡のためにカスタマイズできる。
カスタマイズにはYOLOとDeepSORTネットワークをトレーニングし、関心のあるオブジェクトを特定し追跡する。
我々は,マイクロ流体実験ビデオから,いくつかのYOLOv5およびYOLOv7モデルとDeepSORTネットワークをトレーニングした。
各種ハードウェア構成におけるビデオ解析のトレーニング時間と時間の観点から,ドロップレット追跡アプリケーションの性能を YOLOv5 と YOLOv7 と比較した。
最新のYOLOv7は10%高速化されているが、リアルタイムトラッキングは、DeepSORTアルゴリズムによる追加のドロップレット追跡コストのため、RTX 3070 Ti GPUマシン上のより軽量なYOLOモデルによってのみ実現されている。
この研究は、マイクロ流体滴のカスタムデータセットのトレーニング時間と推論時間の観点から、DeepSORTを使ったYOLOv5とYOLOv7ネットワークのベンチマーク研究である。
関連論文リスト
- YOLOv5, YOLOv8 and YOLOv10: The Go-To Detectors for Real-time Vision [0.6662800021628277]
本稿では、YOLOv5, YOLOv8, YOLOv10に着目し、YOLO(You Only Look Once)オブジェクト検出アルゴリズムの進化に焦点を当てた。
これらのバージョンにまたがるエッジデプロイメントのアーキテクチャの進歩、パフォーマンスの改善、適合性を分析します。
論文 参考訳(メタデータ) (2024-07-03T10:40:20Z) - YOLOv10: Real-Time End-to-End Object Detection [68.28699631793967]
リアルタイムオブジェクト検出の分野では,YOLOが主流のパラダイムとして浮上している。
非最大抑圧(NMS)による処理後ハマーによるYOLOのエンドツーエンドデプロイメントへの依存。
YOLOの総合的効率-精度駆動型モデル設計戦略を紹介する。
論文 参考訳(メタデータ) (2024-05-23T11:44:29Z) - YOLO-World: Real-Time Open-Vocabulary Object Detection [87.08732047660058]
オープン語彙検出機能でYOLOを強化する革新的なアプローチであるYOLO-Worldを紹介する。
提案手法は,ゼロショット方式で広範囲の物体を高効率で検出する。
YOLO-WorldはV100上で52.0 FPSの35.4 APを達成した。
論文 参考訳(メタデータ) (2024-01-30T18:59:38Z) - Investigating YOLO Models Towards Outdoor Obstacle Detection For
Visually Impaired People [3.4628430044380973]
7種類のYOLOオブジェクト検出モデルが実装された。
YOLOv8は最高のモデルであることが判明し、その精度は80ドルに達し、よく知られたObstacleデータセットでは68.2%だった。
YOLO-NASは障害物検出作業に最適であることがわかった。
論文 参考訳(メタデータ) (2023-12-10T13:16:22Z) - BEVTrack: A Simple and Strong Baseline for 3D Single Object Tracking in Bird's-Eye View [56.77287041917277]
3Dシングルオブジェクトトラッキング(SOT)はコンピュータビジョンの基本課題であり、自律運転のようなアプリケーションに不可欠なことを証明している。
本稿では,単純で効果的なベースライン手法であるBEVTrackを提案する。
Bird's-Eye View (BEV) における目標運動を推定して追跡を行うことにより、BEVTrackは、ネットワーク設計、トレーニング目標、トラッキングパイプラインなど、様々な側面から驚くほどの単純さを示しながら、優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-09-05T12:42:26Z) - SATAY: A Streaming Architecture Toolflow for Accelerating YOLO Models on
FPGA Devices [48.47320494918925]
この作業は、超低レイテンシアプリケーションのために、最先端のオブジェクト検出モデルをFPGAデバイスにデプロイする際の課題に対処する。
YOLOアクセラレータにはストリーミングアーキテクチャ設計を採用しており、チップ上で完全なモデルを深くパイプライン化して実装しています。
データフロー方式でYOLOモデルの動作をサポートする新しいハードウェアコンポーネントを導入し、オンチップメモリリソースの制限に対処するために、オフチップメモリバッファリングを導入する。
論文 参考訳(メタデータ) (2023-09-04T13:15:01Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - Video object tracking based on YOLOv7 and DeepSORT [7.651368436751519]
我々は、DeepSORTのオブジェクト検出部としてYOLOv7を提案し、YOLOv7-DeepSORTを提案する。
実験の結果、従来のYOLOv5-DeepSORTと比較して、YOLOv7-DeepSORTの性能はトラッキング精度が向上した。
論文 参考訳(メタデータ) (2022-07-25T13:43:34Z) - DropTrack -- automatic droplet tracking using deep learning for
microfluidic applications [0.0]
マイクロ流体実験でしばしば望まれる基本的な分析は、滴を数え、追跡することである。
ここでは、オブジェクト検出(YOLO)とオブジェクト追跡(DeepSORT)の2つのディープラーニングベースのアルゴリズムを、単一の画像解析ツールDropTrackに統合する。
DropTrackは、入力ビデオを分析し、ドロップレットのトラジェクトリを抽出し、ドロップレット番号などの他のオブザーバビリティーを推論する。
論文 参考訳(メタデータ) (2022-05-05T11:03:32Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。