論文の概要: Benchmarking YOLOv5 and YOLOv7 models with DeepSORT for droplet tracking
applications
- arxiv url: http://arxiv.org/abs/2301.08189v1
- Date: Thu, 19 Jan 2023 17:37:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-20 14:32:27.003578
- Title: Benchmarking YOLOv5 and YOLOv7 models with DeepSORT for droplet tracking
applications
- Title(参考訳): ドロップレット追跡アプリケーションのためのDeepSORTによるYOLOv5およびYOLOv7モデルのベンチマーク
- Authors: Mihir Durve, Sibilla Orsini, Adriano Tiribocchi, Andrea Montessori,
Jean-Michel Tucny, Marco Lauricella, Andrea Camposeo, Dario Pisignano, and
Sauro Succi
- Abstract要約: この研究は、マイクロ流体滴のカスタムデータセットのトレーニング時間と推論時間の観点から、DeepSORTを使ったYOLOv5とYOLOv7ネットワークのベンチマーク研究である。
各種ハードウェア構成におけるビデオ解析のトレーニング時間と時間の観点から, ドロップレット追跡アプリケーションの性能を YOLOv5 と YOLOv7 と比較した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tracking droplets in microfluidics is a challenging task. The difficulty
arises in choosing a tool to analyze general microfluidic videos to infer
physical quantities. The state-of-the-art object detector algorithm You Only
Look Once (YOLO) and the object tracking algorithm Simple Online and Realtime
Tracking with a Deep Association Metric (DeepSORT) are customizable for droplet
identification and tracking. The customization includes training YOLO and
DeepSORT networks to identify and track the objects of interest. We trained
several YOLOv5 and YOLOv7 models and the DeepSORT network for droplet
identification and tracking from microfluidic experimental videos. We compare
the performance of the droplet tracking applications with YOLOv5 and YOLOv7 in
terms of training time and time to analyze a given video across various
hardware configurations. Despite the latest YOLOv7 being 10% faster, the
real-time tracking is only achieved by lighter YOLO models on RTX 3070 Ti GPU
machine due to additional significant droplet tracking costs arising from the
DeepSORT algorithm. This work is a benchmark study for the YOLOv5 and YOLOv7
networks with DeepSORT in terms of the training time and inference time for a
custom dataset of microfluidic droplets.
- Abstract(参考訳): マイクロ流体中の液滴の追跡は難しい課題だ。
この困難は、一般的なマイクロ流体ビデオを分析して物理量を推測するツールを選択する際に生じる。
最先端のオブジェクト検出アルゴリズム You Only Look Once (YOLO) とオブジェクト追跡アルゴリズム Simple Online and Realtime Tracking with a Deep Association Metric (DeepSORT) は、ドロップレットの識別と追跡のためにカスタマイズできる。
カスタマイズにはYOLOとDeepSORTネットワークをトレーニングし、関心のあるオブジェクトを特定し追跡する。
我々は,マイクロ流体実験ビデオから,いくつかのYOLOv5およびYOLOv7モデルとDeepSORTネットワークをトレーニングした。
各種ハードウェア構成におけるビデオ解析のトレーニング時間と時間の観点から,ドロップレット追跡アプリケーションの性能を YOLOv5 と YOLOv7 と比較した。
最新のYOLOv7は10%高速化されているが、リアルタイムトラッキングは、DeepSORTアルゴリズムによる追加のドロップレット追跡コストのため、RTX 3070 Ti GPUマシン上のより軽量なYOLOモデルによってのみ実現されている。
この研究は、マイクロ流体滴のカスタムデータセットのトレーニング時間と推論時間の観点から、DeepSORTを使ったYOLOv5とYOLOv7ネットワークのベンチマーク研究である。
関連論文リスト
- YOLO-World: Real-Time Open-Vocabulary Object Detection [87.08732047660058]
オープン語彙検出機能でYOLOを強化する革新的なアプローチであるYOLO-Worldを紹介する。
提案手法は,ゼロショット方式で広範囲の物体を高効率で検出する。
YOLO-WorldはV100上で52.0 FPSの35.4 APを達成した。
論文 参考訳(メタデータ) (2024-01-30T18:59:38Z) - Investigating YOLO Models Towards Outdoor Obstacle Detection For
Visually Impaired People [3.4628430044380973]
7種類のYOLOオブジェクト検出モデルが実装された。
YOLOv8は最高のモデルであることが判明し、その精度は80ドルに達し、よく知られたObstacleデータセットでは68.2%だった。
YOLO-NASは障害物検出作業に最適であることがわかった。
論文 参考訳(メタデータ) (2023-12-10T13:16:22Z) - SATAY: A Streaming Architecture Toolflow for Accelerating YOLO Models on
FPGA Devices [48.47320494918925]
この作業は、超低レイテンシアプリケーションのために、最先端のオブジェクト検出モデルをFPGAデバイスにデプロイする際の課題に対処する。
YOLOアクセラレータにはストリーミングアーキテクチャ設計を採用しており、チップ上で完全なモデルを深くパイプライン化して実装しています。
データフロー方式でYOLOモデルの動作をサポートする新しいハードウェアコンポーネントを導入し、オンチップメモリリソースの制限に対処するために、オフチップメモリバッファリングを導入する。
論文 参考訳(メタデータ) (2023-09-04T13:15:01Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - Video object tracking based on YOLOv7 and DeepSORT [7.651368436751519]
我々は、DeepSORTのオブジェクト検出部としてYOLOv7を提案し、YOLOv7-DeepSORTを提案する。
実験の結果、従来のYOLOv5-DeepSORTと比較して、YOLOv7-DeepSORTの性能はトラッキング精度が向上した。
論文 参考訳(メタデータ) (2022-07-25T13:43:34Z) - DropTrack -- automatic droplet tracking using deep learning for
microfluidic applications [0.0]
マイクロ流体実験でしばしば望まれる基本的な分析は、滴を数え、追跡することである。
ここでは、オブジェクト検出(YOLO)とオブジェクト追跡(DeepSORT)の2つのディープラーニングベースのアルゴリズムを、単一の画像解析ツールDropTrackに統合する。
DropTrackは、入力ビデオを分析し、ドロップレットのトラジェクトリを抽出し、ドロップレット番号などの他のオブザーバビリティーを推論する。
論文 参考訳(メタデータ) (2022-05-05T11:03:32Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - Workshop on Autonomous Driving at CVPR 2021: Technical Report for
Streaming Perception Challenge [57.647371468876116]
本稿では,現実的な自律運転シナリオのためのリアルタイム2次元物体検出システムについて紹介する。
私たちの検出器は、YOLOXと呼ばれる新しい設計のYOLOモデルで構築されています。
Argoverse-HDデータセットでは,検出のみのトラック/トラックで2位を7.8/6.1上回る41.0ストリーミングAPを達成した。
論文 参考訳(メタデータ) (2021-07-27T06:36:06Z) - Learning Target Candidate Association to Keep Track of What Not to Track [100.80610986625693]
目標を追尾し続けるために、逸脱物を追跡することを提案します。
視覚的トラッキングにおいて, トラクタオブジェクト間の接地トルース対応を欠く問題に対処するために, 部分アノテーションと自己監督を組み合わせたトレーニング戦略を提案する。
我々のトラッカーは6つのベンチマークで新しい最先端のベンチマークを設定し、AUCスコアはLaSOTで67.2%、OxUvA長期データセットで+6.1%向上した。
論文 参考訳(メタデータ) (2021-03-30T17:58:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。