論文の概要: Implementing a Real-Time, YOLOv5 based Social Distancing Measuring
System for Covid-19
- arxiv url: http://arxiv.org/abs/2204.03350v1
- Date: Thu, 7 Apr 2022 10:42:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-08 14:52:15.181061
- Title: Implementing a Real-Time, YOLOv5 based Social Distancing Measuring
System for Covid-19
- Title(参考訳): リアルタイムYOLOv5を用いたCovid-19のためのソーシャルディスタンシング計測システムの実装
- Authors: Narayana Darapaneni, Shrawan Kumar, Selvarangan Krishnan, Hemalatha K,
Arunkumar Rajagopal, Nagendra, and Anwesh Reddy Paduri
- Abstract要約: 我々はカスタムモデル YOLOv5 modified CSP (Cross Stage partial Network) を開発した。
我々はCOCOとVisdroneのデータセットの性能をトランスファー学習の有無で評価した。
本研究は, 社会的距離を逸脱した人物の同定に成功していることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The purpose of this work is, to provide a YOLOv5 deep learning-based social
distance monitoring framework using an overhead view perspective. In addition,
we have developed a custom defined model YOLOv5 modified CSP (Cross Stage
Partial Network) and assessed the performance on COCO and Visdrone dataset with
and without transfer learning. Our findings show that the developed model
successfully identifies the individual who violates the social distances. The
accuracy of 81.7% for the modified bottleneck CSP without transfer learning is
observed on COCO dataset after training the model for 300 epochs whereas for
the same epochs, the default YOLOv5 model is attaining 80.1% accuracy with
transfer learning. This shows an improvement in accuracy by our modified
bottleneck CSP model. For the Visdrone dataset, we are able to achieve an
accuracy of upto 56.5% for certain classes and especially an accuracy of 40%
for people and pedestrians with transfer learning using the default YOLOv5s
model for 30 epochs. While the modified bottleneck CSP is able to perform
slightly better than the default model with an accuracy score of upto 58.1% for
certain classes and an accuracy of ~40.4% for people and pedestrians.
- Abstract(参考訳): 本研究の目的は,頭上からの視点を用いた YOLOv5 深層学習に基づくソーシャル距離監視フレームワークを提供することである。
さらに,CSP (Cross Stage partial Network) を改良したカスタムモデル YOLOv5 を開発し,COCO および Visdrone データセットの性能評価を行った。
以上の結果から,発達したモデルは社会的距離に違反した個人を識別することに成功した。
トランスファーラーニングなしで修正されたボトルネックCSPの81.7%の精度は、300エポックのモデルをトレーニングした後のCOCOデータセットで観測されるが、同じエポックでは、デフォルトのYOLOv5モデルはトランスファーラーニングで80.1%の精度に達する。
これは,改良したボトルネックcspモデルによる精度の向上を示す。
visdroneデータセットでは、特定のクラスで最大56.5%の精度を達成でき、特にデフォルトのyolov5sモデルを使って30エポックの転送学習を行う人々と歩行者で40%の精度を実現できます。
改良されたボトルネックcspは、特定のクラスで最大58.1%、人と歩行者で約40.4%の精度で、デフォルトモデルよりも若干パフォーマンスが良い。
関連論文リスト
- BootsTAP: Bootstrapped Training for Tracking-Any-Point [59.78386347329731]
Tracking-Any-Point (TAP) は、ビデオ中の固体表面に対応する任意の点を追跡できるアルゴリズムである。
大規模でラベルなし、未修正の現実世界データは、最小限のアーキテクチャ変更でTAPモデルを改善することができる。
我々は,TAP-Vidベンチマークにおける最先端性能が,従来の結果よりも広いマージンで上回っていることを示す。
論文 参考訳(メタデータ) (2024-02-01T18:38:55Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Developing a Resource-Constraint EdgeAI model for Surface Defect
Detection [1.338174941551702]
資源制約のあるエッジ環境におけるデバイス上でのトレーニングのために,Xceptionから修正した軽量なEdgeAIアーキテクチャを提案する。
我々はPCB欠陥検出タスクにおけるモデルの評価を行い、その性能を既存の軽量モデルと比較した。
本手法は他のリソース制約アプリケーションにも適用できるが,性能は高い。
論文 参考訳(メタデータ) (2023-12-04T15:28:31Z) - Revisiting Classifier: Transferring Vision-Language Models for Video
Recognition [102.93524173258487]
ダウンストリームタスクのためのタスク非依存の深層モデルから知識を伝達することは、コンピュータビジョン研究において重要なトピックである。
本研究では,映像分類作業における知識の伝達に着目した。
予測された言語モデルを用いて、効率的な翻訳学習のための適切なセマンティックターゲットを生成する。
論文 参考訳(メタデータ) (2022-07-04T10:00:47Z) - Channel Pruned YOLOv5-based Deep Learning Approach for Rapid and
Accurate Outdoor Obstacles Detection [6.703770367794502]
1段階のアルゴリズムは、大量のデータをトレーニングする必要があるターゲット検出システムで広く使われている。
畳み込み構造のため、より多くの計算能力とメモリ消費が必要である。
対象検出ネットワークにプルーニング戦略を適用し,パラメータ数とモデルサイズを削減した。
論文 参考訳(メタデータ) (2022-04-27T21:06:04Z) - Sim-to-Real 6D Object Pose Estimation via Iterative Self-training for
Robotic Bin-picking [98.5984733963713]
コスト効率の良いロボットグルーピングを容易にするために,シミュレート・トゥ・リアルな6次元オブジェクトのポーズ推定のための反復的自己学習フレームワークを提案する。
我々は、豊富な仮想データを合成するためのフォトリアリスティックシミュレータを構築し、これを初期ポーズ推定ネットワークのトレーニングに利用する。
このネットワークは教師モデルの役割を担い、未ラベルの実データに対するポーズ予測を生成する。
論文 参考訳(メタデータ) (2022-04-14T15:54:01Z) - An Improved Lightweight YOLOv5 Model Based on Attention Mechanism for
Face Mask Detection [3.3398969693904723]
YOLOv5に基づく軽量マスク検出器を提案する。
平均精度は95.2%で、ベースラインよりも4.4%高く、既存のモデルよりも正確である。
論文 参考訳(メタデータ) (2022-03-30T17:41:21Z) - Self-Supervised Pre-Training for Transformer-Based Person
Re-Identification [54.55281692768765]
トランスフォーマーに基づく教師付き事前訓練は、人物再識別(ReID)において大きなパフォーマンスを達成する
ImageNetとReIDデータセットのドメインギャップのため、通常、パフォーマンスを高めるために、より大きなトレーニング済みデータセットが必要です。
この研究は、データとモデル構造の観点から、事前トレーニングデータセットとReIDデータセットのギャップを軽減することを目的としている。
論文 参考訳(メタデータ) (2021-11-23T18:59:08Z) - Rethinking Deconvolution for 2D Human Pose Estimation Light yet Accurate
Model for Real-time Edge Computing [0.0]
このシステムは精度が高く、SOTA HRNet 256x192の94.5%の精度を達成した。
我々のモデルはエンコーダ・デコーダアーキテクチャを採用し、その効率を改善するために注意深く縮小されている。
論文 参考訳(メタデータ) (2021-11-08T01:44:46Z) - DeepObliviate: A Powerful Charm for Erasing Data Residual Memory in Deep
Neural Networks [7.687838702806964]
DeepObliviateと呼ばれるアプローチを提案し、マシンアンラーニングを効率的に実装します。
本手法は,中間モデルをハードディスク上に格納することで,元のトレーニングプロセスを改善する。
ゼロから再トレーニングする方法と比較して、99.0%、95.0%、91.9%、96.7%、74.1%の精度と66.7$times$、75.0$times$、33.3$times$、29.4$times$、13.7$times$ speedupsが得られる。
論文 参考訳(メタデータ) (2021-05-13T12:02:04Z) - Evaluating Prediction-Time Batch Normalization for Robustness under
Covariate Shift [81.74795324629712]
我々は予測時間バッチ正規化と呼び、共変量シフト時のモデル精度とキャリブレーションを大幅に改善する。
予測時間バッチ正規化は、既存の最先端アプローチに相補的な利点をもたらし、ロバスト性を向上させることを示します。
この手法は、事前トレーニングと併用して使用すると、さまざまな結果が得られるが、より自然なタイプのデータセットシフトでは、パフォーマンスが良くないようだ。
論文 参考訳(メタデータ) (2020-06-19T05:08:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。