論文の概要: YOLO v3: Visual and Real-Time Object Detection Model for Smart
Surveillance Systems(3s)
- arxiv url: http://arxiv.org/abs/2209.12447v1
- Date: Mon, 26 Sep 2022 06:34:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 16:32:57.687196
- Title: YOLO v3: Visual and Real-Time Object Detection Model for Smart
Surveillance Systems(3s)
- Title(参考訳): YOLO v3:スマートサーベイランスシステムのための視覚的・リアルタイム物体検出モデル(3s)
- Authors: Kanyifeechukwu Jane Oguine, Ozioma Collins Oguine, Hashim Ibrahim
Bisallah
- Abstract要約: 本稿では,スマートサーベイランスシステム(Smart Surveillance Systems, 3s)と呼ばれるサイバー物理システムの物体検出モデルを提案する。
本研究は, 学習時間と計算資源を削減するため, 転送学習手法を実装した。
提案モデルの結果は, 監視映像中の物体の検出において極めて良好であった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Can we see it all? Do we know it All? These are questions thrown to human
beings in our contemporary society to evaluate our tendency to solve problems.
Recent studies have explored several models in object detection; however, most
have failed to meet the demand for objectiveness and predictive accuracy,
especially in developing and under-developed countries. Consequently, several
global security threats have necessitated the development of efficient
approaches to tackle these issues. This paper proposes an object detection
model for cyber-physical systems known as Smart Surveillance Systems (3s). This
research proposes a 2-phase approach, highlighting the advantages of YOLO v3
deep learning architecture in real-time and visual object detection. A transfer
learning approach was implemented for this research to reduce training time and
computing resources. The dataset utilized for training the model is the MS COCO
dataset which contains 328,000 annotated image instances. Deep learning
techniques such as Pre-processing, Data pipelining, and detection was
implemented to improve efficiency. Compared to other novel research models, the
proposed model's results performed exceedingly well in detecting WILD objects
in surveillance footages. An accuracy of 99.71% was recorded, with an improved
mAP of 61.5.
- Abstract(参考訳): すべて見えますか?
全て知ってるの?
これらは現代の社会において、問題解決の傾向を評価するために投げ出された質問である。
近年の研究では、物体検出のいくつかのモデルが研究されているが、特に開発途上国や未開発国では、客観的さと予測精度の要求を満たすことができなかった。
その結果、いくつかの世界的なセキュリティの脅威は、これらの問題に取り組むための効率的なアプローチの開発を必要とした。
本稿では,スマートサーベイランスシステム(3s)と呼ばれるサイバー物理システムの物体検出モデルを提案する。
本研究は、リアルタイムおよび視覚オブジェクト検出におけるYOLO v3ディープラーニングアーキテクチャの利点を強調した2相アプローチを提案する。
本研究は, 学習時間と計算資源を削減するため, 転送学習手法を実装した。
モデルのトレーニングに使用されるデータセットは、328,000の注釈付きイメージインスタンスを含むMS COCOデータセットである。
事前処理、データパイプライン化、検出などのディープラーニング技術が実装され、効率が向上した。
他の新しい研究モデルと比較して、提案モデルの結果は監視映像中のWILD物体の検出において極めて良好に行われた。
99.71%の精度を記録し、改善されたmAPは61.5である。
関連論文リスト
- Optimizing YOLO Architectures for Optimal Road Damage Detection and Classification: A Comparative Study from YOLOv7 to YOLOv10 [0.0]
本稿では,ディープラーニングモデルを用いた道路損傷検出のための総合ワークフローを提案する。
ハードウェアの制約を満たすため、大きな画像が収穫され、軽量モデルが利用される。
提案手法では,コーディネートアテンションレイヤを備えたカスタムYOLOv7モデルや,Tiny YOLOv7モデルなど,複数のモデルアーキテクチャを採用している。
論文 参考訳(メタデータ) (2024-10-10T22:55:12Z) - The Why, When, and How to Use Active Learning in Large-Data-Driven 3D
Object Detection for Safe Autonomous Driving: An Empirical Exploration [1.2815904071470705]
エントロピークエリは、リソース制約のある環境でモデル学習を強化するデータを選択するための有望な戦略である。
この結果から,エントロピークエリは資源制約のある環境でのモデル学習を促進するデータ選択に有望な戦略であることが示唆された。
論文 参考訳(メタデータ) (2024-01-30T00:14:13Z) - Real-Time Object Detection in Occluded Environment with Background
Cluttering Effects Using Deep Learning [0.8192907805418583]
混在した環境下での車やタンクのリアルタイム検出のためのディープラーニングモデルに集中する。
開発した手法は、カスタムデータセットを作成し、ノイズの多いデータセットをきれいにするために前処理技術を使用する。
SSD-Mobilenet v2モデルの精度とフレームは、YOLO V3やYOLO V4よりも高い。
論文 参考訳(メタデータ) (2024-01-02T01:30:03Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Generalized Few-Shot 3D Object Detection of LiDAR Point Cloud for
Autonomous Driving [91.39625612027386]
我々は,一般的な(ベース)オブジェクトに対して大量のトレーニングデータを持つが,レア(ノーベル)クラスに対してはごく少数のデータしか持たない,一般化された数発の3Dオブジェクト検出という新しいタスクを提案する。
具体的には、画像と点雲の奥行きの違いを分析し、3D LiDARデータセットにおける少数ショット設定の実践的原理を示す。
この課題を解決するために,既存の3次元検出モデルを拡張し,一般的なオブジェクトと稀なオブジェクトの両方を認識するためのインクリメンタルな微調整手法を提案する。
論文 参考訳(メタデータ) (2023-02-08T07:11:36Z) - Real Time Object Detection System with YOLO and CNN Models: A Review [7.767212366020168]
この調査は、リアルタイムオブジェクト検出の方向にあるYOLOと畳み込みニューラルネットワーク(CNN)に関するものだ。
YOLOは、他のオブジェクト検出モデルよりも精度の低下なしに、より効果的にオブジェクト表現を一般化する。
CNNアーキテクチャモデルは、任意の画像内のハイライトを排除し、オブジェクトを識別する機能を持つ。
論文 参考訳(メタデータ) (2022-07-23T11:00:11Z) - SSMTL++: Revisiting Self-Supervised Multi-Task Learning for Video
Anomaly Detection [108.57862846523858]
自己教師型マルチタスク学習フレームワークを再考し、元の手法にいくつかのアップデートを提案する。
マルチヘッド・セルフアテンション・モジュールを導入することで3次元畳み込みバックボーンを近代化する。
モデルをさらに改良するために,セグメントマップの予測などの自己指導型学習タスクについて検討した。
論文 参考訳(メタデータ) (2022-07-16T19:25:41Z) - Geometry Uncertainty Projection Network for Monocular 3D Object
Detection [138.24798140338095]
本稿では,予測および学習段階の誤り増幅問題に対処するために,幾何不確実性予測ネットワーク(GUP Net)を提案する。
具体的には, GUPモジュールを提案し, 推定深さの幾何誘導不確かさを求める。
トレーニング段階では,エラー増幅による不安定性を低減するための階層型タスク学習戦略を提案する。
論文 参考訳(メタデータ) (2021-07-29T06:59:07Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Few-Cost Salient Object Detection with Adversarial-Paced Learning [95.0220555274653]
本稿では,少数のトレーニング画像にのみ手動アノテーションを応用して,効果的なサルエント物体検出モデルを学習することを提案する。
我々は,このタスクを,少額の有能な物体検出とみなし,少数のコストの学習シナリオを促進するために,APL(Adversarialpaced Learning)ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-05T14:15:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。