論文の概要: LCDnet: A Lightweight Crowd Density Estimation Model for Real-time Video
Surveillance
- arxiv url: http://arxiv.org/abs/2302.05374v1
- Date: Fri, 10 Feb 2023 16:52:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-13 15:16:12.448197
- Title: LCDnet: A Lightweight Crowd Density Estimation Model for Real-time Video
Surveillance
- Title(参考訳): LCDnet:リアルタイムビデオサーベイランスのための軽量集団密度推定モデル
- Authors: Muhammad Asif Khan, Hamid Menouar, Ridha Hamila
- Abstract要約: リアルタイムビデオ監視のための軽量集団密度推定モデル(LCDnet)を提案する。
評価の結果,LCDnetは推論時間とメモリ要求を著しく低減しつつ,合理的に良好な精度を実現していることがわかった。
- 参考スコア(独自算出の注目度): 3.6611037112655813
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic crowd counting using density estimation has gained significant
attention in computer vision research. As a result, a large number of crowd
counting and density estimation models using convolution neural networks (CNN)
have been published in the last few years. These models have achieved good
accuracy over benchmark datasets. However, attempts to improve the accuracy
often lead to higher complexity in these models. In real-time video
surveillance applications using drones with limited computing resources, deep
models incur intolerable higher inference delay. In this paper, we propose (i)
a Lightweight Crowd Density estimation model (LCDnet) for real-time video
surveillance, and (ii) an improved training method using curriculum learning
(CL). LCDnet is trained using CL and evaluated over two benchmark datasets
i.e., DroneRGBT and CARPK. Results are compared with existing crowd models. Our
evaluation shows that the LCDnet achieves a reasonably good accuracy while
significantly reducing the inference time and memory requirement and thus can
be deployed over edge devices with very limited computing resources.
- Abstract(参考訳): 密度推定を用いた群衆自動カウントは,コンピュータビジョン研究において注目されている。
その結果,近年,畳み込みニューラルネットワーク(CNN)を用いた多数の群集カウントと密度推定モデルが公表されている。
これらのモデルはベンチマークデータセットよりも精度が高い。
しかし、精度を向上させる試みは、しばしばこれらのモデルの複雑さを増す。
限られた計算資源を持つドローンを用いたリアルタイムビデオ監視アプリケーションでは、ディープモデルは高い推論遅延を引き起こす。
本稿では,本稿で提案する。
(i)リアルタイムビデオ監視のための軽量集団密度推定モデル(LCDnet)
(II)カリキュラム学習(CL)を用いた学習方法の改善。
LCDnetはCLを用いてトレーニングされ、DroneRGBTとCARPKという2つのベンチマークデータセットで評価される。
結果は既存のモデルと比較される。
評価の結果,LCDnetは推論時間とメモリ要求を著しく低減し,計算資源が限られているエッジデバイス上に展開可能であることがわかった。
関連論文リスト
- Quantized Distillation: Optimizing Driver Activity Recognition Models
for Resource-Constrained Environments [34.80538284957094]
本稿では,資源効率の高いドライバアクティビティ認識のための軽量フレームワークを提案する。
このフレームワークは、ビデオ分類のスピードに最適化されたニューラルネットワークである3D MobileNetを強化する。
モデルサイズを3倍に削減し、推論時間を1.4倍改善する。
論文 参考訳(メタデータ) (2023-11-10T10:07:07Z) - HigeNet: A Highly Efficient Modeling for Long Sequence Time Series
Prediction in AIOps [30.963758935255075]
本稿では,HigeNetという高効率モデルを提案し,時系列時系列の予測を行う。
モデルのトレーニング時間,資源使用量,精度は,5つの最先端競合モデルよりも有意に優れていることを示す。
論文 参考訳(メタデータ) (2022-11-13T13:48:43Z) - Incremental Online Learning Algorithms Comparison for Gesture and Visual
Smart Sensors [68.8204255655161]
本稿では,加速度センサデータに基づくジェスチャー認識と画像分類の2つの実例として,最先端の4つのアルゴリズムを比較した。
以上の結果から,これらのシステムの信頼性と小型メモリMCUへのデプロイの可能性が確認された。
論文 参考訳(メタデータ) (2022-09-01T17:05:20Z) - CONVIQT: Contrastive Video Quality Estimator [63.749184706461826]
知覚ビデオ品質評価(VQA)は、多くのストリーミングおよびビデオ共有プラットフォームにおいて不可欠な要素である。
本稿では,視覚的に関連のある映像品質表現を自己指導的に学習する問題について考察する。
本研究は, 自己教師型学習を用いて, 知覚力による説得力のある表現が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T15:22:01Z) - Occlusion-Aware Self-Supervised Monocular 6D Object Pose Estimation [88.8963330073454]
自己教師付き学習による新しい単眼6次元ポーズ推定手法を提案する。
ノイズの多い学生のトレーニングと差別化可能なレンダリングの現在の傾向を活用して、モデルをさらに自己監督する。
提案する自己超越法は,合成データに依存する他の方法よりも優れている。
論文 参考訳(メタデータ) (2022-03-19T15:12:06Z) - Real-time Human Detection Model for Edge Devices [0.0]
畳み込みニューラルネットワーク(CNN)は、検出と分類タスクにおいて、従来の特徴抽出と機械学習モデルを置き換える。
最近、リアルタイムタスクのために軽量CNNモデルが導入されている。
本稿では,Raspberry Piのような限られたエッジデバイスに適合するCNNベースの軽量モデルを提案する。
論文 参考訳(メタデータ) (2021-11-20T18:42:17Z) - LCS: Learning Compressible Subspaces for Adaptive Network Compression at
Inference Time [57.52251547365967]
本稿では,ニューラルネットワークの「圧縮可能な部分空間」を訓練する手法を提案する。
構造的・非構造的空間に対する推定時間における微粒な精度・効率のトレードオフを任意に達成するための結果を示す。
我々のアルゴリズムは、可変ビット幅での量子化にまで拡張し、個別に訓練されたネットワークと同等の精度を実現する。
論文 参考訳(メタデータ) (2021-10-08T17:03:34Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - ACDnet: An action detection network for real-time edge computing based
on flow-guided feature approximation and memory aggregation [8.013823319651395]
ACDnetは、リアルタイムエッジコンピューティングをターゲットとしたコンパクトなアクション検出ネットワークです。
連続するビデオフレーム間の時間的コヒーレンスを利用してCNNの特徴を近似する。
リアルタイム(75FPS)よりはるかに高い精度で検出できる。
論文 参考訳(メタデータ) (2021-02-26T14:06:31Z) - Pruning Convolutional Filters using Batch Bridgeout [14.677724755838556]
最先端のコンピュータビジョンモデルでは、トレーニングセットに適合するために必要なパラメータ数がはるかに多いため、能力が急速に向上している。
これにより最適化と一般化性能が向上する。
推論コストを削減するために、トレーニングされたニューラルネットワークの畳み込みフィルタを切断することで、推論中の実行時のメモリと計算要求を削減できる。
本稿では,ニューラルネットワークの性能低下を最小限に抑え,効率よく刈り取ることができるようにトレーニングするために,スパシティ誘導正規化スキームであるBatch Bridgeoutを提案する。
論文 参考訳(メタデータ) (2020-09-23T01:51:47Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。