論文の概要: Real-Time Crowd Counting for Embedded Systems with Lightweight Architecture
- arxiv url: http://arxiv.org/abs/2510.13250v1
- Date: Wed, 15 Oct 2025 07:58:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.555048
- Title: Real-Time Crowd Counting for Embedded Systems with Lightweight Architecture
- Title(参考訳): 軽量アーキテクチャを用いた組込みシステムのリアルタイムクラウドカウント
- Authors: Zhiyuan Zhao, Yubin Wen, Siyu Yang, Lichen Ning, Yuandong Liu, Junyu Gao,
- Abstract要約: 我々は,クラウドカウントタスクのためのステムエンコーダデコーダ構造を持つ超リアルタイムモデルを設計する。
提案したネットワークはNVIDIA GTX 1080Tiで381.7 FPS、NVIDIA Jetson TX1で71.9 FPSを達成した。
- 参考スコア(独自算出の注目度): 19.86251721232166
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Crowd counting is a task of estimating the number of the crowd through images, which is extremely valuable in the fields of intelligent security, urban planning, public safety management, and so on. However, the existing counting methods have some problems in practical application on embedded systems for these fields, such as excessive model parameters, abundant complex calculations, etc. The practical application of embedded systems requires the model to be real-time, which means that the model is fast enough. Considering the aforementioned problems, we design a super real-time model with a stem-encoder-decoder structure for crowd counting tasks, which achieves the fastest inference compared with state-of-the-arts. Firstly, large convolution kernels in the stem network are used to enlarge the receptive field, which effectively extracts detailed head information. Then, in the encoder part, we use conditional channel weighting and multi-branch local fusion block to merge multi-scale features with low computational consumption. This part is crucial to the super real-time performance of the model. Finally, the feature pyramid networks are added to the top of the encoder to alleviate its incomplete fusion problems. Experiments on three benchmarks show that our network is suitable for super real-time crowd counting on embedded systems, ensuring competitive accuracy. At the same time, the proposed network reasoning speed is the fastest. Specifically, the proposed network achieves 381.7 FPS on NVIDIA GTX 1080Ti and 71.9 FPS on NVIDIA Jetson TX1.
- Abstract(参考訳): クラウドカウントは、画像を通じて群衆の数を推定するタスクであり、インテリジェントセキュリティ、都市計画、公共安全管理といった分野において非常に貴重である。
しかし、既存のカウント法は、過剰なモデルパラメータ、豊富な複雑な計算など、これらの分野の組み込みシステムに実際に適用する上でいくつかの問題がある。
組込みシステムの実用化には、モデルがリアルタイムであることが必要であり、モデルが十分に高速であることを意味する。
上記の問題を考慮し,群衆カウントタスクのためのステムエンコーダ・デコーダ構造を持つ超リアルタイムモデルを設計し,最先端技術と比較して高速な推論を実現する。
まず、幹ネットワーク内の大きな畳み込みカーネルを用いて受容領域を拡大し、詳細なヘッド情報を効果的に抽出する。
そして、エンコーダ部では、条件付きチャネル重み付けとマルチブランチ局所融合ブロックを用いて、計算量の少ないマルチスケール特徴をマージする。
この部分は、モデルの超リアルタイムパフォーマンスに不可欠です。
最後に、特徴ピラミッドネットワークをエンコーダの上部に追加し、不完全な融合問題を緩和する。
3つのベンチマーク実験により,我々のネットワークは組込みシステム上での超リアルタイムクラウドカウントに適しており,競争精度が確保されていることが示された。
同時に、提案するネットワーク推論速度は最速である。
具体的には、NVIDIA GTX 1080Tiで381.7 FPS、NVIDIA Jetson TX1で71.9 FPSを達成する。
関連論文リスト
- EasyNet: An Easy Network for 3D Industrial Anomaly Detection [49.26348455493123]
3D異常検出は、産業生産において、新しくて重要なコンピュータビジョンタスクである。
我々は,事前訓練されたモデルやメモリバンクを使わずに,容易に展開可能なネットワーク(EasyNet)を提案する。
実験の結果、EasyNetはトレーニング済みのモデルやメモリバンクを使わずに92.6%の異常検出AUROCを実現していることがわかった。
論文 参考訳(メタデータ) (2023-07-26T02:46:50Z) - ReBotNet: Fast Real-time Video Enhancement [59.08038313427057]
ほとんどの復元ネットワークは遅く、高い計算ボトルネックがあり、リアルタイムビデオ拡張には使用できない。
本研究では,ライブビデオ通話やビデオストリームなどの実用的なユースケースをリアルタイムに拡張するための,効率的かつ高速なフレームワークを設計する。
提案手法を評価するために,実世界のビデオ通話とストリーミングのシナリオを示す2つの新しいデータセットをエミュレートし,ReBotNetがより少ない計算,メモリ要求の低減,より高速な推論時間で既存手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-03-23T17:58:05Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - RT3D: Achieving Real-Time Execution of 3D Convolutional Neural Networks
on Mobile Devices [57.877112704841366]
本稿では3次元CNNのためのモデル圧縮およびモバイルアクセラレーションフレームワークRT3Dを提案する。
3D CNNのリアルタイム実行は、市販のモバイル上で初めて実現された。
論文 参考訳(メタデータ) (2020-07-20T02:05:32Z) - A Real-time Action Representation with Temporal Encoding and Deep
Compression [115.3739774920845]
動作表現のための時間畳み込み3Dネットワーク(T-C3D)と呼ばれる新しいリアルタイム畳み込みアーキテクチャを提案する。
T-C3Dは、高プロセス速度を得ながら、階層的な多粒度でビデオアクション表現を学習する。
提案手法は,5MB未満のストレージモデルを用いて,提案手法の精度5.4%,推論速度2倍の高速化を実現した。
論文 参考訳(メタデータ) (2020-06-17T06:30:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。