論文の概要: Dense Crowds Detection and Counting with a Lightweight Architecture
- arxiv url: http://arxiv.org/abs/2007.06630v1
- Date: Mon, 13 Jul 2020 19:02:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 22:37:41.465478
- Title: Dense Crowds Detection and Counting with a Lightweight Architecture
- Title(参考訳): 軽量アーキテクチャによる高密度群衆の検出と計数
- Authors: Javier Antonio Gonzalez-Trejo, Diego Alberto Mercado-Ravell
- Abstract要約: 群集検出とカウントを行うために,軽量な畳み込みニューラルネットワークアーキテクチャを提案する。
提案されたアーキテクチャはUSF-QNRF上でテストされ、平均平均誤差は154.07で、平均平方誤差は241.77である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the context of crowd counting, most of the works have focused on improving
the accuracy without regard to the performance leading to algorithms that are
not suitable for embedded applications. In this paper, we propose a lightweight
convolutional neural network architecture to perform crowd detection and
counting using fewer computer resources without a significant loss on count
accuracy. The architecture was trained using the Bayes loss function to further
improve its accuracy and then pruned to further reduce the computational
resources used. The proposed architecture was tested over the USF-QNRF
achieving a competitive Mean Average Error of 154.07 and a superior Mean Square
Error of 241.77 while maintaining a competitive number of parameters of 0.067
Million. The obtained results suggest that the Bayes loss can be used with
other architectures to further improve them and also the last convolutional
layer provides no significant information and even encourage over-fitting at
training.
- Abstract(参考訳): 群集カウントの文脈では、ほとんどの研究は、組込みアプリケーションには適さないアルゴリズムに繋がる性能によらず、精度の向上に重点を置いている。
本稿では,数量精度を損なうことなく,少ないコンピュータリソースで群衆検出とカウントを行う軽量畳み込みニューラルネットワークアーキテクチャを提案する。
アーキテクチャはベイズ損失関数を使って精度をさらに向上させ、さらに計算資源を減らすために刈り取るように訓練された。
提案されたアーキテクチャはUSF-QNRF上でテストされ、平均誤差は154.07、平均誤差は241.77、競合パラメータは0.067万である。
得られた結果は,ベイズ損失を他のアーキテクチャと併用してさらに改善できることを示唆している。また,最後の畳み込み層は重要な情報を提供しず,トレーニングの過剰フィッティングも促進する。
関連論文リスト
- Layer Ensemble Averaging for Improving Memristor-Based Artificial Neural Network Performance [0.6560901506023631]
memristorsのようなインメモリの計算アーキテクチャは、ハードウェアの非理想性によって、将来性はあるが課題に直面している。
レイヤアンサンブル平均化は、事前学習されたニューラルネットワークソリューションをソフトウェアから欠陥のあるハードウェアクロスバーにマッピングするテクニックである。
その結果、レイヤアンサンブル平均化は、ソフトウェアベースラインまで、欠陥のあるメモリネットワーク性能を確実に向上させることができることがわかった。
論文 参考訳(メタデータ) (2024-04-24T03:19:31Z) - Depth Estimation using Weighted-loss and Transfer Learning [2.428301619698667]
転送学習と最適化された損失関数を用いた深度推定精度の向上のための簡易かつ適応的なアプローチを提案する。
本研究では,移動学習と最適損失関数を用いた深度推定精度向上のための簡易かつ適応的な手法を提案する。
EfficientNetが最も成功したアーキテクチャである。
論文 参考訳(メタデータ) (2024-04-11T12:25:54Z) - NAAP-440 Dataset and Baseline for Neural Architecture Accuracy
Prediction [1.2183405753834562]
440のニューラルアーキテクチャのNAAP-440データセットを導入し、CIFAR10で定型レシピを用いてトレーニングした。
実験では、既製の回帰アルゴリズムを使用してトレーニングプロセスの最大10%を実行することで、アーキテクチャの精度を正確に予測できるだけでなく、より正確に予測できることが示されている。
このアプローチはNASベースの研究を加速するための強力なツールとなり、それによってその効率が劇的に向上する。
論文 参考訳(メタデータ) (2022-09-14T13:21:39Z) - FlowNAS: Neural Architecture Search for Optical Flow Estimation [65.44079917247369]
本研究では,フロー推定タスクにおいて,より優れたエンコーダアーキテクチャを自動で見つけるために,FlowNASというニューラルアーキテクチャ探索手法を提案する。
実験の結果、スーパーネットワークから受け継いだ重み付きアーキテクチャは、KITTI上で4.67%のF1-allエラーを達成していることがわかった。
論文 参考訳(メタデータ) (2022-07-04T09:05:25Z) - D-DARTS: Distributed Differentiable Architecture Search [75.12821786565318]
微分可能なArchiTecture Search(DARTS)は、最も流行しているニューラルネットワークサーチ(NAS)の1つである。
セルレベルで複数のニューラルネットワークをネストすることでこの問題に対処する新しいソリューションD-DARTSを提案する。
論文 参考訳(メタデータ) (2021-08-20T09:07:01Z) - A2P-MANN: Adaptive Attention Inference Hops Pruned Memory-Augmented
Neural Networks [3.682712058535653]
A2P-MANNと呼ばれるオンラインアダプティブアプローチを提案し、メモリ拡張ニューラルネットワークで必要な注意推論ホップ数を制限する。
この技術は、正しい解を抽出する際に不要な大量の計算を除去する。
この手法の有効性は,bAbIデータセットの質問応答(QA)タスクを用いて評価する。
論文 参考訳(メタデータ) (2021-01-24T12:02:12Z) - Subtensor Quantization for Mobilenets [5.735035463793008]
ディープニューラルネットワーク(DNN)の量子化により、開発者はより少ないメモリとより効率的な低消費電力推論でモデルをデプロイできるようになった。
本稿では,量子化損失の根本原因について分析し,チャネル単位やトレーニング対応のアプローチに依存しない代替案を提案する。
我々は、ImageNetデータセット上の画像分類タスクと、浮動小数点バージョンの0.7%以内で、トレーニング後の量子化8ビット推論トップ1の精度を評価する。
論文 参考訳(メタデータ) (2020-11-04T15:41:47Z) - AQD: Towards Accurate Fully-Quantized Object Detection [94.06347866374927]
本稿では,浮動小数点演算を除去するために,AQDと呼ばれる高精度な量子化オブジェクト検出ソリューションを提案する。
我々のAQDは、非常に低ビットのスキームの下での完全精度と比較して、同等またはそれ以上の性能を実現しています。
論文 参考訳(メタデータ) (2020-07-14T09:07:29Z) - Multi-fidelity Neural Architecture Search with Knowledge Distillation [69.09782590880367]
ニューラルアーキテクチャ探索のためのベイズ的多重忠実度法 MF-KD を提案する。
知識蒸留は損失関数に追加され、ネットワークが教師ネットワークを模倣することを強制する用語となる。
このような変化した損失関数を持ついくつかのエポックに対するトレーニングは、ロジスティックな損失を持ついくつかのエポックに対するトレーニングよりも、より優れたニューラルアーキテクチャの選択につながることを示す。
論文 参考訳(メタデータ) (2020-06-15T12:32:38Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z) - Semi-Supervised Neural Architecture Search [185.0651567642238]
SemiNASは、多くの未ラベルアーキテクチャを活用する半教師付きニューラルアーキテクチャサーチ(NAS)アプローチである(評価なしで、ほぼコストがかからない)。
NASBench-101で94.02%のテスト精度を達成し、同じ数のアーキテクチャを使用する場合、すべてのベースラインを上回ります。
低リソース環境では97%のインテリジェンス率、ロバストネス環境では15%のテストエラー率、ベースラインではそれぞれ9%、7%の改善を実現している。
論文 参考訳(メタデータ) (2020-02-24T17:23:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。