論文の概要: Fuss-Free Network: A Simplified and Efficient Neural Network for Crowd Counting
- arxiv url: http://arxiv.org/abs/2404.07847v1
- Date: Thu, 11 Apr 2024 15:42:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-12 13:30:32.011808
- Title: Fuss-Free Network: A Simplified and Efficient Neural Network for Crowd Counting
- Title(参考訳): Fuss-free Network: 群衆計数のためのシンプルで効率的なニューラルネットワーク
- Authors: Lei Chen, Xingen Gao,
- Abstract要約: 本稿では,Fuss-Free Network(FFNet)について紹介する。
提案したクラウドカウントモデルは,広く使用されている4つの公開データセットに対してトレーニングおよび評価を行い,既存の複雑なモデルに匹敵する精度を実現する。
- 参考スコア(独自算出の注目度): 5.125530969984795
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the field of crowd-counting research, many recent deep learning based methods have demonstrated robust capabilities for accurately estimating crowd sizes. However, the enhancement in their performance often arises from an increase in the complexity of the model structure. This paper introduces the Fuss-Free Network (FFNet), a crowd counting deep learning model that is characterized by its simplicity and efficiency in terms of its structure. The model comprises only a backbone of a neural network and a multi-scale feature fusion structure.The multi-scale feature fusion structure is a simple architecture consisting of three branches, each only equipped with a focus transition module, and combines the features from these branches through the concatenation operation.Our proposed crowd counting model is trained and evaluated on four widely used public datasets, and it achieves accuracy that is comparable to that of existing complex models.The experimental results further indicate that excellent performance in crowd counting tasks can also be achieved by utilizing a simple, low-parameter, and computationally efficient neural network structure.
- Abstract(参考訳): 群集計数研究の分野では,近年の深層学習に基づく手法の多くが,群集の大きさを正確に推定する頑健な能力を実証している。
しかし、それらの性能の向上は、しばしばモデル構造の複雑さの増大から生じる。
本稿では,Fuss-Free Network(FFNet)について紹介する。
本モデルは,ニューラルネットワークのバックボーンとマルチスケール機能融合構造のみから構成される。マルチスケール機能融合構造は,焦点遷移モジュールのみを備える3つのブランチで構成された単純なアーキテクチャであり,これらのブランチの特徴を結合操作によって組み合わせたものであり,提案したクラウドカウントモデルは,4つの広く使用されている公開データセットで訓練・評価され,既存の複雑なモデルに匹敵する精度を達成している。また,実験結果は,単純な低パラメータ,計算効率のニューラルネットワーク構造を利用して,群衆カウントタスクの優れた性能を実現することができることを示す。
関連論文リスト
- Multilinear Operator Networks [60.7432588386185]
ポリノミアルネットワーク(Polynomial Networks)は、アクティベーション関数を必要としないモデルのクラスである。
マルチリニア演算子のみに依存するMONetを提案する。
論文 参考訳(メタデータ) (2024-01-31T16:52:19Z) - Subnetwork Ensembles [2.44755919161855]
この論文は、Subnetwork Ensemblesを構築するための低コストのフレームワークを導入し、形式化する。
児童ネットワークは、訓練された親モデルからのサンプリング、摂動、最適化によって形成される。
その結果,本手法はトレーニング効率,パラメトリック利用,一般化性能を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2023-11-23T17:01:16Z) - Neural Network Pruning by Gradient Descent [7.427858344638741]
我々は,Gumbel-Softmaxテクニックを取り入れた,新しい,かつ簡単なニューラルネットワークプルーニングフレームワークを提案する。
ネットワークパラメータの0.15%しか持たないMNISTデータセット上で、高い精度を維持しながら、例外的な圧縮能力を実証する。
我々は,ディープラーニングプルーニングと解釈可能な機械学習システム構築のための,有望な新たな道を開くと信じている。
論文 参考訳(メタデータ) (2023-11-21T11:12:03Z) - Provable Guarantees for Nonlinear Feature Learning in Three-Layer Neural
Networks [49.808194368781095]
3層ニューラルネットワークは,2層ネットワークよりも特徴学習能力が豊富であることを示す。
この研究は、特徴学習体制における2層ネットワーク上の3層ニューラルネットワークの証明可能なメリットを理解するための前進である。
論文 参考訳(メタデータ) (2023-05-11T17:19:30Z) - ElegansNet: a brief scientific report and initial experiments [0.0]
ElegansNetは、現実世界のニューラルネットワーク回路を模倣するニューラルネットワークである。
自然ネットワークに似たトポロジを持つ改良されたディープラーニングシステムを生成する。
論文 参考訳(メタデータ) (2023-04-06T13:51:04Z) - Deep Dependency Networks for Multi-Label Classification [24.24496964886951]
マルコフ確率場とニューラルネットワークを組み合わせた従来の手法の性能は、わずかに改善できることを示す。
我々は、依存性ネットワークを拡張するディープ依存ネットワークと呼ばれる新しいモデリングフレームワークを提案する。
単純さにもかかわらず、この新しいアーキテクチャを共同学習することで、パフォーマンスが大幅に向上する。
論文 参考訳(メタデータ) (2023-02-01T17:52:40Z) - Modeling Structure with Undirected Neural Networks [20.506232306308977]
任意の順序で実行できる計算を指定するためのフレキシブルなフレームワークである、非指向型ニューラルネットワークを提案する。
さまざまなタスクにおいて、非構造的かつ構造化された非指向型ニューラルアーキテクチャの有効性を実証する。
論文 参考訳(メタデータ) (2022-02-08T10:06:51Z) - Graph-Based Neural Network Models with Multiple Self-Supervised
Auxiliary Tasks [79.28094304325116]
グラフ畳み込みネットワークは、構造化されたデータポイント間の関係をキャプチャするための最も有望なアプローチである。
マルチタスク方式でグラフベースニューラルネットワークモデルを学習するための3つの新しい自己教師付き補助タスクを提案する。
論文 参考訳(メタデータ) (2020-11-14T11:09:51Z) - Binarizing MobileNet via Evolution-based Searching [66.94247681870125]
そこで本稿では,MobileNet をバイナライズする際の構築と訓練を容易にするための進化的探索手法を提案する。
ワンショットアーキテクチャ検索フレームワークに着想を得て、グループ畳み込みのアイデアを操り、効率的な1ビット畳み込みニューラルネットワーク(CNN)を設計する。
我々の目標は、グループ畳み込みの最良の候補を探索することで、小さなが効率的なバイナリニューラルアーキテクチャを考案することである。
論文 参考訳(メタデータ) (2020-05-13T13:25:51Z) - ResNeSt: Split-Attention Networks [86.25490825631763]
このアーキテクチャは、異なるネットワークブランチにチャンネルワイズを応用し、機能間相互作用のキャプチャと多様な表現の学習の成功を活用する。
我々のモデルはResNeStと呼ばれ、画像分類の精度と遅延トレードオフにおいてEfficientNetより優れています。
論文 参考訳(メタデータ) (2020-04-19T20:40:31Z) - NAS-Count: Counting-by-Density with Neural Architecture Search [74.92941571724525]
ニューラルアーキテクチャサーチ(NAS)を用いたカウントモデルの設計を自動化する
エンド・ツー・エンドの検索エンコーダ・デコーダアーキテクチャであるAutomatic Multi-Scale Network(AMSNet)を導入する。
論文 参考訳(メタデータ) (2020-02-29T09:18:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。