論文の概要: UltraLightSqueezeNet: A Deep Learning Architecture for Malaria Classification with up to 54x fewer trainable parameters for resource constrained devices
- arxiv url: http://arxiv.org/abs/2501.14172v1
- Date: Fri, 24 Jan 2025 01:44:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-27 14:58:47.573881
- Title: UltraLightSqueezeNet: A Deep Learning Architecture for Malaria Classification with up to 54x fewer trainable parameters for resource constrained devices
- Title(参考訳): UltraLightSqueezeNet: リソース制約されたデバイスに対する最大54倍のトレーニング可能なパラメータを持つ、マラリア分類のためのディープラーニングアーキテクチャ
- Authors: Suresh Babu Nettur, Shanthi Karpurapu, Unnati Nettur, Likhit Sagar Gajja, Sravanthy Myneni, Akhil Dusi, Lalithya Posham,
- Abstract要約: 我々はSqueezeNet1.1アーキテクチャに3種類の超軽量アーキテクチャを提案、実装した。
我々は、精度、リコール、精度、F1スコア、AUC(Area Under the Curve)などの指標に基づいて、各モデルの性能を評価した。
Variant 3(4つのファイアモジュール)は競合的な選択肢を提供し、SqueezeNet1.1と比較して計算オーバーヘッドを6倍に減らしたほぼ同じ結果(精度96.55%)を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Lightweight deep learning approaches for malaria detection have gained attention for their potential to enhance diagnostics in resource constrained environments. For our study, we selected SqueezeNet1.1 as it is one of the most popular lightweight architectures. SqueezeNet1.1 is a later version of SqueezeNet1.0 and is 2.4 times more computationally efficient than the original model. We proposed and implemented three ultra-lightweight architecture variants to SqueezeNet1.1 architecture, namely Variant 1 (one fire module), Variant 2 (two fire modules), and Variant 3 (four fire modules), which are even more compact than SqueezeNetV1.1 (eight fire modules). These models were implemented to evaluate the best performing variant that achieves superior computational efficiency without sacrificing accuracy in malaria blood cell classification. The models were trained and evaluated using the NIH Malaria dataset. We assessed each model's performance based on metrics including accuracy, recall, precision, F1-score, and Area Under the Curve (AUC). The results show that the SqueezeNet1.1 model achieves the highest performance across all metrics, with a classification accuracy of 97.12%. Variant 3 (four fire modules) offers a competitive alternative, delivering almost identical results (accuracy 96.55%) with a 6x reduction in computational overhead compared to SqueezeNet1.1. Variant 2 and Variant 1 perform slightly lower than Variant 3, with Variant 2 (two fire modules) reducing computational overhead by 28x, and Variant 1 (one fire module) achieving a 54x reduction in trainable parameters compared to SqueezeNet1.1. These findings demonstrate that our SqueezeNet1.1 architecture variants provide a flexible approach to malaria detection, enabling the selection of a variant that balances resource constraints and performance.
- Abstract(参考訳): マラリア検出のための軽量な深層学習アプローチは、資源制約環境における診断を強化する可能性に注目を集めている。
我々はSqueezeNet1.1を最も人気のある軽量アーキテクチャの1つとして選択した。
SqueezeNet1.0の後期バージョンであるSqueezeNet1.1は、オリジナルのモデルよりも2.4倍計算効率が高い。
我々は、SqueezeNetV1.1アーキテクチャの3つの超軽量アーキテクチャ、すなわち、Variant 1 (1つのファイアモジュール)、Variant 2 (2つのファイアモジュール)、Variant 3 (4つのファイアモジュール)を提案し、実装した。
これらのモデルは、マラリアの血液細胞分類の精度を犠牲にすることなく、優れた計算効率を実現するための最高の性能の変異体を評価するために実装された。
モデルはNIH Malariaデータセットを使用してトレーニングされ、評価された。
精度,リコール,精度,F1スコア,AUC(Area Under the Curve)などの指標に基づいて,各モデルのパフォーマンスを評価した。
結果は、SqueezeNet1.1モデルは、分類精度97.12%で、すべてのメトリクスで最高のパフォーマンスを達成していることを示している。
Variant 3(4つのファイアモジュール)は競合的な選択肢を提供し、SqueezeNet1.1と比較して計算オーバーヘッドを6倍に減らしたほぼ同じ結果(精度96.55%)を提供する。
Variant 2 と Variant 1 は、Variant 3 よりわずかに低く、Variant 2 は28倍、Variant 1 は SqueezeNet1.1 に比べて54倍のトレーニング可能なパラメータを減少させる。
これらの結果から,当社のSqueezeNet1.1アーキテクチャ変種はマラリア検出に柔軟なアプローチを提供し,リソース制約とパフォーマンスのバランスをとる変種の選択を可能にした。
関連論文リスト
- S*: Test Time Scaling for Code Generation [55.11863577956177]
コード生成のための最初のハイブリッドテストタイムスケーリングフレームワークであるS*を提案する。
S*は生成されたコードのカバレッジと選択精度を大幅に改善する。
論文 参考訳(メタデータ) (2025-02-20T09:18:53Z) - Lightweight Weighted Average Ensemble Model for Pneumonia Detection in Chest X-Ray Images [0.0]
肺炎は小児の病気や死亡の主な原因であり、早期かつ正確な検出の必要性を暗示している。
胸部X線画像を用いた小児の肺炎検出のための軽量アンサンブルモデルを提案する。
論文 参考訳(メタデータ) (2025-01-27T17:51:29Z) - Just How Flexible are Neural Networks in Practice? [89.80474583606242]
ニューラルネットワークは、パラメータを持つ少なくとも多くのサンプルを含むトレーニングセットに適合できると広く信じられている。
しかし実際には、勾配や正規化子など、柔軟性を制限したトレーニング手順によるソリューションしか見つからない。
論文 参考訳(メタデータ) (2024-06-17T12:24:45Z) - Reusing Convolutional Neural Network Models through Modularization and
Composition [22.823870645316397]
我々はCNNSplitterとGradSplitterという2つのモジュール化手法を提案する。
CNNSplitterは、トレーニングされた畳み込みニューラルネットワーク(CNN)モデルを、小さな再利用可能なモジュールとして$N$に分解する。
生成されたモジュールは、既存のCNNモデルにパッチを当てたり、コンポジションを通じて新しいCNNモデルを構築するために再利用することができる。
論文 参考訳(メタデータ) (2023-11-08T03:18:49Z) - Systematic Architectural Design of Scale Transformed Attention Condenser
DNNs via Multi-Scale Class Representational Response Similarity Analysis [93.0013343535411]
マルチスケールクラス表現応答類似性分析(ClassRepSim)と呼ばれる新しいタイプの分析法を提案する。
ResNetスタイルのアーキテクチャにSTACモジュールを追加すると、最大1.6%の精度が向上することを示す。
ClassRepSim分析の結果は、STACモジュールの効果的なパラメータ化を選択するために利用することができ、競争性能が向上する。
論文 参考訳(メタデータ) (2023-06-16T18:29:26Z) - Combining Gradients and Probabilities for Heterogeneous Approximation of
Neural Networks [2.5744053804694893]
近似乗算器の挙動シミュレーションのための代理モデルとして,加法的ガウス雑音の有効性について検討する。
バックプロパゲーションを用いたネットワークトレーニングにおいて、正確な計算に注入されるノイズの量について学習する。
実験により,不均一近似とニューラルネットワーク再学習の組み合わせは,変種に対するエネルギー消費を減少させることが示された。
論文 参考訳(メタデータ) (2022-08-15T15:17:34Z) - MoEfication: Conditional Computation of Transformer Models for Efficient
Inference [66.56994436947441]
トランスフォーマーベースの事前学習言語モデルは、パラメータ容量が大きいため、ほとんどのNLPタスクにおいて優れた性能を実現することができるが、計算コストも大きい。
スパースアクティベーション現象に基づく条件計算により,大規模モデル推論を高速化する。
そこで本研究では,モデルサイズが等しいMoE(Mix-of-experts)バージョン,すなわちMoEficationに変換することを提案する。
論文 参考訳(メタデータ) (2021-10-05T02:14:38Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - Pruning of Convolutional Neural Networks Using Ising Energy Model [45.4796383952516]
コンボリューションカーネルと隠れユニットのプルーニングのための最適化フレームワーク内でIsingエネルギモデルを提案する。
CIFAR-10およびCIFAR-100データセット上でのResNets,AlexNet,SqueezeNetを用いた実験により,提案手法がトレーニング可能なパラメータの50%以上を得ることができることを示す。
論文 参考訳(メタデータ) (2021-02-10T14:00:39Z) - ADAHESSIAN: An Adaptive Second Order Optimizer for Machine Learning [91.13797346047984]
本稿では,2次最適化アルゴリズムであるADAHESSIANを紹介する。
ADAHESSIANは、他の適応最適化手法と比較して、新しい最先端の成果を大きなマージンで達成することを示す。
論文 参考訳(メタデータ) (2020-06-01T05:00:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。