論文の概要: Optimizing LSTM Neural Networks for Resource-Constrained Retail Sales Forecasting: A Model Compression Study
- arxiv url: http://arxiv.org/abs/2601.00525v1
- Date: Fri, 02 Jan 2026 01:35:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 15:04:33.495421
- Title: Optimizing LSTM Neural Networks for Resource-Constrained Retail Sales Forecasting: A Model Compression Study
- Title(参考訳): 資源制約された小売販売予測のためのLSTMニューラルネットワークの最適化:モデル圧縮による検討
- Authors: Ravi Teja Pagidoju,
- Abstract要約: 本稿では,LSTMモデル圧縮について,隠蔽ユニットの数を128から16に減らして検討する。
実験により、隠されたLSTMユニットの数を64に下げることは、同じレベルの精度を維持しながら改善することを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Standard LSTM(Long Short-Term Memory) neural networks provide accurate predictions for sales data in the retail industry, but require a lot of computing power. It can be challenging especially for mid to small retail industries. This paper examines LSTM model compression by gradually reducing the number of hidden units from 128 to 16. We used the Kaggle Store Item Demand Forecasting dataset, which has 913,000 daily sales records from 10 stores and 50 items, to look at the trade-off between model size and how accurate the predictions are. Experiments show that lowering the number of hidden LSTM units to 64 maintains the same level of accuracy while also improving it. The mean absolute percentage error (MAPE) ranges from 23.6% for the full 128-unit model to 12.4% for the 64-unit model. The optimized model is 73% smaller (from 280KB to 76KB) and 47% more accurate. These results show that larger models do not always achieve better results.
- Abstract(参考訳): 標準LSTM(Long Short-Term Memory)ニューラルネットワークは、小売業界における販売データに対して正確な予測を提供するが、多くのコンピューティングパワーを必要とする。
特に中小規模の小売業では困難である。
本稿では,LSTMモデル圧縮について,隠蔽ユニットの数を128から16に減らして検討する。
私たちはKaggle Store Item Demand Forecastingデータセットを使用し、このデータセットは10店舗と50品目から1日91万3000件の売り上げを記録し、モデルサイズと予測の正確さのトレードオフを調べました。
実験により、隠されたLSTMユニットの数を64に下げることは、同じレベルの精度を維持しながら改善することを示した。
平均絶対パーセンテージ誤差(MAPE)は、128ユニットモデルでは23.6%、64ユニットモデルでは12.4%である。
最適化されたモデルは73%小さく(280KBから76KB)、精度は47%向上した。
これらの結果は、より大きなモデルが必ずしもより良い結果を得るとは限らないことを示している。
関連論文リスト
- Optimizing Deep Learning for Skin Cancer Classification: A Computationally Efficient CNN with Minimal Accuracy Trade-Off [0.7392022204015549]
本研究では,パラメータの96.7%削減を実現し,分類精度が0.022%未満のCNNモデルを提案する。
我々の軽量CNNアーキテクチャは、ResNet50の4.00億ドルと比較してわずか30.04万のFLOPしか含まないため、エネルギー消費、メモリフットプリント、推論時間を大幅に削減する。
論文 参考訳(メタデータ) (2025-05-27T16:53:58Z) - DataDecide: How to Predict Best Pretraining Data with Small Experiments [67.95896457895404]
私たちはDataDecideのモデル、データ、評価を公開しています。
最大100Bトークン,最大1Bパラメータのモデルサイズ,および3つのランダムシードを用いて,25コーパスにわたる事前学習実験を行った。
論文 参考訳(メタデータ) (2025-04-15T17:02:15Z) - Common 7B Language Models Already Possess Strong Math Capabilities [61.61442513067561]
本稿では,LLaMA-2 7Bモデルと事前学習を併用したモデルが,すでに強力な数学的能力を示していることを示す。
拡張スケーリングの可能性は、公開されている数学の質問の不足によって制限されている。
論文 参考訳(メタデータ) (2024-03-07T18:00:40Z) - Knowledge Distillation of LLM for Automatic Scoring of Science Education Assessments [4.541309099803903]
本研究では,超微調整大言語モデル(LLM)の知識蒸留(KD)手法を提案する。
リソース制約のあるデバイスにこれらのモデルをデプロイするという課題を特にターゲットとしています。
論文 参考訳(メタデータ) (2023-12-26T01:24:25Z) - QLoRA: Efficient Finetuning of Quantized LLMs [66.58009990713134]
我々は,48GBのGPU上で65Bパラメータモデルを微調整するのに十分なメモリ使用量を削減する,効率的な微調整手法QLoRAを提案する。
QLoRAは凍結した4ビット量子化事前学習言語モデルを通して低ランクアダプタ(LoRA)に逆伝搬する
最高のモデルファミリであるGuanacoは、Vicunaベンチマークでリリースされたすべてのモデルより優れています。
論文 参考訳(メタデータ) (2023-05-23T17:50:33Z) - nanoLM: an Affordable LLM Pre-training Benchmark via Accurate Loss Prediction across Scales [65.01417261415833]
我々は,最大更新パラメトリゼーション(muP)がスケーリング法則の正確な適合を可能にするという観測に基づいて,事前学習損失を予測する手法を提案する。
トレーニング前コストの約14%で、52Bまでのモデルの損失を正確に予測できる。
NanoLMのゴールは、限られた資源を持つ研究者が大きなモデルで有意義な結論に達することを可能にすることです。
論文 参考訳(メタデータ) (2023-04-14T00:45:01Z) - A contextual analysis of multi-layer perceptron models in classifying
hand-written digits and letters: limited resources [0.0]
我々は,前処理や特徴抽出を行わずに,終端から終端までのバニラニューラルネットワーク(MLP)アプローチを純粋に検証した。
基礎的なデータマイニング操作は,計算時間の観点からモデルの性能を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2021-07-05T04:30:37Z) - The effects of regularisation on RNN models for time series forecasting:
Covid-19 as an example [2.5397218862229254]
本稿では,他のニューラルネットワークよりもフレキシブルなモデルを提案する。
小型データのパフォーマンスを改善するため,6つの正規化方法がテストされた。
わずか28日間のデータで訓練されたGRUモデルにDropoutを適用することでRMSEは23%減少した。
論文 参考訳(メタデータ) (2021-05-09T10:50:57Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - Optimizing Privacy-Preserving Outsourced Convolutional Neural Network
Predictions [23.563775490174415]
近年の研究では、クエリと結果のプライバシに焦点が当てられているが、モデルホストサーバに対してモデルプライバシを提供していない。
本稿では,アウトソース環境でのプライバシ保護型ニューラルネットワーク予測のための新しい手法を提案する。
我々は、秘密の共有とトリプルト生成を伴う2つの非凝固サーバを活用して、重厚暗号の使用を最小限にする。
論文 参考訳(メタデータ) (2020-02-22T08:47:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。