論文の概要: Designing an Efficient End-to-end Machine Learning Pipeline for
Real-time Empty-shelf Detection
- arxiv url: http://arxiv.org/abs/2205.13060v1
- Date: Wed, 25 May 2022 21:51:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-27 13:13:20.335092
- Title: Designing an Efficient End-to-end Machine Learning Pipeline for
Real-time Empty-shelf Detection
- Title(参考訳): リアルタイムエンプティシェルフ検出のための効率的なエンドツーエンド機械学習パイプラインの設計
- Authors: Dipendra Jha, Ata Mahjoubfar, Anupama Joshi
- Abstract要約: 小売店における製品のオン・シェルフ・アベイラビリティ(OSA)は、ビジネス上の重要な基準である。
本稿では,実時間空き棚検出のためのエンドツーエンド機械学習パイプラインを設計するためのエレガントなアプローチを提案する。
私たちのデータセットには1,000のイメージが含まれており、明確に定義されたガイドラインによって収集および注釈付けされています。
- 参考スコア(独自算出の注目度): 0.483420384410068
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: On-Shelf Availability (OSA) of products in retail stores is a critical
business criterion in the fast moving consumer goods and retails sector. When a
product is out-of-stock (OOS) and a customer cannot find it on its designed
shelf, this causes a negative impact on the customer's behaviors and future
demands. Several methods are being adopted by retailers today to detect empty
shelves and ensure high OSA of products; however, such methods are generally
ineffective and infeasible since they are either manual, expensive or less
accurate. Recently machine learning based solutions have been proposed, but
they suffer from high computation cost and low accuracy problem due to lack of
large annotated datasets of on-shelf products. Here, we present an elegant
approach for designing an end-to-end machine learning (ML) pipeline for
real-time empty shelf detection. Considering the strong dependency between the
quality of ML models and the quality of data, we focus on the importance of
proper data collection, cleaning and correct data annotation before delving
into modeling. Since an empty-shelf detection solution should be
computationally-efficient for real-time predictions, we explore different
run-time optimizations to improve the model performance. Our dataset contains
1000 images, collected and annotated by following well-defined guidelines. Our
low-latency model achieves a mean average F1-score of 68.5%, and can process up
to 67 images/s on Intel Xeon Gold and up to 860 images/s on an A100 GPU. Our
annotated dataset is publicly available along with our optimized models.
- Abstract(参考訳): 小売店における商品のオン・シェルフ・アベイラビリティ(OSA)は、急速に変化する消費者商品や小売業において重要なビジネス基準である。
製品が在庫切れ(oos)で、顧客が設計した棚でそれを見つけることができない場合、これは顧客の振る舞いや将来の要求に悪影響を及ぼす。
今日の小売業者は、空の棚を検知し、製品のOSAを確保するためにいくつかの方法を採用しているが、手動、高価、または正確でないため、一般的には非効率で実用的ではない。
近年、機械学習ベースのソリューションが提案されているが、オンシェルフ製品の大量のアノテートデータセットがないため、高い計算コストと低い精度の問題に悩まされている。
本稿では,実時間空き棚検出のためのエンドツーエンド機械学習(ML)パイプラインを設計するためのエレガントなアプローチを提案する。
MLモデルの品質とデータ品質の強い依存性を考慮すると、適切なデータ収集、クリーン化、そしてモデリングに踏み込む前の正しいデータアノテーションの重要性に焦点を当てます。
空棚検出ソリューションは,実時間予測に対して計算効率が高くなければならないため,モデル性能を改善するために異なる実行時最適化を探索する。
当社のデータセットには、明確に定義されたガイドラインに従って収集、アノテートされた1000の画像が含まれています。
我々の低レイテンシモデルは平均F1スコア68.5%を実現し、Intel Xeon Goldで67イメージ/秒、A100 GPUで860イメージ/秒まで処理できる。
注釈付きデータセットは、最適化されたモデルとともに公開されています。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Scaling Retrieval-Based Language Models with a Trillion-Token Datastore [85.4310806466002]
検索ベースLMが使用するデータストアのサイズを増大させることで,言語モデリングや下流タスクを一元的に改善できることがわかった。
データストア、モデル、事前学習データサイズで計算最適スケーリング曲線をプロットすることにより、より大きなデータストアを使用することで、同じトレーニング計算予算のモデル性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2024-07-09T08:27:27Z) - Uncertainty Aware Learning for Language Model Alignment [97.36361196793929]
異なるタスクシナリオのモデルアライメントを改善するために,不確実性認識学習(UAL)を提案する。
トレーニングのラベルの平滑化値を個々のサンプルの不確実性に応じて適応的に設定する。
広く使われているベンチマーク実験では、我々のUALは標準教師あり微調整よりも著しく優れています。
論文 参考訳(メタデータ) (2024-06-07T11:37:45Z) - How to Train Data-Efficient LLMs [56.41105687693619]
事前学習言語モデル(LLM)に対するデータ効率のアプローチについて検討する。
Ask-LLMと密度サンプリングがそれぞれのカテゴリで最適であることがわかった。
何百もの評価タスクと事前学習作業を含む19個のサンプルを比較したところ,Ask-LLMと密度がそれぞれのカテゴリで最適な方法であることが判明した。
論文 参考訳(メタデータ) (2024-02-15T02:27:57Z) - A Simple and Efficient Baseline for Data Attribution on Images [107.12337511216228]
現在の最先端のアプローチでは、モデル予測を正確に評価するために、最大30万のモデルの大規模なアンサンブルが必要となる。
本研究では、自己教師付き学習によって事前訓練されたバックボーンの特徴空間を利用して、データ帰属を行うミニマリストベースラインに焦点を当てる。
提案手法はモデルに依存しず,大規模データセットに容易にスケールできる。
論文 参考訳(メタデータ) (2023-11-03T17:29:46Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Complementary Ensemble Learning [1.90365714903665]
我々は最先端のディープラーニングモデルの性能向上手法を考案した。
具体的には、最先端モデルの不確実性を補完できる補助モデルを訓練する。
論文 参考訳(メタデータ) (2021-11-09T03:23:05Z) - AI Total: Analyzing Security ML Models with Imperfect Data in Production [2.629585075202626]
新しい機械学習モデルの開発は通常、手動でキュレートされたデータセット上で行われる。
本研究では,ユーザによるヘッドライン性能数値の収集を可能にするWebベースの可視化システムを開発した。
また,何か問題が発生した場合に,問題の根本原因を即座に観察することも可能だ。
論文 参考訳(メタデータ) (2021-10-13T20:56:05Z) - FreaAI: Automated extraction of data slices to test machine learning
models [2.475112368179548]
本稿では,ML ソリューションが動作しない説明可能なデータスライスを実現する機能モデルの自動抽出の実現可能性を示す。
我々の新しい技術であるIBM FreaAI aka FreaAIは、構造化MLテストデータや他のラベル付きデータからそのようなスライスを抽出する。
論文 参考訳(メタデータ) (2021-08-12T09:21:16Z) - Improving the Performance of Fine-Grain Image Classifiers via Generative
Data Augmentation [0.5161531917413706]
我々は、ロバスト生成アドリアルネットワーク(DAPPER GAN)の熟練した事前学習からデータ拡張を開発する。
DAPPER GANは、トレーニングイメージの新しいビューを自動的に生成するML分析支援ツールである。
本手法をStanford Carsデータセット上で実験的に評価し,車体形状とモデル分類精度の向上を実証した。
論文 参考訳(メタデータ) (2020-08-12T15:29:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。