論文の概要: Multi-level Product Category Prediction through Text Classification
- arxiv url: http://arxiv.org/abs/2403.01638v1
- Date: Sun, 3 Mar 2024 23:10:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 20:24:00.220174
- Title: Multi-level Product Category Prediction through Text Classification
- Title(参考訳): テキスト分類による多レベル製品カテゴリー予測
- Authors: Wesley Ferreira Maia, Angelo Carmignani, Gabriel Bortoli, Lucas
Maretti, David Luz, Daniel Camilo Fuentes Guzman, Marcos Jardel Henriques,
Francisco Louzada Neto
- Abstract要約: 本稿では、テキスト分類における高度な機械学習モデル、特にLSTMとBERTを適用し、小売業における複数のカテゴリを予測する。
この研究は、ブラジルの堅牢な小売データセットを用いて、商品を複数のカテゴリに分類する際の精度を大幅に向上させる、データ拡張技術と焦点損失関数の適用方法を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This article investigates applying advanced machine learning models,
specifically LSTM and BERT, for text classification to predict multiple
categories in the retail sector. The study demonstrates how applying data
augmentation techniques and the focal loss function can significantly enhance
accuracy in classifying products into multiple categories using a robust
Brazilian retail dataset. The LSTM model, enriched with Brazilian word
embedding, and BERT, known for its effectiveness in understanding complex
contexts, were adapted and optimized for this specific task. The results showed
that the BERT model, with an F1 Macro Score of up to $99\%$ for segments,
$96\%$ for categories and subcategories and $93\%$ for name products,
outperformed LSTM in more detailed categories. However, LSTM also achieved high
performance, especially after applying data augmentation and focal loss
techniques. These results underscore the effectiveness of NLP techniques in
retail and highlight the importance of the careful selection of modelling and
preprocessing strategies. This work contributes significantly to the field of
NLP in retail, providing valuable insights for future research and practical
applications.
- Abstract(参考訳): 本稿では、テキスト分類における高度な機械学習モデル、特にLSTMとBERTを適用し、小売業における複数のカテゴリを予測する。
本研究は,ブラジルのロバストなリテールデータセットを用いた製品分類において,データ拡張手法と焦点損失関数の適用により,製品分類精度が著しく向上することを示す。
ブラジル語の単語埋め込みに富んだLSTMモデルと、複雑な文脈を理解する上での有効性で知られるBERTが適応され、このタスクに最適化された。
その結果,F1マクロスコアが99 %,カテゴリとサブカテゴリが9,6 %,ネーム製品が9,3 %であったようなBERTモデルは,より詳細なカテゴリではLSTMよりも優れていた。
しかし、LSTMは特にデータ拡張と焦点損失技術を適用した後、高い性能を実現した。
これらの結果は,小売業におけるNLP技術の有効性を浮き彫りにし,モデリングおよび前処理戦略の慎重に選択することの重要性を強調した。
この研究は小売業におけるNLPの分野に大きく貢献し、将来の研究や実用化に貴重な洞察を与えている。
関連論文リスト
- TMT-VIS: Taxonomy-aware Multi-dataset Joint Training for Video Instance
Segmentation [51.199543962233506]
大規模データセットのトレーニングは、ビデオインスタンスセグメンテーションのパフォーマンスを高めることができるが、VISのデータセットは労働コストが高いためスケールアップが難しい。
私たちが持っているものは、多数の独立した提出された特定のデータセットであり、データ量と多様性を高めるためにデータセットの集合をまたいだモデルを共同でトレーニングすることが魅力です。
我々は、YouTube-VIS 2019、YouTube-VIS 2021、OVIS、UVOの4つの人気で挑戦的なベンチマークで、広範囲に評価を行っている。
本モデルでは,ベースラインソリューションよりも大幅に改善され,すべてのベンチマークで新たな最先端レコードが設定される。
論文 参考訳(メタデータ) (2023-12-11T18:50:09Z) - Utilizing Weak Supervision To Generate Indonesian Conservation Dataset [3.357014575278386]
迅速かつ大規模なデータセット作成のための有望なアプローチとして、弱みの監視が登場している。
本稿では,インドネシアのNLPデータセットを保護ニューステキストから構築する方法について述べる。
論文 参考訳(メタデータ) (2023-10-17T13:23:18Z) - Segmented Harmonic Loss: Handling Class-Imbalanced Multi-Label Clinical
Data for Medical Coding with Large Language Models [1.5913129437464046]
実生活雑音データに対するLLM(Large Language Models)の効果を評価する。
マルチラベルシナリオにおいて,ほとんどの医療データにおいて,過度なクラス不均衡に対処する新たな損失関数であるSegmented Harmonic Lossを開発した。
実験の結果,提案した損失をトレーニングすると,LLMはノイズの多い長期データセットにおいても大きな性能向上を達成できることがわかった。
論文 参考訳(メタデータ) (2023-10-06T21:20:28Z) - From Quantity to Quality: Boosting LLM Performance with Self-Guided Data
Selection for Instruction Tuning [54.222609226692015]
我々は大規模言語モデルのための自己誘導手法を導入し、大規模なオープンソースデータセットからサクラサンプルを自律的に識別し、選択する。
私たちの重要なイノベーションであるIFD(Instruction-Following Difficulty)メトリックは、モデルが期待する応答と自動生成技術との間の相違を識別するための重要なツールとして現れます。
論文 参考訳(メタデータ) (2023-08-23T09:45:29Z) - Attention is Not Always What You Need: Towards Efficient Classification
of Domain-Specific Text [1.1508304497344637]
階層構造に整理された数百のクラスを持つ大規模ITコーパスでは、階層構造における上位レベルのクラスの正確な分類が不可欠である。
ビジネスの世界では、高額なブラックボックスモデルよりも効率的で説明可能なMLモデルが好まれる。
PLMが広く使われているにもかかわらず、これらのモデルがドメイン固有のテキスト分類に使われている理由として、明確で明確な必要性が欠如している。
論文 参考訳(メタデータ) (2023-03-31T03:17:23Z) - Guiding Generative Language Models for Data Augmentation in Few-Shot
Text Classification [59.698811329287174]
我々は、GPT-2を用いて、分類性能を向上させるために、人工訓練インスタンスを生成する。
実験の結果,少数のラベルインスタンスでGPT-2を微調整すると,一貫した分類精度が向上することがわかった。
論文 参考訳(メタデータ) (2021-11-17T12:10:03Z) - Text Classification for Predicting Multi-level Product Categories [0.0]
オンラインショッピングプラットフォームでは、製品の詳細な分類がユーザナビゲーションを促進する。
本研究では,食品の商品名分類に焦点をあてる。
論文 参考訳(メタデータ) (2021-09-02T17:00:05Z) - Multitask Learning for Class-Imbalanced Discourse Classification [74.41900374452472]
マルチタスクアプローチは,現在のベンチマークで7%のマイクロf1コアを改善できることを示す。
また,NLPにおける資源不足問題に対処するための追加手法の比較検討を行った。
論文 参考訳(メタデータ) (2021-01-02T07:13:41Z) - DAGA: Data Augmentation with a Generation Approach for Low-resource
Tagging Tasks [88.62288327934499]
線形化ラベル付き文に基づいて訓練された言語モデルを用いた新しい拡張手法を提案する。
本手法は, 教師付き設定と半教師付き設定の両方に適用可能である。
論文 参考訳(メタデータ) (2020-11-03T07:49:15Z) - Revisiting LSTM Networks for Semi-Supervised Text Classification via
Mixed Objective Function [106.69643619725652]
我々は,単純なBiLSTMモデルであっても,クロスエントロピー損失でトレーニングした場合に,競争的な結果が得られるようなトレーニング戦略を開発する。
いくつかのベンチマークデータセット上で,テキスト分類タスクの最先端結果について報告する。
論文 参考訳(メタデータ) (2020-09-08T21:55:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。