論文の概要: Sentiment Analysis Of Shopee Product Reviews Using Distilbert
- arxiv url: http://arxiv.org/abs/2511.22313v1
- Date: Thu, 27 Nov 2025 10:43:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.518061
- Title: Sentiment Analysis Of Shopee Product Reviews Using Distilbert
- Title(参考訳): Distilbert を用いた買い物客製品レビューの感性分析
- Authors: Zahri Aksa Dautd, Aviv Yuniar Rahman,
- Abstract要約: 本研究では,Shopee製品レビューにおける感情分類に,軽量なトランスフォーマーベースディープラーニングモデルであるDistilBERTを用いて検討した。
使用されるデータセットは、約100万の英語レビューで構成され、前処理とトレーニングが行われた。
DistilBERTは94.8%の精度を達成し、BERT (95.3%) をわずかに下回ったが、SVM (90.2%) よりもかなり高く、計算時間を55%以上削減した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The rapid growth of digital commerce has led to the accumulation of a massive number of consumer reviews on online platforms. Shopee, as one of the largest e-commerce platforms in Southeast Asia, receives millions of product reviews every day containing valuable information regarding customer satisfaction and preferences. Manual analysis of these reviews is inefficient, thus requiring a computational approach such as sentiment analysis. This study examines the use of DistilBERT, a lightweight transformer-based deep learning model, for sentiment classification on Shopee product reviews. The dataset used consists of approximately one million English-language reviews that have been preprocessed and trained using the distilbert-base-uncased model. Evaluation was conducted using accuracy, precision, recall, and F1-score metrics, and compared against benchmark models such as BERT and SVM. The results show that DistilBERT achieved an accuracy of 94.8%, slightly below BERT (95.3%) but significantly higher than SVM (90.2%), with computation time reduced by more than 55%. These findings demonstrate that DistilBERT provides an optimal balance between accuracy and efficiency, making it suitable for large scale sentiment analysis on e-commerce platforms. Keywords: Sentiment Analysis, DistilBERT, Shopee Reviews, Natural Language Processing, Deep Learning, Transformer Models.
- Abstract(参考訳): デジタルコマースの急速な成長は、オンラインプラットフォーム上での膨大な消費者レビューの蓄積につながった。
東南アジア最大のeコマースプラットフォームの一つであるShopeeは、顧客満足度や好みに関する貴重な情報を含む、毎日何百万もの製品レビューを受け取っている。
これらのレビューのマニュアル分析は非効率であり、感情分析のような計算手法を必要とする。
本研究では,Shopee製品レビューにおける感情分類に,軽量なトランスフォーマーベースディープラーニングモデルであるDistilBERTを用いて検討した。
使用するデータセットは、 distilbert-base-uncasedモデルを使用して事前処理され、トレーニングされた約100万の英語レビューで構成されている。
精度,精度,リコール,F1スコアの測定値を用いて評価を行い,BERTやSVMなどのベンチマークモデルと比較した。
その結果、DistilBERTの精度は94.8%で、BERT (95.3%) よりわずかに低いが、SVM (90.2%) よりもかなり高く、計算時間が55%以上削減された。
これらの結果から, DistilBERTは精度と効率のバランスを最適に保ち, 電子商取引プラットフォーム上での大規模感情分析に適していることが示唆された。
キーワード:Sentiment Analysis, DistilBERT, Shopee Reviews, Natural Language Processing, Deep Learning, Transformer Models。
関連論文リスト
- LLM Based Sentiment Classification From Bangladesh E-Commerce Reviews [0.0]
本稿では,バングラデシュのeコマースレビューの感情分析にトランスフォーマーを用いたBERTモデルの有効性について検討する。
バングラのオリジナルデータセットから4000サンプルのサブセットと、イングランドの顧客レビューを使用してモデルを微調整した。
微調整のLlama-3.1-8Bモデルは、全体的な精度、精度、リコール、F1スコア95.5%、93%、88%、90%で他の微調整モデルより優れていた。
論文 参考訳(メタデータ) (2025-09-30T16:46:09Z) - OpenCodeReasoning: Advancing Data Distillation for Competitive Coding [61.15402517835137]
教師付き微調整(SFT)データセットを構築し、様々なサイズのモデルで最先端のコーディング能力を実現する。
私たちのモデルは、LiveCodeBenchで61.8%、CodeContestsで24.6%を達成するためにSFTのみを使用しており、強化学習でトレーニングされた代替品を上回っています。
論文 参考訳(メタデータ) (2025-04-02T17:50:31Z) - AI-Driven Sentiment Analytics: Unlocking Business Value in the E-Commerce Landscape [0.0]
本稿では,eコマースアプリケーションに特化して設計されたAIによる感情分析システムを提案する。
私たちのアプローチは、従来の機械学習技術と現代的なディープラーニングモデルを統合することで、顧客の感情をより微妙な理解を可能にします。
実験結果から,本システムは,多種多様な大規模データセットにおいて89.7%の精度で,標準的な感情分析手法よりも優れていた。
論文 参考訳(メタデータ) (2025-03-20T18:56:22Z) - BanglishRev: A Large-Scale Bangla-English and Code-mixed Dataset of Product Reviews in E-Commerce [2.5874041837241304]
本研究は、英語のベンガル語で書かれたレビューと、英語のアルファベットで書かれたバングリッシュ・ベンガル語を混ぜたレビューのために、これまでで最大のeコマース製品レビューデータセットを提示する。
このデータセットは、ベンガル人を対象にしたオンライン電子商取引プラットフォームで販売されている128万の製品から収集された320万のレーティング情報から144万件のレビューが作成されている。
レビューには、レビュー者からのレーティング、レビューが投稿された日、購入日、いいね!の件数、嫌悪感、売り手からの反応、レビューに関連する画像などを含む、レビューごとに関連するメタデータの広範囲が含まれている。
論文 参考訳(メタデータ) (2024-12-17T18:39:10Z) - An Efficient Recommendation System in E-commerce using Passer learning optimization based on Bi-LSTM [4.483925165891734]
本稿では,eコマースレコメンデーションシステムに適用可能なPasser Learning Optimization-enhanced Bi-LSTM分類器に基づくレコメンデーションシステムを提案する。
赤ちゃんデータセットで1.24%のMSEを達成する。これにより、88.58%まで上昇する。また、デジタル音楽とパティオ芝生の庭のデータセットのF1の88.46%と92.51%の堅牢なパフォーマンスもある。
論文 参考訳(メタデータ) (2023-07-31T20:09:25Z) - DeBERTaV3: Improving DeBERTa using ELECTRA-Style Pre-Training with
Gradient-Disentangled Embedding Sharing [117.41016786835452]
本稿では,DeBERTaモデルの改良を目的とした,事前学習型言語モデルDeBERTaV3を提案する。
ELECTRAでのバニラ埋め込み共有は、トレーニング効率とモデルパフォーマンスを損なう。
そこで本研究では、タグ・オブ・ウォーのダイナミクスを回避するために、新しい勾配距離の埋め込み方式を提案する。
論文 参考訳(メタデータ) (2021-11-18T06:48:00Z) - Towards Efficient NLP: A Standard Evaluation and A Strong Baseline [55.29756535335831]
本研究は, ELUE (Efficient Language Understanding Evaluation) と標準評価, 効率的なNLPモデルのための公開リーダボードを提案する。
ベンチマークとともに、強いベースラインであるElasticBERTの事前トレーニングとリリースも行います。
論文 参考訳(メタデータ) (2021-10-13T21:17:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。