論文の概要: Leveraging IndoBERT and DistilBERT for Indonesian Emotion Classification in E-Commerce Reviews
- arxiv url: http://arxiv.org/abs/2509.14611v1
- Date: Thu, 18 Sep 2025 04:38:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:53.06531
- Title: Leveraging IndoBERT and DistilBERT for Indonesian Emotion Classification in E-Commerce Reviews
- Title(参考訳): インドネシアの感情分類におけるIndoBERTとDistilBERTの活用
- Authors: William Christian, Daniel Adamlu, Adrian Yu, Derwin Suhartono,
- Abstract要約: 本研究では,インドネシア語における感情分類の精度向上に焦点をあて,高度な言語モデルであるIndoBERTとDistilBERTを活用する。
データの増大は高い精度を達成する上で重要な要素であることが判明した。
IndoBERTはインドネシアで最も効果的な感情分類モデルであり、データの増大は高い精度を達成する上で重要な要素であることが証明された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Understanding emotions in the Indonesian language is essential for improving customer experiences in e-commerce. This study focuses on enhancing the accuracy of emotion classification in Indonesian by leveraging advanced language models, IndoBERT and DistilBERT. A key component of our approach was data processing, specifically data augmentation, which included techniques such as back-translation and synonym replacement. These methods played a significant role in boosting the model's performance. After hyperparameter tuning, IndoBERT achieved an accuracy of 80\%, demonstrating the impact of careful data processing. While combining multiple IndoBERT models led to a slight improvement, it did not significantly enhance performance. Our findings indicate that IndoBERT was the most effective model for emotion classification in Indonesian, with data augmentation proving to be a vital factor in achieving high accuracy. Future research should focus on exploring alternative architectures and strategies to improve generalization for Indonesian NLP tasks.
- Abstract(参考訳): インドネシア語で感情を理解することは、eコマースにおける顧客体験を改善するために不可欠である。
本研究では,インドネシア語における感情分類の精度向上に焦点をあて,高度な言語モデルであるIndoBERTとDistilBERTを活用する。
このアプローチの重要なコンポーネントはデータ処理、特にデータ拡張であり、バックトランスレーションや同義語置換といったテクニックが含まれていました。
これらの手法はモデルの性能向上に重要な役割を果たした。
ハイパーパラメータチューニングの後、IndoBERTは80%の精度を達成し、注意深いデータ処理の影響を実証した。
複数のIndoBERTモデルを組み合わせることで若干の改善が行われたが、性能は大幅に向上しなかった。
以上の結果から,IndoBERTはインドネシアで最も効果的な感情分類モデルであることが示唆された。
今後の研究は、インドネシアのNLPタスクの一般化を改善するための代替アーキテクチャと戦略の探求に焦点をあてるべきである。
関連論文リスト
- Emotion Classification In-Context in Spanish [0.0]
顧客からのフィードバックを,肯定的,中立的,否定的という3つの感情カテゴリーに分類する。
伝統的な方法では、広く話される言語からのフィードバックをあまり一般的でない言語に翻訳し、意味的整合性が失われる。
本稿では,TF-IDFとBERTの埋め込みを組み合わせたハイブリッド手法を提案する。
論文 参考訳(メタデータ) (2025-05-26T23:09:41Z) - BERTer: The Efficient One [0.0]
本研究では、感情分析、パラフレーズ検出、意味的テキスト類似性においてBERTの性能を高めるための高度な微調整手法について検討する。
その結果,複数の微調整アーキテクチャを組み合わせる場合のモデル効率と有効性は大幅に向上した。
論文 参考訳(メタデータ) (2024-07-19T05:33:09Z) - oBERTa: Improving Sparse Transfer Learning via improved initialization,
distillation, and pruning regimes [82.99830498937729]
oBERTaは自然言語処理のための使いやすい言語モデルのセットです。
NLPの実践者はモデル圧縮の専門知識なしで3.8倍から24.3倍の高速モデルを得ることができる。
代表的な7つのNLPタスクにおけるoBERTaの利用について検討する。
論文 参考訳(メタデータ) (2023-03-30T01:37:19Z) - REDAffectiveLM: Leveraging Affect Enriched Embedding and
Transformer-based Neural Language Model for Readers' Emotion Detection [3.6678641723285446]
本稿では,REDAffectiveLMと呼ばれる深層学習モデルを用いて,短文文書からの読み手感情検出のための新しい手法を提案する。
コンテクストに特化してリッチ表現に影響を与え, リッチBi-LSTM+Attentionに影響を及ぼすタンデムにおいて, トランスフォーマーに基づく事前学習言語モデルを用いることで, リッチ表現に影響を及ぼす。
論文 参考訳(メタデータ) (2023-01-21T19:28:25Z) - Contextual Information and Commonsense Based Prompt for Emotion
Recognition in Conversation [14.651642872901496]
会話における感情認識(Emotion Recognition in conversation,ERC)は、ある会話における発話ごとの感情を検出することを目的としている。
近年のERCモデルは、事前学習と微調整のパラダイムを取り入れた事前学習言語モデル(PLM)を活用して、優れた性能を実現している。
本稿では,命令モデルと言語モデル(LM)チューニングの新しいパラダイムを取り入れた新しいERCモデルCISPERを提案する。
論文 参考訳(メタデータ) (2022-07-27T02:34:05Z) - FedDUAP: Federated Learning with Dynamic Update and Adaptive Pruning
Using Shared Data on the Server [64.94942635929284]
フェデレーテッド・ラーニング(FL)は2つの重要な課題、すなわち限られた計算資源と訓練効率の低下に悩まされている。
本稿では,サーバ上の不感なデータとエッジデバイスの分散データを利用する新しいFLフレームワークであるFedDUAPを提案する。
提案するFLモデルであるFedDUAPは,2つの元の手法を統合することで,精度(最大4.8%),効率(最大2.8倍),計算コスト(最大61.9%)において,ベースラインアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2022-04-25T10:00:00Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Fine-tuning Pretrained Multilingual BERT Model for Indonesian
Aspect-based Sentiment Analysis [0.0]
CNNとXGBoostを用いて,ホテルドメインにおけるインドネシアのレビューに対するAspect-based Sentiment Analysis (ABSA) に関する研究を行った。
本稿では,インドネシアのレビューデータセットにおいて,最も先進的な言語表現モデルであるBERTをABSAに組み込むことを目的としている。
論文 参考訳(メタデータ) (2021-03-05T15:05:51Z) - CoDA: Contrast-enhanced and Diversity-promoting Data Augmentation for
Natural Language Understanding [67.61357003974153]
我々はCoDAと呼ばれる新しいデータ拡張フレームワークを提案する。
CoDAは、複数の変換を有機的に統合することで、多種多様な情報付加例を合成する。
すべてのデータサンプルのグローバルな関係を捉えるために、対照的な正則化の目的を導入する。
論文 参考訳(メタデータ) (2020-10-16T23:57:03Z) - E-BERT: A Phrase and Product Knowledge Enhanced Language Model for
E-commerce [63.333860695727424]
電子商取引タスクは、ドメインフレーズの正確な理解を必要とするが、そのようなきめ細かいフレーズレベルの知識は、BERTの訓練目的によって明示的にモデル化されていない。
この問題に対処するため、我々はE-BERTという統合事前学習フレームワークを提案する。
具体的には、フレーズレベルの知識を保存するために、適応的ハイブリッドマスキングを導入し、モデルが予備単語の知識から複雑なフレーズの学習に適応的に切り替えることを可能にする。
製品レベルの知識を活用するために,E-BERT を訓練し,製品に付随する隣人を認知的なクロスアテンション層で予測するNighbor Product Restruction を導入する。
論文 参考訳(メタデータ) (2020-09-07T00:15:36Z) - Improving BERT Fine-Tuning via Self-Ensemble and Self-Distillation [84.64004917951547]
BERTのような微調整済みの言語モデルは、NLPにおいて効果的な方法となっている。
本稿では, BERTの微細調整を, 自己組織化と自己蒸留の2つの効果的なメカニズムで改善する。
論文 参考訳(メタデータ) (2020-02-24T16:17:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。