論文の概要: A sentiment analysis model for car review texts based on adversarial
training and whole word mask BERT
- arxiv url: http://arxiv.org/abs/2206.02389v1
- Date: Mon, 6 Jun 2022 06:45:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 17:05:41.403117
- Title: A sentiment analysis model for car review texts based on adversarial
training and whole word mask BERT
- Title(参考訳): 対人訓練と全単語マスクBERTに基づく自動車レビューテキストの感情分析モデル
- Authors: Xingchen Liu and Yawen Li and Yingxia Shao and Ang Li and Jian Liang
- Abstract要約: 自動車評価の分野では、ネット市民がインターネットプラットフォーム上で意見を表明するケースが増えている。
対向訓練と全単語マスクBERT(ATWWM-BERT)に基づく自動車レビューテキスト感情分析モデルを提案する。
- 参考スコア(独自算出の注目度): 41.480467013834144
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the field of car evaluation, more and more netizens choose to express
their opinions on the Internet platform, and these comments will affect the
decision-making of buyers and the trend of car word-of-mouth. As an important
branch of natural language processing (NLP), sentiment analysis provides an
effective research method for analyzing the sentiment types of massive car
review texts. However, due to the lexical professionalism and large text noise
of review texts in the automotive field, when a general sentiment analysis
model is applied to car reviews, the accuracy of the model will be poor. To
overcome these above challenges, we aim at the sentiment analysis task of car
review texts. From the perspective of word vectors, pre-training is carried out
by means of whole word mask of proprietary vocabulary in the automotive field,
and then training data is carried out through the strategy of an adversarial
training set. Based on this, we propose a car review text sentiment analysis
model based on adversarial training and whole word mask BERT(ATWWM-BERT).
- Abstract(参考訳): 自動車評価の分野では、ますます多くのネット市民がインターネットプラットフォーム上で意見を表明し、これらのコメントは購入者の意思決定と車の口コミの動向に影響を与えるだろう。
自然言語処理(NLP)の重要な分野として、感情分析は、大量の自動車レビューテキストの感情タイプを分析する効果的な研究手法を提供する。
しかし,自動車分野におけるレビューテキストの語彙的プロフェッショナル性や大きなテキストノイズのため,車レビューに一般的な感情分析モデルを適用すると,モデルの精度は低下する。
これらの課題を克服するために,カーレビューテキストの感情分析タスクを目標とする。
単語ベクトルの観点からは、自動車分野における独自の語彙のワードマスク全体を用いて事前学習を行い、敵の訓練セットの戦略を介してトレーニングデータを実行する。
そこで本研究では,敵対的トレーニングと全ワードマスクBERT(ATWWM-BERT)に基づく自動車レビューテキスト感情分析モデルを提案する。
関連論文リスト
- A Literature Review of Literature Reviews in Pattern Analysis and
Machine Intelligence [62.90682521144006]
この分析は、様々な観点からPAMI分野のレビューを徹底的にレビューすることを目的としている。
書評を自動評価するために,大規模言語モデルを用いた書評指標を提案する。
新たに登場したAI生成の文献レビューも評価されている。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - Analysis of the Evolution of Advanced Transformer-Based Language Models:
Experiments on Opinion Mining [0.5735035463793008]
本稿では,最先端のトランスフォーマーに基づく言語モデルの意見マイニングにおける挙動について検討する。
私たちの比較研究は、フォーカスするアプローチに関して、プロダクションエンジニアがリードし、道を開く方法を示しています。
論文 参考訳(メタデータ) (2023-08-07T01:10:50Z) - Leveraging ChatGPT As Text Annotation Tool For Sentiment Analysis [6.596002578395151]
ChatGPTはOpenAIの新製品で、最も人気のあるAI製品として登場した。
本研究では、さまざまな感情分析タスクのためのデータラベリングツールとしてのChatGPTについて検討する。
論文 参考訳(メタデータ) (2023-06-18T12:20:42Z) - Connecting Humanities and Social Sciences: Applying Language and Speech
Technology to Online Panel Surveys [2.0646127669654835]
オランダのパネル調査において,言語と音声技術のオープンエンド質問への適用について検討した。
実験波では、回答者は音声やキーボードを使ってオープンな質問に答えることができた。
本稿では,ASRシステムが生成した誤りを報告し,これらの誤りが下流解析に与える影響について検討する。
論文 参考訳(メタデータ) (2023-02-21T10:52:15Z) - Polling Latent Opinions: A Method for Computational Sociolinguistics
Using Transformer Language Models [4.874780144224057]
我々は,Yelp レビューのより大きなコーパス内で,トランスフォーマー言語モデルの記憶と外挿の能力を用いて,サブグループの言語的振る舞いを学習する。
トレーニングコーパスに特定のキーワードが制限されたり、全く存在しない場合においても、GPTは正しい感情を持つ大量のテキストを正確に生成できることを示す。
論文 参考訳(メタデータ) (2022-04-15T14:33:58Z) - Improving Text Auto-Completion with Next Phrase Prediction [9.385387026783103]
我々の戦略は、Next Phrase Prediction (NPP)と呼ばれる新しい自己指導型トレーニング目標を含む。
予備実験により,メールや学術書記ドメインの自動補完において,本手法がベースラインより優れていることが示された。
論文 参考訳(メタデータ) (2021-09-15T04:26:15Z) - Leveraging Pre-trained Language Model for Speech Sentiment Analysis [58.78839114092951]
本研究では、事前学習された言語モデルを用いて、文章の感情情報を学習し、音声の感情分析を行う。
本稿では,言語モデルを用いた擬似ラベルに基づく半教師付き訓練戦略を提案する。
論文 参考訳(メタデータ) (2021-06-11T20:15:21Z) - TextFlint: Unified Multilingual Robustness Evaluation Toolkit for
Natural Language Processing [73.16475763422446]
NLPタスク(TextFlint)のための多言語ロバスト性評価プラットフォームを提案する。
普遍的なテキスト変換、タスク固有の変換、敵攻撃、サブポピュレーション、およびそれらの組み合わせを取り入れ、包括的な堅牢性分析を提供する。
TextFlintは、モデルの堅牢性の欠点に対処するために、完全な分析レポートとターゲットとした拡張データを生成します。
論文 参考訳(メタデータ) (2021-03-21T17:20:38Z) - My Teacher Thinks The World Is Flat! Interpreting Automatic Essay
Scoring Mechanism [71.34160809068996]
最近の研究では、自動スコアリングシステムが常識的な敵対的サンプルになりやすいことが示されています。
近年の解釈能力の進歩を活かし,コヒーレンスやコンテント,関連性といった特徴がスコアリングの自動化にどの程度重要であるかを見出す。
また、モデルが意味的に世界知識や常識に基づかないことから、世界のような虚偽の事実を追加することは、それを減らすよりもむしろスコアを増加させる。
論文 参考訳(メタデータ) (2020-12-27T06:19:20Z) - A Unified Dual-view Model for Review Summarization and Sentiment
Classification with Inconsistency Loss [51.448615489097236]
ユーザーレビューから正確な要約と感情を取得することは、現代のEコマースプラットフォームにとって不可欠な要素である。
本稿では,これら2つのタスクの性能を協調的に改善する新しいデュアルビューモデルを提案する。
異なる領域の4つの実世界のデータセットに対する実験結果から,本モデルの有効性が示された。
論文 参考訳(メタデータ) (2020-06-02T13:34:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。