論文の概要: Text Sentiment Analysis and Classification Based on Bidirectional Gated Recurrent Units (GRUs) Model
- arxiv url: http://arxiv.org/abs/2404.17123v1
- Date: Fri, 26 Apr 2024 02:40:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-29 14:14:08.114120
- Title: Text Sentiment Analysis and Classification Based on Bidirectional Gated Recurrent Units (GRUs) Model
- Title(参考訳): 双方向ゲーテッド・リカレント・ユニット(GRU)モデルに基づくテキスト知覚分析と分類
- Authors: Wei Xu, Jianlong Chen, Zhicheng Ding, Jinyin Wang,
- Abstract要約: 本稿では,自然言語処理分野におけるテキスト感情分析と分類の重要性について考察する。
双方向ゲート再帰単位(GRU)モデルに基づく感情分析と分類の新しい手法を提案する。
- 参考スコア(独自算出の注目度): 6.096738978232722
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper explores the importance of text sentiment analysis and classification in the field of natural language processing, and proposes a new approach to sentiment analysis and classification based on the bidirectional gated recurrent units (GRUs) model. The study firstly analyses the word cloud model of the text with six sentiment labels, and then carries out data preprocessing, including the steps of removing special symbols, punctuation marks, numbers, stop words and non-alphabetic parts. Subsequently, the data set is divided into training set and test set, and through model training and testing, it is found that the accuracy of the validation set is increased from 85% to 93% with training, which is an increase of 8%; at the same time, the loss value of the validation set decreases from 0.7 to 0.1 and tends to be stable, and the model is gradually close to the actual value, which can effectively classify the text emotions. The confusion matrix shows that the accuracy of the model on the test set reaches 94.8%, the precision is 95.9%, the recall is 99.1%, and the F1 score is 97.4%, which proves that the model has good generalisation ability and classification effect. Overall, the study demonstrated an effective method for text sentiment analysis and classification with satisfactory results.
- Abstract(参考訳): 本稿では、自然言語処理分野におけるテキスト感情分析と分類の重要性を考察し、双方向ゲート再帰単位(GRU)モデルに基づく感情分析と分類の新しいアプローチを提案する。
この研究はまず、テキストの単語クラウドモデルを6つの感情ラベルで分析し、特別な記号、句読点、数字、停止語、非失語部分を削除するステップを含むデータ前処理を実行する。
その後、データセットをトレーニングセットとテストセットに分割し、モデルトレーニングとテストにより、トレーニングによって検証セットの精度が85%から93%に向上し、8%に向上し、同時に、検証セットの損失値が0.7から0.1に低下し、安定する傾向にあり、モデルは実際の値に徐々に接近し、テキスト感情を効果的に分類することができる。
混乱行列は、テストセット上のモデルの精度が94.8%、精度が95.9%、リコールが99.1%、F1スコアが97.4%に達し、モデルの一般化能力と分類効果が良好であることを証明している。
本研究は,テキストの感情分析と,満足な結果による分類に有効な方法を示した。
関連論文リスト
- AI-Generated Text Detection and Classification Based on BERT Deep Learning Algorithm [10.5960023194262]
本研究では,BERTアルゴリズムに基づく効率的なAI生成テキスト検出モデルを提案する。
精度は初期94.78%から99.72%に上昇し、損失値は0.261から0.021に減少し、徐々に収束する。
損失値に関しては、トレーニングセットの平均損失は0.0565、テストセットの平均損失は0.0917であり、損失値がわずかに高い。
論文 参考訳(メタデータ) (2024-05-26T04:26:07Z) - Text Quality-Based Pruning for Efficient Training of Language Models [66.66259229732121]
本研究では,大容量NLPデータセットのテキスト品質を数値評価する手法を提案する。
テキスト品質指標を提案することにより、低品質テキストインスタンスを識別・排除する枠組みを確立する。
複数のモデルやデータセットに対する実験結果から,このアプローチの有効性が示された。
論文 参考訳(メタデータ) (2024-04-26T18:01:25Z) - Early prediction of onset of sepsis in Clinical Setting [0.8471078314535754]
教師付き学習手法が採用され、列車データセットの80%をXGBoostモデルでトレーニングした。
モデルは、トレーニング期間中に全く見えなかった予測データに基づいて検証された。
このモデルでは、試験データでは0.494点、予測データでは0.378点の正常化ユーティリティスコアが得られた。
論文 参考訳(メタデータ) (2024-02-05T19:58:40Z) - A Comprehensive Evaluation and Analysis Study for Chinese Spelling Check [53.152011258252315]
音声とグラフィックの情報を合理的に使用することは,中国語のスペルチェックに有効であることを示す。
モデルはテストセットのエラー分布に敏感であり、モデルの欠点を反映している。
一般的なベンチマークであるSIGHANは、モデルの性能を確実に評価できない。
論文 参考訳(メタデータ) (2023-07-25T17:02:38Z) - Preserving Knowledge Invariance: Rethinking Robustness Evaluation of
Open Information Extraction [50.62245481416744]
実世界におけるオープン情報抽出モデルの評価をシミュレートする最初のベンチマークを示す。
我々は、それぞれの例が知識不変のcliqueである大規模なテストベッドを設計し、注釈付けする。
さらにロバスト性計量を解明することにより、その性能が全体の傾きに対して一貫して正確であるならば、モデルはロバストであると判断される。
論文 参考訳(メタデータ) (2023-05-23T12:05:09Z) - Self-Evolution Learning for Mixup: Enhance Data Augmentation on Few-Shot
Text Classification Tasks [75.42002070547267]
テキスト分類におけるデータ拡張のための自己進化学習(SE)に基づくミックスアップ手法を提案する。
モデル出力と原サンプルの1つのホットラベルを線形に補間して,新しい軟質なラベル混在を生成する,新しいインスタンス固有ラベル平滑化手法を提案する。
論文 参考訳(メタデータ) (2023-05-22T23:43:23Z) - Presence of informal language, such as emoticons, hashtags, and slang,
impact the performance of sentiment analysis models on social media text? [0.0]
本研究では,エモティコンやスラングといった非公式言語がソーシャルメディアテキストに適用された感情分析モデルの性能に与える影響について検討した。
CNNモデルは、サルカズムデータセット、感情データセット、エモティコンデータセットの3つのデータセットで開発、訓練された。
結果は、Sarcasmデータセットで96.47%の精度を達成し、クラス1では最も低い精度を示した。
皮肉と感情のデータセットの融合はモデルの精度を95.1%に改善し、エモティコンデータセットの追加はモデルの精度を95.37%にわずかに良い影響を与える。
論文 参考訳(メタデータ) (2023-01-28T22:21:51Z) - To be Critical: Self-Calibrated Weakly Supervised Learning for Salient
Object Detection [95.21700830273221]
弱教師付き有色物体検出(WSOD)は,画像レベルのアノテーションを用いた有色度モデルの開発を目的としている。
擬似ラベルとネットワーク予測の相互校正ループを明確に設定し,自己校正学習戦略を提案する。
十分に整合したアノテーションを持つはるかに小さなデータセットであっても、モデルがより優れたパフォーマンスと一般化性を達成するのに役立ちます。
論文 参考訳(メタデータ) (2021-09-04T02:45:22Z) - A Multi-Level Attention Model for Evidence-Based Fact Checking [58.95413968110558]
シーケンス構造をトレーニング可能な,シンプルなモデルを提案する。
Fact extract and VERification のための大規模データセットの結果、我々のモデルはグラフベースのアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-02T05:40:12Z) - Detecting of a Patient's Condition From Clinical Narratives Using
Natural Language Representation [0.3149883354098941]
本稿では,臨床自然言語表現学習と教師付き分類フレームワークを提案する。
この新しいフレームワークは、文脈的臨床物語入力から分布構文と潜在意味論(表現学習)を共同で発見する。
提案手法では, 精度, 再現性, 精度をそれぞれ89 %, 88 %, 89 %とした総合分類性能が得られる。
論文 参考訳(メタデータ) (2021-04-08T17:16:04Z) - Cost-Sensitive Machine Learning Classification for Mass Tuberculosis
Verbal Screening [0.0]
識別値の感度は1.26%,特異性は13.19%向上した。
その結果, 限られたデータであっても, 言語スクリーニングからTB容疑者を識別するより良い手法を実際に考案できることが示唆された。
論文 参考訳(メタデータ) (2020-11-14T21:41:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。