論文の概要: Presence of informal language, such as emoticons, hashtags, and slang,
impact the performance of sentiment analysis models on social media text?
- arxiv url: http://arxiv.org/abs/2301.12303v1
- Date: Sat, 28 Jan 2023 22:21:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 17:51:31.382040
- Title: Presence of informal language, such as emoticons, hashtags, and slang,
impact the performance of sentiment analysis models on social media text?
- Title(参考訳): エモティコン、ハッシュタグ、スラングといった非公式言語の存在は、ソーシャルメディアテキストにおける感情分析モデルのパフォーマンスに影響するか?
- Authors: Aadil Gani Ganie
- Abstract要約: 本研究では,エモティコンやスラングといった非公式言語がソーシャルメディアテキストに適用された感情分析モデルの性能に与える影響について検討した。
CNNモデルは、サルカズムデータセット、感情データセット、エモティコンデータセットの3つのデータセットで開発、訓練された。
結果は、Sarcasmデータセットで96.47%の精度を達成し、クラス1では最も低い精度を示した。
皮肉と感情のデータセットの融合はモデルの精度を95.1%に改善し、エモティコンデータセットの追加はモデルの精度を95.37%にわずかに良い影響を与える。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study aimed to investigate the influence of the presence of informal
language, such as emoticons and slang, on the performance of sentiment analysis
models applied to social media text. A convolutional neural network (CNN) model
was developed and trained on three datasets: a sarcasm dataset, a sentiment
dataset, and an emoticon dataset. The model architecture was held constant for
all experiments and the model was trained on 80% of the data and tested on 20%.
The results revealed that the model achieved an accuracy of 96.47% on the
sarcasm dataset, with the lowest accuracy for class 1. On the sentiment
dataset, the model achieved an accuracy of 95.28%. The amalgamation of sarcasm
and sentiment datasets improved the accuracy of the model to 95.1%, and the
addition of emoticon dataset has a slight positive impact on the accuracy of
the model to 95.37%. The study suggests that the presence of informal language
has a restricted impact on the performance of sentiment analysis models applied
to social media text. However, the inclusion of emoticon data to the model can
enhance the accuracy slightly.
- Abstract(参考訳): 本研究の目的は,エモティコンやスラングといった非公式言語の存在がソーシャルメディアテキストに適用された感情分析モデルの性能に与える影響を検討することである。
畳み込みニューラルネットワーク(cnn)モデルは、サルカズムデータセット、感情データセット、エモティコンデータセットの3つのデータセットに基づいて開発、訓練された。
モデルアーキテクチャはすべての実験で一定に保たれ、モデルは80%のデータでトレーニングされ、20%でテストされた。
結果は、Sarcasmデータセットで96.47%の精度を達成し、クラス1では最も低い精度を示した。
感情データセットでは、モデルは95.28%の精度を達成した。
サーカズムと感情データセットの融合により、モデルの精度は95.1%に向上し、エモティコンデータセットの追加はモデルの精度に95.37%の正の影響を与えている。
この研究は、非公式言語の存在がソーシャルメディアテキストに適用された感情分析モデルの性能に制限的な影響を与えることを示唆している。
しかし、モデルにエモティコンデータを含めることで、精度をわずかに向上させることができる。
関連論文リスト
- Optimizing Transformer based on high-performance optimizer for predicting employment sentiment in American social media content [9.49688045612671]
本稿では,Swarmインテリジェンス最適化アルゴリズムに基づくTransformerモデルの改良を行い,雇用関係のテキストコンテンツの感情を予測することを目的とする。
トレーニング期間中、モデルの精度は49.27%から82.83%に徐々に上昇し、損失値は0.67から0.35に低下した。
本稿では、ソーシャルメディア上での雇用関連テキストにおける感情認識の精度の向上だけでなく、重要な実践的意義も挙げる。
論文 参考訳(メタデータ) (2024-10-09T03:14:05Z) - Phrasing for UX: Enhancing Information Engagement through Computational Linguistics and Creative Analytics [0.0]
本研究では,デジタルプラットフォーム上でのテキスト特徴と情報エンゲージメント(IE)の関係について検討する。
計算言語学と分析がユーザインタラクションに与える影響を強調します。
READモデルは、代表性、使いやすさ、影響、分散といった重要な予測要素を定量化するために導入された。
論文 参考訳(メタデータ) (2024-08-23T00:33:47Z) - Text Sentiment Analysis and Classification Based on Bidirectional Gated Recurrent Units (GRUs) Model [6.096738978232722]
本稿では,自然言語処理分野におけるテキスト感情分析と分類の重要性について考察する。
双方向ゲート再帰単位(GRU)モデルに基づく感情分析と分類の新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-26T02:40:03Z) - Evaluating Large Language Models Using Contrast Sets: An Experimental Approach [0.0]
本研究では,スタンフォード自然言語推論データセットのコントラストセットを生成する革新的な手法を提案する。
我々の戦略は、動詞、副詞、形容詞をその同義語と自動置換して、文の本来の意味を保存することである。
本手法は,モデルの性能が真の言語理解に基づくのか,それとも単にパターン認識に基づくのかを評価することを目的とする。
論文 参考訳(メタデータ) (2024-04-02T02:03:28Z) - ECRC: Emotion-Causality Recognition in Korean Conversation for GCN [0.0]
本稿では,新しいグラフ構造に基づく会話モデル(ECRC)の感情因果認識を提案する。
本研究では,単語レベルの埋め込みと文レベルの埋め込みの両方を活用することで,過去の埋め込みの限界を克服する。
このモデルは、双方向長短期メモリ(Bi-LSTM)とグラフニューラルネットワーク(GCN)モデルを韓国の会話分析のために一意に統合する。
論文 参考訳(メタデータ) (2024-03-16T02:07:31Z) - Measuring and Improving Attentiveness to Partial Inputs with Counterfactuals [91.59906995214209]
我々は,新しい評価手法であるCAT(Facterfactual Attentiveness Test)を提案する。
CATは、入力の一部を別の例から別の例に置き換えることで、予測を変更する注意深いモデルを期待することで、反事実を使用する。
実験データの精度が向上する一方, GPT3 は実演回数の増加により注意力の低下がみられた。
論文 参考訳(メタデータ) (2023-11-16T06:27:35Z) - Sensitivity, Performance, Robustness: Deconstructing the Effect of
Sociodemographic Prompting [64.80538055623842]
社会デマトグラフィープロンプトは、特定の社会デマトグラフィープロファイルを持つ人間が与える答えに向けて、プロンプトベースのモデルの出力を操縦する技術である。
ソシオデマトグラフィー情報はモデル予測に影響を及ぼし、主観的NLPタスクにおけるゼロショット学習を改善するのに有用であることを示す。
論文 参考訳(メタデータ) (2023-09-13T15:42:06Z) - Stubborn Lexical Bias in Data and Models [50.79738900885665]
我々は、データに基づいてトレーニングされたモデルに、データのスプリアスパターンが現れるかどうかを調べるために、新しい統計手法を用いる。
トレーニングデータに*reweight*に最適化アプローチを適用し、数千のスプリアス相関を低減します。
驚くべきことに、この方法ではトレーニングデータの語彙バイアスを低減できますが、トレーニングされたモデルで対応するバイアスの強い証拠がまだ見つかっていません。
論文 参考訳(メタデータ) (2023-06-03T20:12:27Z) - Retrieval-based Disentangled Representation Learning with Natural
Language Supervision [61.75109410513864]
本稿では,VDR(Vocabulary Disentangled Retrieval)を提案する。
提案手法では,両エンコーダモデルを用いて語彙空間におけるデータと自然言語の両方を表現する。
論文 参考訳(メタデータ) (2022-12-15T10:20:42Z) - Scaling Language Models: Methods, Analysis & Insights from Training
Gopher [83.98181046650664]
本稿では,トランスフォーマーに基づく言語モデルの性能を,幅広いモデルスケールで解析する。
スケールからのゲインは、理解、事実確認、有害言語の同定などにおいて最大である。
我々は、AIの安全性と下流の害の軽減に対する言語モデルの適用について論じる。
論文 参考訳(メタデータ) (2021-12-08T19:41:47Z) - Can x2vec Save Lives? Integrating Graph and Language Embeddings for
Automatic Mental Health Classification [91.3755431537592]
グラフと言語の埋め込みモデル(metapath2vec と doc2vec)がリソース制限を回避する方法を示します。
統合されると、両データは高度に正確な予測を生成する(90%、偽陽性10%、偽陰性12%)。
これらの結果は、大規模ネットワークにおける行動と言語を同時に分析することの重要性の研究を拡大する。
論文 参考訳(メタデータ) (2020-01-04T20:56:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。