論文の概要: Large Language Models for Sentiment Analysis to Detect Social Challenges: A Use Case with South African Languages
- arxiv url: http://arxiv.org/abs/2511.17301v1
- Date: Fri, 21 Nov 2025 15:14:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-24 18:08:19.071753
- Title: Large Language Models for Sentiment Analysis to Detect Social Challenges: A Use Case with South African Languages
- Title(参考訳): 社会的課題を検出するための感性分析のための大規模言語モデル:南アフリカ語を事例として
- Authors: Koena Ronny Mabokela, Tim Schlippe, Matthias Wölfel,
- Abstract要約: 多言語コミュニティにおける感情分析システムは、ソーシャルメディア投稿における社会的課題を素早く特定するために利用することができる。
本研究は、南アフリカの10の政府機関の管轄区域に置かれる、英語、セペディ、セツワナのソーシャルメディア投稿における、最も新興のトピック10の感情の極性について調査する。
- 参考スコア(独自算出の注目度): 0.9303501974597549
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sentiment analysis can aid in understanding people's opinions and emotions on social issues. In multilingual communities sentiment analysis systems can be used to quickly identify social challenges in social media posts, enabling government departments to detect and address these issues more precisely and effectively. Recently, large-language models (LLMs) have become available to the wide public and initial analyses have shown that they exhibit magnificent zero-shot sentiment analysis abilities in English. However, there is no work that has investigated to leverage LLMs for sentiment analysis on social media posts in South African languages and detect social challenges. Consequently, in this work, we analyse the zero-shot performance of the state-of-the-art LLMs GPT-3.5, GPT-4, LlaMa 2, PaLM 2, and Dolly 2 to investigate the sentiment polarities of the 10 most emerging topics in English, Sepedi and Setswana social media posts that fall within the jurisdictional areas of 10 South African government departments. Our results demonstrate that there are big differences between the various LLMs, topics, and languages. In addition, we show that a fusion of the outcomes of different LLMs provides large gains in sentiment classification performance with sentiment classification errors below 1%. Consequently, it is now feasible to provide systems that generate reliable information about sentiment analysis to detect social challenges and draw conclusions about possible needs for actions on specific topics and within different language groups.
- Abstract(参考訳): 感情分析は、人々の社会的問題に対する意見や感情を理解するのに役立つ。
多言語コミュニティの感情分析システムでは、ソーシャルメディア投稿における社会的課題を素早く特定し、政府機関がこれらの問題をより正確かつ効果的に検出し、対処することができる。
近年,多言語モデル (LLMs) が広く普及し, 初期の分析結果から, 英語では絶大なゼロショット感情分析能力を示した。
しかし、南アフリカ語におけるソーシャルメディア投稿の感情分析や社会的課題の検出にLLMを活用するための研究は行われていない。
そこで本研究では,南アフリカの10省庁の管轄区域に置かれる10の重要トピック,セペディ,セツワナのソーシャルメディアポストの感情極性について,最先端のLCM GPT-3.5, GPT-4, LlaMa 2, PaLM 2, Dolly 2のゼロショット性能を分析した。
以上の結果から,LLM,トピック,言語には大きな違いがあることが示唆された。
さらに,異なるLLMの結果の融合により,感情分類誤差が1%未満の感情分類性能が大きく向上することを示した。
その結果、感情分析に関する信頼できる情報を生成し、社会的課題を検出し、特定のトピックや異なる言語グループにおける行動の必要性についての結論を導き出すシステムの提供が可能になった。
関連論文リスト
- Disparities in LLM Reasoning Accuracy and Explanations: A Case Study on African American English [66.97110551643722]
本研究では,Large Language Models (LLMs) 推論タスクにおける方言の相違について検討する。
LLMは、AAE入力に対するより正確な応答とより単純な推論チェーンと説明を生成する。
これらの知見は、LLMの処理方法と異なる言語品種の理由の体系的差異を浮き彫りにした。
論文 参考訳(メタデータ) (2025-03-06T05:15:34Z) - Hate Personified: Investigating the role of LLMs in content moderation [64.26243779985393]
ヘイト検出などの主観的タスクでは,人々が嫌悪感を知覚する場合には,多様なグループを表現できるLarge Language Model(LLM)の能力は不明確である。
追加の文脈をプロンプトに含めることで、LLMの地理的プライミングに対する感受性、ペルソナ属性、数値情報を分析し、様々なグループのニーズがどの程度反映されているかを評価する。
論文 参考訳(メタデータ) (2024-10-03T16:43:17Z) - Do Large Language Models Possess Sensitive to Sentiment? [18.88126980975737]
大規模言語モデル(LLM)は、最近、言語理解における異常な能力を示した。
本稿では,LLMがテキストモーダルの感情を検知し,反応する能力について検討する。
論文 参考訳(メタデータ) (2024-09-04T01:40:20Z) - Are Social Sentiments Inherent in LLMs? An Empirical Study on Extraction of Inter-demographic Sentiments [14.143299702954023]
本研究は、国籍、宗教、人種・民族の観点で定義された社会集団に焦点を当てる。
我々は、あるグループから別のグループへの感情に関する質問をLSMに入力し、反応に感情分析を適用し、その結果を社会調査と比較する。
論文 参考訳(メタデータ) (2024-08-08T08:13:25Z) - Large Language Models Meet Text-Centric Multimodal Sentiment Analysis: A Survey [66.166184609616]
ChatGPTは、テキスト中心のマルチモーダルタスクに大規模言語モデル(LLM)を適用する大きな可能性を開く。
既存のLLMがテキスト中心のマルチモーダル感情分析タスクにどのように適応できるかは、まだ不明である。
論文 参考訳(メタデータ) (2024-06-12T10:36:27Z) - Emotionally Numb or Empathetic? Evaluating How LLMs Feel Using EmotionBench [83.41621219298489]
心理学からの感情評価理論を用いて,Large Language Models (LLMs) の人為的能力を評価する。
我々は、研究の中心となる8つの感情を引き出すのに有効な400以上の状況を含むデータセットを収集した。
我々は世界中の1200人以上の被験者を対象に人間による評価を行った。
論文 参考訳(メタデータ) (2023-08-07T15:18:30Z) - Sentiment Analysis in the Era of Large Language Models: A Reality Check [69.97942065617664]
本稿では,大規模言語モデル(LLM)の様々な感情分析タスクの実行能力について検討する。
26のデータセット上の13のタスクのパフォーマンスを評価し、ドメイン固有のデータセットに基づいて訓練された小言語モデル(SLM)と比較した。
論文 参考訳(メタデータ) (2023-05-24T10:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。