論文の概要: Emotion Recognition for Low-Resource Turkish: Fine-Tuning BERTurk on TREMO and Testing on Xenophobic Political Discourse
- arxiv url: http://arxiv.org/abs/2505.12160v1
- Date: Sat, 17 May 2025 22:38:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.070004
- Title: Emotion Recognition for Low-Resource Turkish: Fine-Tuning BERTurk on TREMO and Testing on Xenophobic Political Discourse
- Title(参考訳): 低エネルギートルコ語:細調整BERTurkのTREMOにおける感情認識とキセノビック政治談話の検証
- Authors: Darmawan Wicaksono, Hasri Akbar Awal Rozaq, Nevfel Boz,
- Abstract要約: 本研究はトルコのソーシャルメディア上でセシズ・イスティラ (Sessiz Istila, Silent Invasion) という用語を検証し, シリア難民流入による反難民感情の高まりを浮き彫りにした。
BERTurkとTREMOデータセットを用いて,トルコ語に適した高度な感情認識モデル(ERM)を開発した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Social media platforms like X (formerly Twitter) play a crucial role in shaping public discourse and societal norms. This study examines the term Sessiz Istila (Silent Invasion) on Turkish social media, highlighting the rise of anti-refugee sentiment amidst the Syrian refugee influx. Using BERTurk and the TREMO dataset, we developed an advanced Emotion Recognition Model (ERM) tailored for Turkish, achieving 92.62% accuracy in categorizing emotions such as happiness, fear, anger, sadness, disgust, and surprise. By applying this model to large-scale X data, the study uncovers emotional nuances in Turkish discourse, contributing to computational social science by advancing sentiment analysis in underrepresented languages and enhancing our understanding of global digital discourse and the unique linguistic challenges of Turkish. The findings underscore the transformative potential of localized NLP tools, with our ERM model offering practical applications for real-time sentiment analysis in Turkish-language contexts. By addressing critical areas, including marketing, public relations, and crisis management, these models facilitate improved decision-making through timely and accurate sentiment tracking. This highlights the significance of advancing research that accounts for regional and linguistic nuances.
- Abstract(参考訳): X(元Twitter)のようなソーシャルメディアプラットフォームは、世論や社会的規範を形成する上で重要な役割を担っている。
本研究はトルコのソーシャルメディア上でセシズ・イスティラ (Sessiz Istila, Silent Invasion) という用語を検証し, シリア難民流入による反難民感情の高まりを浮き彫りにした。
BERTurkとTREMOデータセットを用いて、トルコに適した高度な感情認識モデル(ERM)を開発し、幸福、恐怖、怒り、悲しみ、嫌悪、驚きなどの感情を分類する精度を92.62%達成した。
このモデルを大規模Xデータに適用することにより、トルコの言論における感情のニュアンスを明らかにし、未表現言語における感情分析を推進し、グローバルデジタル言論とトルコのユニークな言語課題に対する理解を深めることで、計算社会科学に寄与する。
ERMモデルはトルコ語の文脈におけるリアルタイム感情分析の実践的応用を提供する。
マーケティング、広報、危機管理といった重要な領域に対処することで、これらのモデルはタイムリーかつ正確な感情追跡を通じて意思決定を改善する。
このことは、地域的・言語的なニュアンスを説明する研究を進めることの重要性を強調している。
関連論文リスト
- Enhancing Aspect-based Sentiment Analysis with ParsBERT in Persian Language [0.0]
本稿ではペルシャ語に合わせた言語モデルの効率を向上することを目的とする。
ペルシャ語ウェブサイト「ジギカラ」から抽出したユーザ意見の感情分析を中心にした研究。
論文 参考訳(メタデータ) (2025-02-03T06:25:06Z) - TurkishMMLU: Measuring Massive Multitask Language Understanding in Turkish [54.51310112013655]
本稿では,最初のマルチタスク,複数選択のトルコQAベンチマーク,トルコMMLUを紹介する。
トルコMMLUには1万以上の質問があり、トルコの高校教育カリキュラムとは9つの異なるテーマをカバーしている。
多言語オープンソース(Gemma、Llama、MT5)、クローズドソース(GPT 4o、Claude、Gemini)、トルコ適応モデル(Trendyolなど)を含む20以上のLLMを評価した。
論文 参考訳(メタデータ) (2024-07-17T08:28:55Z) - CIVICS: Building a Dataset for Examining Culturally-Informed Values in Large Language Models [59.22460740026037]
大規模言語モデル(LLM)の社会的・文化的変動を評価するためのデータセット「CIVICS:文化インフォームド・バリュース・インクルーシブ・コーパス・フォー・ソシエティ・インパクト」
我々は、LGBTQIの権利、社会福祉、移民、障害権利、代理など、特定の社会的に敏感なトピックに対処する、手作りの多言語プロンプトのデータセットを作成します。
論文 参考訳(メタデータ) (2024-05-22T20:19:10Z) - Bridging the Bosphorus: Advancing Turkish Large Language Models through Strategies for Low-Resource Language Adaptation and Benchmarking [1.3716808114696444]
大規模言語モデル(LLM)は様々な分野において重要になってきており、表現不足の言語における高品質なモデルの緊急性を強調している。
本研究では、データ不足、モデル選択、評価、計算制限など、低リソース言語が直面する固有の課題について検討する。
論文 参考訳(メタデータ) (2024-05-07T21:58:45Z) - The Call for Socially Aware Language Technologies [94.6762219597438]
NLPが機能する社会環境の要因、文脈、意味の認識の欠如である。
我々は、NLPが社会意識を発達させる上で大きな課題が残っており、この分野の新しい時代の始まりであると主張している。
論文 参考訳(メタデータ) (2024-05-03T18:12:39Z) - Cross-Lingual Learning vs. Low-Resource Fine-Tuning: A Case Study with Fact-Checking in Turkish [0.9217021281095907]
実世界で3238件のクレームからなるFCTRデータセットを紹介した。
このデータセットは複数のドメインにまたがり、3つのトルコのファクトチェック組織から収集された証拠が組み込まれている。
論文 参考訳(メタデータ) (2024-03-01T09:57:46Z) - TurkishBERTweet: Fast and Reliable Large Language Model for Social Media
Analysis [4.195270491854775]
約9億のツイートを使って構築されたトルコのソーシャルメディアのための、最初の大規模な事前訓練された言語モデルであるTurrkBERTweetを紹介します。
このモデルは、BERTモデルと同じアーキテクチャで、入力長が小さく、BERTurkより軽量である。
TurkBERTweetは、汎用性において他の選択肢よりも優れており、推論時間が低いことは、大規模なデータセットを処理する上で大きな利点をもたらすことを実証する。
論文 参考訳(メタデータ) (2023-11-29T20:22:44Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。