論文の概要: Sentiment Classification of Gaza War Headlines: A Comparative Analysis of Large Language Models and Arabic Fine-Tuned BERT Models
- arxiv url: http://arxiv.org/abs/2604.08566v1
- Date: Wed, 18 Mar 2026 16:19:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-04-19 19:09:11.427695
- Title: Sentiment Classification of Gaza War Headlines: A Comparative Analysis of Large Language Models and Arabic Fine-Tuned BERT Models
- Title(参考訳): ガザ戦争見出しの感性分類:大言語モデルとアラビア細調整BERTモデルの比較分析
- Authors: Amr Eleraqi, Hager H. Mustafa, Abdul Hadi N. Ahmed,
- Abstract要約: 本研究では、異なる人工知能アーキテクチャーが、コンフリクト関連メディア談話における感情をどう解釈するかを検討する。
10,990のアラビア語ニュースの見出し(Eleraqi 2026)に基づいて、3つの大きな言語モデルと6つの微調整されたアラビア語のBERTモデルの比較分析を行っている。
その結果,感情分布の顕著かつ非ランダムなばらつきが明らかになった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This study examines how different artificial intelligence architectures interpret sentiment in conflict-related media discourse, using the 2023 Gaza War as a case study. Drawing on a corpus of 10,990 Arabic news headlines (Eleraqi 2026), the research conducts a comparative analysis between three large language models and six fine-tuned Arabic BERT models. Rather than evaluating accuracy against a single human-annotated gold standard, the study adopts an epistemological approach that treats sentiment classification as an interpretive act produced by model architectures. To quantify systematic differences across models, the analysis employs information-theoretic and distributional metrics, including Shannon Entropy, Jensen-Shannon Distance, and a Variance Score measuring deviation from aggregate model behavior. The results reveal pronounced and non-random divergence in sentiment distributions. Fine-tuned BERT models, particularly MARBERT, exhibit a strong bias toward neutral classifications, while LLMs consistently amplify negative sentiment, with LLaMA-3.1-8B showing near-total collapse into negativity. Frame-conditioned analysis further demonstrates that GPT-4.1 adjusts sentiment judgments in line with narrative frames (e.g., humanitarian, legal, security), whereas other LLMs display limited contextual modulation. These findings suggest that the choice of model constitutes a choice of interpretive lens, shaping how conflict narratives are algorithmically framed and emotionally evaluated. The study contributes to media studies and computational social science by foregrounding algorithmic discrepancy as an object of analysis and by highlighting the risks of treating automated sentiment outputs as neutral or interchangeable measures of media tone in contexts of war and crisis.
- Abstract(参考訳): 本研究では,2023年のガザ戦争を事例として,異なる人工知能アーキテクチャが紛争関連メディアの感情をどう解釈するかを検討する。
10,990のアラビア語ニュースの見出し(Eleraqi 2026)を基に、3つの大きな言語モデルと6つの微調整されたアラビア語のBERTモデルの比較分析を行っている。
この研究は、人間に注釈を付けた1つの金の基準に対して正確さを評価するのではなく、モデルアーキテクチャが生み出す解釈的行為として感情分類を扱う認識論的アプローチを採用した。
モデル間の系統的な差異を定量化するために、分析では、シャノン・エントロピー、ジェンセン・シャノン距離、集約モデルの振る舞いから逸脱を測定するヴァリアンススコアなど、情報理論と分布のメトリクスを用いる。
その結果,感情分布の顕著かつ非ランダムなばらつきが明らかになった。
細調整されたBERTモデル、特にMARBERTは中性分類に対して強い偏見を示し、LLMは一貫して負の感情を増幅し、LLaMA-3.1-8Bはほぼ完全な負の崩壊を示す。
フレーム条件分析により、GPT-4.1は物語のフレーム(例えば、人道的、法的な、セキュリティ)に合わせて感情判断を調整するのに対し、他のLLMは文脈変調に制限があることを示した。
これらの結果は、モデルの選択が解釈レンズの選択を構成することを示唆し、競合物語がアルゴリズム的にフレーム化され、感情的に評価される方法を形成する。
この研究は、分析の対象としてアルゴリズム的不一致を予知し、自動的な感情出力を戦争や危機の文脈におけるメディアトーンの中立的あるいは交換可能な尺度として扱うリスクを強調することによって、メディア研究と計算社会科学に貢献する。
関連論文リスト
- Approaches to Analysing Historical Newspapers Using LLMs [1.0225484904475783]
本研究では,スロヴェニアの歴史新聞『Slovenec』と『Slovenski narod from the sPeriodika corpus』の計算分析を行った。
20世紀の変わり目に、集団的アイデンティティ、政治的指向、そして国民的所有物がどのように公共の場で表現されたかを検討する。
論文 参考訳(メタデータ) (2026-03-26T05:38:30Z) - Bridging Human and Model Perspectives: A Comparative Analysis of Political Bias Detection in News Media Using Large Language Models [0.3227658251731014]
本研究では,人間のアノテーションと複数の言語モデルによる政治的偏見の検出を評価するための比較枠組みを提案する。
我々は,手動でアノテートしたニュース記事のデータセットを構築し,アノテート一貫性,バイアス極性,モデル間合意を評価する。
実験の結果,従来のトランスフォーマーベースモデルでは,RoBERTaが最も高いアライメントを達成していることがわかった。
論文 参考訳(メタデータ) (2025-11-18T15:58:04Z) - Geopolitical Parallax: Beyond Walter Lippmann Just After Large Language Models [0.06372261626436676]
本研究では,ニュース品質と主観性評価における地政学的パララックス・システム的差異について検討する。
我々は,中国オリジン(Qwen,BGE,Jina)と西オリジン(Snowflake,Granite)モデルファミリーの商品レベルの埋め込みを比較した。
以上より, モデル起源と整合性, 非ランダムな相違がみられた。
論文 参考訳(メタデータ) (2025-08-27T00:39:59Z) - How Effectively Can BERT Models Interpret Context and Detect Bengali Communal Violent Text? [0.3029213689620348]
既存の研究では、コミュニティの暴力的な文章は未発見の領域として残されている。
本稿では,このタスクに適した微調整BanglaBERTモデルを導入し,マクロF1スコア0.60を達成した。
このアンサンブルモデルでは性能が向上し、マクロF1スコアは0.63となった。
論文 参考訳(メタデータ) (2025-06-24T17:48:49Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Counterfactual Reasoning for Out-of-distribution Multimodal Sentiment
Analysis [56.84237932819403]
本稿では,OODの高次一般化に対するテキストモダリティの悪影響を推定・緩和することを目的とする。
そこで本研究では,マルチモーダル感情分析のためのモデルに依存しない反現実的フレームワークを考案した。
論文 参考訳(メタデータ) (2022-07-24T03:57:40Z) - A comprehensive comparative evaluation and analysis of Distributional
Semantic Models [61.41800660636555]
我々は、静的DSMによって生成されたり、BERTによって生成された文脈化されたベクトルを平均化して得られるような、型分布ベクトルの包括的評価を行う。
その結果、予測ベースモデルの優越性は現実よりも明らかであり、ユビキタスではないことが明らかとなった。
我々は認知神経科学からRepresentational similarity Analysis(RSA)の方法論を借りて、分布モデルによって生成された意味空間を検査する。
論文 参考訳(メタデータ) (2021-05-20T15:18:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。