論文の概要: Read Between the Lines: A Benchmark for Uncovering Political Bias in Bangla News Articles
- arxiv url: http://arxiv.org/abs/2510.03898v1
- Date: Sat, 04 Oct 2025 18:34:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.327998
- Title: Read Between the Lines: A Benchmark for Uncovering Political Bias in Bangla News Articles
- Title(参考訳): 行間を読む:バングラのニュース記事の政治的バイアスを明らかにするためのベンチマーク
- Authors: Nusrat Jahan Lia, Shubhashis Roy Dipta, Abdullah Khan Zehady, Naymul Islam, Madhusodan Chakraborty, Abdullah Al Wasif,
- Abstract要約: バングラのニュースにおける政治的スタンスの検出には、言語的手がかり、文化的文脈、微妙な偏見、修辞的戦略、コードスイッチング、暗黙の感情、社会政治的背景の理解が必要である。
本稿では,政府主導型,政府批判型,中立的スタンスにラベル付けされた200件のバングラニュース記事と,大規模言語モデル(LLM)を評価するための診断分析のための最初のベンチマークデータセットを紹介する。
政府批判コンテンツ(F1 から 0.83 まで)を検出する上では,28 のプロプライエタリかつオープンソース LLM の性能は高いが,中立記事(F1 から 0.00 まで)では相当に困難である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting media bias is crucial, specifically in the South Asian region. Despite this, annotated datasets and computational studies for Bangla political bias research remain scarce. Crucially because, political stance detection in Bangla news requires understanding of linguistic cues, cultural context, subtle biases, rhetorical strategies, code-switching, implicit sentiment, and socio-political background. To address this, we introduce the first benchmark dataset of 200 politically significant and highly debated Bangla news articles, labeled for government-leaning, government-critique, and neutral stances, alongside diagnostic analyses for evaluating large language models (LLMs). Our comprehensive evaluation of 28 proprietary and open-source LLMs shows strong performance in detecting government-critique content (F1 up to 0.83) but substantial difficulty with neutral articles (F1 as low as 0.00). Models also tend to over-predict government-leaning stances, often misinterpreting ambiguous narratives. This dataset and its associated diagnostics provide a foundation for advancing stance detection in Bangla media research and offer insights for improving LLM performance in low-resource languages.
- Abstract(参考訳): 特に東南アジア地域では、メディアの偏見を検出することが重要である。
それにもかかわらず、バングラの政治的偏見研究のための注釈付きデータセットと計算研究はほとんど残っていない。
重要な理由は、バングラのニュースにおける政治的スタンスの検出には言語的手がかり、文化的文脈、微妙な偏見、修辞的戦略、コードスイッチ、暗黙の感情、社会政治的背景の理解が必要であるからである。
そこで本稿では,大規模言語モデル(LLM)を評価するための診断分析とともに,政府主導,政府批判,中立的姿勢をラベル付けした200のバングラニュース記事のベンチマークデータセットについて紹介する。
政府批判コンテンツ(F1 から 0.83 まで)を検出する上では,28 のプロプライエタリかつオープンソース LLM の総合評価は高い性能を示したが,中立記事(F1 から 0.00 まで)では相当に困難であった。
モデルは政府主導の姿勢を過度に予測する傾向があり、しばしば曖昧な物語を誤解する。
このデータセットとその関連診断は、Banglaメディア研究におけるスタンス検出の進歩の基礎を提供し、低リソース言語におけるLLMのパフォーマンス向上のための洞察を提供する。
関連論文リスト
- Debiasing Large Language Models in Thai Political Stance Detection via Counterfactual Calibration [0.0]
タイの政治は、間接的な言語、偏りのある人物、絡み合った感情とスタンスによって特徴付けられる。
低リソースで文化的に複雑な環境での政治的スタンスの検出は、大きな言語モデルにとって重要な課題である。
我々は、微調整を必要とせず、政治的偏見を緩和する、軽量でモデルに依存しないキャリブレーションフレームワークであるThaiFACTUALを提案する。
論文 参考訳(メタデータ) (2025-09-26T06:26:21Z) - ANUBHUTI: A Comprehensive Corpus For Sentiment Analysis In Bangla Regional Languages [0.5062312533373298]
ANUBHUTIは、低資源バングラ方言における感情分析のためのリソースの重大なギャップを埋める。
このデータセットは、バングラデシュの現代社会の政治的景観を反映して、政治的および宗教的な内容が特徴的である。
データセットは、欠落したデータ、異常、不整合の体系的なチェックによってさらに改善された。
論文 参考訳(メタデータ) (2025-06-26T18:13:54Z) - Profiling News Media for Factuality and Bias Using LLMs and the Fact-Checking Methodology of Human Experts [29.95198868148809]
本稿では,プロのファクトチェッカーがアウトレット全体の事実と政治的偏見を評価するために使用する基準をエミュレートする新しい手法を提案する。
メディアの人気と地域がモデル性能に与える影響を詳細に分析する。
論文 参考訳(メタデータ) (2025-06-14T15:49:20Z) - Geopolitical biases in LLMs: what are the "good" and the "bad" countries according to contemporary language models [52.00270888041742]
我々は、中立なイベント記述と異なる国からの視点を対比した新しいデータセットを導入する。
以上の結果から,特定の民族的物語のモデルが好まれる,重要な地政学的偏見がみられた。
単純なデバイアスのプロンプトはこれらのバイアスを減らすのに限られた効果があった。
論文 参考訳(メタデータ) (2025-06-07T10:45:17Z) - Social Bias in Large Language Models For Bangla: An Empirical Study on Gender and Religious Bias [2.98683507969764]
大言語モデルに埋め込まれた様々な種類のバイアスの影響を評価して、センシティブな分野における公正な利用を保証することが重要である。
英語には偏見評価に関する広範な研究があるが、バングラ語のような主要言語にとって、そのような取り組みは稀で不十分である。
これは、バングラのLLMのバイアス評価を私たちの知識の最大限に活用する、この種の研究としては初めてのものです。
論文 参考訳(メタデータ) (2024-07-03T22:45:36Z) - Evaluating Implicit Bias in Large Language Models by Attacking From a Psychometric Perspective [66.34066553400108]
我々は、ある人口層に対する大きな言語モデルの暗黙の偏見を厳格に評価する。
心理測定の原則にインスパイアされた我々は,3つの攻撃的アプローチ,すなわち,軽視,軽視,指導を提案する。
提案手法は,LLMの内部バイアスを競合ベースラインよりも効果的に引き出すことができる。
論文 参考訳(メタデータ) (2024-06-20T06:42:08Z) - ThatiAR: Subjectivity Detection in Arabic News Sentences [10.334164786614696]
本研究では,アラビア語における主観性検出のための最初の大規模データセットを提案する。
3.6K の注釈付き文と GPT-4o に基づく説明で構成されている。
データセット、アノテーションプロセス、および広範なベンチマーク結果を詳細に分析する。
論文 参考訳(メタデータ) (2024-06-08T19:24:17Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。