論文の概要: Bridging Human and Model Perspectives: A Comparative Analysis of Political Bias Detection in News Media Using Large Language Models
- arxiv url: http://arxiv.org/abs/2511.14606v1
- Date: Tue, 18 Nov 2025 15:58:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:53.193612
- Title: Bridging Human and Model Perspectives: A Comparative Analysis of Political Bias Detection in News Media Using Large Language Models
- Title(参考訳): ブリッジング人間とモデル視点:大規模言語モデルを用いたニュースメディアにおける政治的バイアス検出の比較分析
- Authors: Shreya Adrita Banik, Niaz Nafi Rahman, Tahsina Moiukh, Farig Sadeque,
- Abstract要約: 本研究では,人間のアノテーションと複数の言語モデルによる政治的偏見の検出を評価するための比較枠組みを提案する。
我々は,手動でアノテートしたニュース記事のデータセットを構築し,アノテート一貫性,バイアス極性,モデル間合意を評価する。
実験の結果,従来のトランスフォーマーベースモデルでは,RoBERTaが最も高いアライメントを達成していることがわかった。
- 参考スコア(独自算出の注目度): 0.3227658251731014
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Detecting political bias in news media is a complex task that requires interpreting subtle linguistic and contextual cues. Although recent advances in Natural Language Processing (NLP) have enabled automatic bias classification, the extent to which large language models (LLMs) align with human judgment still remains relatively underexplored and not yet well understood. This study aims to present a comparative framework for evaluating the detection of political bias across human annotations and multiple LLMs, including GPT, BERT, RoBERTa, and FLAN. We construct a manually annotated dataset of news articles and assess annotation consistency, bias polarity, and inter-model agreement to quantify divergence between human and model perceptions of bias. Experimental results show that among traditional transformer-based models, RoBERTa achieves the highest alignment with human labels, whereas generative models such as GPT demonstrate the strongest overall agreement with human annotations in a zero-shot setting. Among all transformer-based baselines, our fine-tuned RoBERTa model acquired the highest accuracy and the strongest alignment with human-annotated labels. Our findings highlight systematic differences in how humans and LLMs perceive political slant, underscoring the need for hybrid evaluation frameworks that combine human interpretability with model scalability in automated media bias detection.
- Abstract(参考訳): ニュースメディアにおける政治的偏見の検出は、微妙な言語的・文脈的な手がかりを解釈する必要がある複雑な作業である。
自然言語処理(NLP)の最近の進歩により、自動バイアス分類が可能になったが、大きな言語モデル(LLM)が人間の判断に合致する程度は、いまだに未熟であり、まだ十分に理解されていない。
本研究の目的は、GPT、BERT、RoBERTa、FLANを含む、人間のアノテーションと複数のLLM間の政治的偏見の検出を評価するための比較フレームワークを提案することである。
我々は、手動でアノテートされたニュース記事のデータセットを構築し、アノテート一貫性、バイアス極性、モデル間合意を評価し、偏見の人間とモデルの知覚のばらつきを定量化する。
実験結果から,従来のトランスフォーマーベースモデルの中で,RoBERTaはヒトのラベルとのアライメントが最も高く,GPTなどの生成モデルはゼロショット設定でヒトのアノテーションとのアライメントが最強であることが示された。
トランスをベースとしたベースラインの中では,細調整されたRoBERTaモデルが最も精度が高く,アノテートされたラベルとのアライメントが最強であった。
本研究は,人間とLLMが政治的スラントをどう知覚するかの系統的差異を強調し,自動メディアバイアス検出において,人間の解釈可能性とモデルスケーラビリティを組み合わせたハイブリッド評価フレームワークの必要性を強調した。
関連論文リスト
- Geopolitical Parallax: Beyond Walter Lippmann Just After Large Language Models [0.06372261626436676]
本研究では,ニュース品質と主観性評価における地政学的パララックス・システム的差異について検討する。
我々は,中国オリジン(Qwen,BGE,Jina)と西オリジン(Snowflake,Granite)モデルファミリーの商品レベルの埋め込みを比較した。
以上より, モデル起源と整合性, 非ランダムな相違がみられた。
論文 参考訳(メタデータ) (2025-08-27T00:39:59Z) - BIPOLAR: Polarization-based granular framework for LLM bias evaluation [0.0]
本研究では,大規模言語モデルにおける偏光関連バイアスを評価するために,再利用性,粒度,トピックに依存しないフレームワークを提案する。
我々のアプローチは、偏極感性感情メトリクスと、競合関連文の合成的に生成されたバランスの取れたデータセットを組み合わせる。
ケーススタディでは、ロシアとウクライナの戦争に焦点を当てた合成データセットを作成し、いくつかのLSMのバイアスを評価した。
論文 参考訳(メタデータ) (2025-08-14T20:44:19Z) - To Bias or Not to Bias: Detecting bias in News with bias-detector [1.8024397171920885]
我々は、専門家注釈付きBABEデータセット上でRoBERTaベースのモデルを微調整することで、文レベルのバイアス分類を行う。
本稿では,ドメイン適応型DA-RoBERTaベースラインとの比較において,統計的に有意な性能向上を示す。
メディアバイアス検出のための,より堅牢で説明可能な,社会的に責任のあるNLPシステムの構築に寄与する。
論文 参考訳(メタデータ) (2025-05-19T11:54:39Z) - Fine-Grained Bias Detection in LLM: Enhancing detection mechanisms for nuanced biases [0.0]
本研究では,Large Language Models (LLMs) におけるニュアンスバイアス検出フレームワークを提案する。
このアプローチは、コンテキスト分析、注意機構による解釈可能性、および反ファクトデータ拡張を統合して、隠れたバイアスをキャプチャする。
その結果,従来の方法に比べて微妙な偏見の検出精度が向上した。
論文 参考訳(メタデータ) (2025-03-08T04:43:01Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Bias in Language Models: Beyond Trick Tests and Toward RUTEd Evaluation [49.3814117521631]
大規模言語モデル(LLM)におけるバイアスと公平性の標準ベンチマークは、プロンプトによって記述されたユーザー属性とインプットの関係を測定する。
本研究では, 子どもの就寝時間, ユーザ・ペルソナ, 英語学習演習の3つの文脈から, RUTEdの類似性を評価する。
標準偏差指標は、より現実的な偏差指標と有意な相関関係がないことがわかった。
論文 参考訳(メタデータ) (2024-02-20T01:49:15Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Inflating Topic Relevance with Ideology: A Case Study of Political
Ideology Bias in Social Topic Detection Models [16.279854003220418]
トレーニングデータにおける政治的イデオロギーバイアスの影響について検討する。
私たちの研究は、人間の選択した入力からバイアスを伝達する、大規模で複雑なモデルの受容性を強調します。
偏見を緩和する手段として,政治的イデオロギーに不変なテキスト表現の学習を提案する。
論文 参考訳(メタデータ) (2020-11-29T05:54:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。