論文の概要: Frame In, Frame Out: Do LLMs Generate More Biased News Headlines than Humans?
- arxiv url: http://arxiv.org/abs/2505.05406v1
- Date: Thu, 08 May 2025 16:46:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:43:49.964966
- Title: Frame In, Frame Out: Do LLMs Generate More Biased News Headlines than Humans?
- Title(参考訳): フレームイン、フレームアウト:LLMは人間よりもバイザドニュースの見出しを生成するのか?
- Authors: Valeria Pastorino, Nafise Sadat Moosavi,
- Abstract要約: メディアにおけるフレーミングは、他の人を軽視しながら、いくつかの詳細を選択的に強調することで、公共の認識を批判的に形作る。
自動ニュースやコンテンツ作成における大規模言語モデルの台頭により、これらのシステムが人間の著者と比較してフレーミングバイアスを導入または増幅するのではないかという懸念が高まっている。
我々の分析によると、特に政治的・社会的に敏感な文脈では、LLMは人間のものよりも顕著なフレーミングを示す傾向にある。
- 参考スコア(独自算出の注目度): 11.578398987157925
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Framing in media critically shapes public perception by selectively emphasizing some details while downplaying others. With the rise of large language models in automated news and content creation, there is growing concern that these systems may introduce or even amplify framing biases compared to human authors. In this paper, we explore how framing manifests in both out-of-the-box and fine-tuned LLM-generated news content. Our analysis reveals that, particularly in politically and socially sensitive contexts, LLMs tend to exhibit more pronounced framing than their human counterparts. In addition, we observe significant variation in framing tendencies across different model architectures, with some models displaying notably higher biases. These findings point to the need for effective post-training mitigation strategies and tighter evaluation frameworks to ensure that automated news content upholds the standards of balanced reporting.
- Abstract(参考訳): メディアにおけるフラーミングは、他の人を軽視しながら詳細を選択的に強調することで、大衆の認識を批判的に形作る。
自動ニュースやコンテンツ作成における大規模言語モデルの台頭により、これらのシステムが人間の著者と比較してフレーミングバイアスを導入または増幅するのではないかという懸念が高まっている。
本稿では,LLM生成したニュースコンテンツにおけるフレーミング現象について検討する。
我々の分析によると、特に政治的・社会的に敏感な文脈では、LLMは人間のものよりも顕著なフレーミングを示す傾向にある。
さらに、異なるモデルアーキテクチャ間でのフレーミング傾向の顕著な変化を観察し、いくつかのモデルは顕著に高いバイアスを示す。
これらの知見は、自動化されたニュースコンテンツがバランスの取れたレポートの標準を守れるように、効果的なポストトレーニング緩和戦略とより厳格な評価フレームワークの必要性を示唆している。
関連論文リスト
- Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Cognitive Biases in Large Language Models for News Recommendation [68.90354828533535]
本稿では,認知バイアスが大規模言語モデル(LLM)に基づくニュースレコメンデータシステムに与える影響について検討する。
データ拡張、エンジニアリングと学習アルゴリズムの側面を通じて、これらのバイアスを軽減する戦略について議論する。
論文 参考訳(メタデータ) (2024-10-03T18:42:07Z) - A Multi-LLM Debiasing Framework [85.17156744155915]
大規模言語モデル(LLM)は、社会に多大な利益をもたらす可能性がある強力なツールであるが、社会的不平等を持続するバイアスを示す。
近年,マルチLLM手法への関心が高まっており,推論の質向上に有効であることが示されている。
LLMのバイアス低減を目的としたマルチLLMデバイアスフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-20T20:24:50Z) - Evaluating Implicit Bias in Large Language Models by Attacking From a Psychometric Perspective [66.34066553400108]
我々は、ある人口層に対する大きな言語モデルの暗黙の偏見を厳格に評価する。
心理測定の原則にインスパイアされた我々は,3つの攻撃的アプローチ,すなわち,軽視,軽視,指導を提案する。
提案手法は,LLMの内部バイアスを競合ベースラインよりも効果的に引き出すことができる。
論文 参考訳(メタデータ) (2024-06-20T06:42:08Z) - Investigating Bias in LLM-Based Bias Detection: Disparities between LLMs and Human Perception [13.592532358127293]
大規模言語モデル(LLM)におけるバイアスの存在と性質について検討する。
LLMが特に政治的バイアス予測やテキスト継続タスクにおいてバイアスを示すかどうかを調査する。
我々は,素早い工学とモデル微調整を含む脱バイアス戦略を提案する。
論文 参考訳(メタデータ) (2024-03-22T00:59:48Z) - From Skepticism to Acceptance: Simulating the Attitude Dynamics Toward Fake News [38.990330255607276]
大規模言語モデル(LLM)に基づくフェイクニュース伝搬シミュレーションフレームワークを提案する。
シミュレーションの結果,話題の関連性や個々の特徴に関連する偽ニュースの伝播パターンが,実世界の観測と一致していることがわかった。
論文 参考訳(メタデータ) (2024-03-14T15:40:13Z) - GPTBIAS: A Comprehensive Framework for Evaluating Bias in Large Language
Models [83.30078426829627]
大規模言語モデル(LLM)は人気を集め、大規模なユーザコミュニティで広く採用されている。
既存の評価手法には多くの制約があり、それらの結果は限定的な解釈可能性を示している。
本稿では,LPMの高性能性を活用し,モデル内のバイアスを評価するGPTBIASというバイアス評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-11T12:02:14Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Framing Unpacked: A Semi-Supervised Interpretable Multi-View Model of
Media Frames [32.06056273913706]
ニュースメディアが政治問題をどのように捉えるかを理解するための新しい半監督モデルを開発する。
モデルは、ニュース記事にイベントや関連するアクターに関するローカル情報を自動エンコードフレームワークを通じて埋め込むことを学ぶ。
実験の結果,従来のフレーム予測モデルよりも優れていた。
論文 参考訳(メタデータ) (2021-04-22T13:05:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。