論文の概要: The Democratic Paradox in Large Language Models' Underestimation of Press Freedom
- arxiv url: http://arxiv.org/abs/2506.18045v1
- Date: Sun, 22 Jun 2025 14:10:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.717187
- Title: The Democratic Paradox in Large Language Models' Underestimation of Press Freedom
- Title(参考訳): 大規模言語モデルにおける民主的パラドックス : 報道の自由の過小評価
- Authors: I. Loaiza, R. Vestrelli, A. Fronzetti Colladon, R. Rigobon,
- Abstract要約: 6つのポピュラー言語モデルが180か国で報道の自由を評価する方法として,3つの体系的歪みを明らかにした。
6つのLDMは否定的なミスアライメントを示し、一貫して報道の自由を過小評価し、最も強い国では報道の自由を不当に過小評価している。
6つのLDMのうち5つは肯定的な家庭バイアスを示し、彼らの母国の報道の自由を、予想以上に好意的に評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As Large Language Models (LLMs) increasingly mediate global information access for millions of users worldwide, their alignment and biases have the potential to shape public understanding and trust in fundamental democratic institutions, such as press freedom. In this study, we uncover three systematic distortions in the way six popular LLMs evaluate press freedom in 180 countries compared to expert assessments of the World Press Freedom Index (WPFI). The six LLMs exhibit a negative misalignment, consistently underestimating press freedom, with individual models rating between 71% to 93% of countries as less free. We also identify a paradoxical pattern we term differential misalignment: LLMs disproportionately underestimate press freedom in countries where it is strongest. Additionally, five of the six LLMs exhibit positive home bias, rating their home countries' press freedoms more favorably than would be expected given their negative misalignment with the human benchmark. In some cases, LLMs rate their home countries between 7% to 260% more positively than expected. If LLMs are set to become the next search engines and some of the most important cultural tools of our time, they must ensure accurate representations of the state of our human and civic rights globally.
- Abstract(参考訳): 大規模言語モデル(LLM)は、世界中の何百万ものユーザーにとってのグローバルな情報アクセスを仲介する傾向にあるため、そのアライメントと偏見は、報道の自由のような基本的な民主主義組織に対する大衆の理解と信頼を形作る可能性がある。
本研究では,世界出版自由度指数(WPFI)のエキスパート評価と比較し,180か国で6つのLLMが報道の自由を評価する方法の体系的歪みを明らかにする。
6つのLCMは否定的なミスアライメントを示し、報道の自由を常に過小評価しており、個々のモデルは、自由でない国の71%から93%と評価されている。
LLMは、最も強い国では、報道の自由を著しく過小評価している。
さらに、6つのLDMのうち5つは肯定的な家庭バイアスを示し、彼らの母国の報道の自由を、予想以上に好意的に評価する。
LLMは自国を7%から260%の確率で評価する場合もある。
LLMが次の検索エンジンになり、我々の時代の最も重要な文化的ツールとなるためには、人類と市民の権利の正確な表現を世界規模で確保する必要がある。
関連論文リスト
- Democratic or Authoritarian? Probing a New Dimension of Political Biases in Large Language Models [72.89977583150748]
本研究では,大規模言語モデルとより広い地政学的価値システムとの整合性を評価する新しい手法を提案する。
LLMは一般的に民主的価値観や指導者を好んでいるが、マンダリンでの権威主義的人物に対する好意が増している。
論文 参考訳(メタデータ) (2025-06-15T07:52:07Z) - What Large Language Models Do Not Talk About: An Empirical Study of Moderation and Censorship Practices [46.30336056625582]
本研究は,大規模言語モデルが政治的話題に刺激された場合の回答や省略を拒否する程度について検討する。
我々の分析では、西欧諸国、中国、ロシアの14の最先端モデルが、国連(UN)の6つの公式言語すべてで引き起こされている。
論文 参考訳(メタデータ) (2025-04-04T09:09:06Z) - Through the LLM Looking Glass: A Socratic Probing of Donkeys, Elephants, and Markets [42.55423041662188]
この研究は、外部解釈に頼るのではなく、モデルのバイアスを直接測定することを目的としている。
我々の結果は、あらゆるモデルで共和党の立場よりも民主党を一貫して好んでいることを示している。
経済の話題では、西洋のLLMには偏見があるが、中国で開発されたものは社会主義に強く依存している。
論文 参考訳(メタデータ) (2025-03-20T19:40:40Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Assessing Political Bias in Large Language Models [0.624709220163167]
我々は、ドイツの有権者の視点から、欧州連合(EU)内の政治問題に関するオープンソースのLarge Language Models(LLMs)の政治的バイアスを評価する。
Llama3-70Bのような大型モデルは、左派政党とより緊密に連携する傾向にあるが、小さなモデルは中立であることが多い。
論文 参考訳(メタデータ) (2024-05-17T15:30:18Z) - Large Language Models are Geographically Biased [47.88767211956144]
我々は、地理のレンズを通して、我々の住む世界について、Large Language Models (LLM)が何を知っているかを研究する。
我々は,地理空間予測において,システム的誤りと定義する,様々な問題的地理的バイアスを示す。
論文 参考訳(メタデータ) (2024-02-05T02:32:09Z) - Accuracy and Political Bias of News Source Credibility Ratings by Large Language Models [8.367075755850983]
本稿では,3つの主要なプロバイダから9つの広く使用されている言語モデル(LLM)を評価し,信頼性および高品質な情報ソースを識別する能力を評価する。
より大規模なモデルは、情報不足のために評価の提供を拒否する傾向にあるのに対して、より小さなモデルは、評価においてエラーを起こす傾向にある。
論文 参考訳(メタデータ) (2023-04-01T05:04:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。