論文の概要: Auditing LLM Editorial Bias in News Media Exposure
- arxiv url: http://arxiv.org/abs/2510.27489v1
- Date: Fri, 31 Oct 2025 14:07:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 17:52:16.123981
- Title: Auditing LLM Editorial Bias in News Media Exposure
- Title(参考訳): ニュースメディア公開におけるLLM編集バイアスの検討
- Authors: Marco Minici, Cristian Consonni, Federico Cinus, Giuseppe Manco,
- Abstract要約: GPT-4o-Mini、Claude-3.7-Sonnet、Gemini-2.0-Flashの3つの主要なエージェントをGoogle Newsと比較する。
Google Newsと比較すると、LCMはユニークなアウトレットを著しく減らし、より不均一な注意を割り当てている。
- 参考スコア(独自算出の注目度): 4.460107561389793
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large Language Models (LLMs) increasingly act as gateways to web content, shaping how millions of users encounter online information. Unlike traditional search engines, whose retrieval and ranking mechanisms are well studied, the selection processes of web-connected LLMs add layers of opacity to how answers are generated. By determining which news outlets users see, these systems can influence public opinion, reinforce echo chambers, and pose risks to civic discourse and public trust. This work extends two decades of research in algorithmic auditing to examine how LLMs function as news engines. We present the first audit comparing three leading agents, GPT-4o-Mini, Claude-3.7-Sonnet, and Gemini-2.0-Flash, against Google News, asking: \textit{How do LLMs differ from traditional aggregators in the diversity, ideology, and reliability of the media they expose to users?} Across 24 global topics, we find that, compared to Google News, LLMs surface significantly fewer unique outlets and allocate attention more unevenly. In the same way, GPT-4o-Mini emphasizes more factual and right-leaning sources; Claude-3.7-Sonnet favors institutional and civil-society domains and slightly amplifies right-leaning exposure; and Gemini-2.0-Flash exhibits a modest left-leaning tilt without significant changes in factuality. These patterns remain robust under prompt variations and alternative reliability benchmarks. Together, our findings show that LLMs already enact \textit{agentic editorial policies}, curating information in ways that diverge from conventional aggregators. Understanding and governing their emerging editorial power will be critical for ensuring transparency, pluralism, and trust in digital information ecosystems.
- Abstract(参考訳): 大規模言語モデル(LLM)はますますWebコンテンツのゲートウェイとして機能し、数百万のユーザがオンライン情報に遭遇する方法を形作っている。
検索とランキング機構がよく研究されている従来の検索エンジンとは異なり、ウェブに接続されたLLMの選択プロセスは、答えの生成方法に不透明な層を付加する。
ユーザーがどのニュースを閲覧するかを判断することで、これらのシステムは世論に影響を与え、エコーチャンバーを強化し、市民の談話や公的な信頼にリスクを及ぼすことができる。
この研究は、LLMがニュースエンジンとしてどのように機能するかを調べるために、アルゴリズム監査における20年間の研究を継続する。
GPT-4o-Mini、Claude-3.7-Sonnet、Gemini-2.0-Flashの3つの主要なエージェントをGoogle Newsに対して比較した最初の監査を行った。
世界のトピック24件中、LLMはGoogle Newsと比較して、ユニークなアウトレットが著しく少なくなり、より不均一な注目を集めている。
同様に、GPT-4o-Miniはより現実的で右利きのソースを強調しており、Claude-3.7-Sonnetは制度的および市民社会的なドメインを好んでおり、右利きの露出をわずかに増幅している。
これらのパターンは、迅速なバリエーションと代替信頼性ベンチマークの下では、堅牢である。
その結果, LLMは従来のアグリゲータから切り離された方法で情報を収集し, 既に「textit{agentic editorial policy}」を制定していることがわかった。
新たな編集力の理解と管理は、透明性、多元主義、デジタル情報エコシステムへの信頼の確保に不可欠である。
関連論文リスト
- How LLMs Fail to Support Fact-Checking [4.918358353535447]
LLM(Large Language Models)は、オンラインの誤報を増幅するが、誤報に対処することを約束する。
我々は、政治的誤報に対処する3つのLDM(ChatGPT、Gemini、Claude)の能力を実証的に研究する。
以上の結果から,モデルが実際のニュースソースで回答を得るのに苦労し,左利きの情報源を引用する傾向が示唆された。
論文 参考訳(メタデータ) (2025-02-28T07:12:03Z) - Detect, Investigate, Judge and Determine: A Knowledge-guided Framework for Few-shot Fake News Detection [53.41813030290324]
Few-Shot Fake News Detection (FS-FND) は、極めて低リソースのシナリオにおいて、非正確なニュースを実際のニュースと区別することを目的としている。
ソーシャルメディア上でのフェイクニュースの拡散や有害な影響により、このタスクは注目を集めている。
本稿では,内外からLLMを増強するDual-perspective Knowledge-Guided Fake News Detection (DKFND)モデルを提案する。
論文 参考訳(メタデータ) (2024-07-12T03:15:01Z) - Seeing Through AI's Lens: Enhancing Human Skepticism Towards LLM-Generated Fake News [0.38233569758620056]
本稿は,人間とLLMで作成する物品を個人が識別する簡単なマーカーを解明することを目的としている。
次に、情報理論とエントロピー原理に基づいて、エントロピーシフトオーサリングシグナチャ(ESAS)と呼ばれるメトリクスを考案する。
提案されたESASは、記事の著者の識別に関する関連性に基づいて、POSタグのような用語やエンティティをニュース記事にランク付けする。
論文 参考訳(メタデータ) (2024-06-20T06:02:04Z) - Generative Echo Chamber? Effects of LLM-Powered Search Systems on
Diverse Information Seeking [49.02867094432589]
大規模言語モデル(LLM)を利用した対話型検索システムは、すでに数億人の人々が利用している。
評価バイアスのあるLCMが, ユーザの視点を補強したり, 異議を申し立てたりすることで, 効果が変化するか, どのように変化するかを検討する。
論文 参考訳(メタデータ) (2024-02-08T18:14:33Z) - Accuracy and Political Bias of News Source Credibility Ratings by Large Language Models [8.367075755850983]
本稿では,3つの主要なプロバイダから9つの広く使用されている言語モデル(LLM)を評価し,信頼性および高品質な情報ソースを識別する能力を評価する。
より大規模なモデルは、情報不足のために評価の提供を拒否する傾向にあるのに対して、より小さなモデルは、評価においてエラーを起こす傾向にある。
論文 参考訳(メタデータ) (2023-04-01T05:04:06Z) - A Structured Analysis of Journalistic Evaluations for News Source
Reliability [0.456877715768796]
オンラインメディアが読者をm/disinformationに露出するリスクを評価するための2つの方法を評価する。
分析の結果、十分な合意の度合いが示され、私たちの意見では2倍の価値があります。
論文 参考訳(メタデータ) (2022-05-05T16:16:03Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。