論文の概要: News Source Citing Patterns in AI Search Systems
- arxiv url: http://arxiv.org/abs/2507.05301v1
- Date: Mon, 07 Jul 2025 02:17:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:37.247264
- Title: News Source Citing Patterns in AI Search Systems
- Title(参考訳): AI検索システムにおけるニュースソースシッティングパターン
- Authors: Kai-Cheng Yang,
- Abstract要約: 我々は,AI検索システムを対象としたヘッド・ツー・ヘッド評価プラットフォームであるAI Search Arenaのデータを分析した。
データセットは、OpenAI、Perplexity、Googleの3大プロバイダにわたるモデルから24,000以上の会話と65,000のレスポンスで構成されている。
異なる提供者によるモデルは、異なるニュースソースを引用する一方で、引用行動における共有パターンを示す。
- 参考スコア(独自算出の注目度): 6.976269683687743
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI-powered search systems are emerging as new information gatekeepers, fundamentally transforming how users access news and information. Despite their growing influence, the citation patterns of these systems remain poorly understood. We address this gap by analyzing data from the AI Search Arena, a head-to-head evaluation platform for AI search systems. The dataset comprises over 24,000 conversations and 65,000 responses from models across three major providers: OpenAI, Perplexity, and Google. Among the over 366,000 citations embedded in these responses, 9% reference news sources. We find that while models from different providers cite distinct news sources, they exhibit shared patterns in citation behavior. News citations concentrate heavily among a small number of outlets and display a pronounced liberal bias, though low-credibility sources are rarely cited. User preference analysis reveals that neither the political leaning nor the quality of cited news sources significantly influences user satisfaction. These findings reveal significant challenges in current AI search systems and have important implications for their design and governance.
- Abstract(参考訳): AIを利用した検索システムは、ユーザーがニュースや情報にアクセスする方法を根本的に変える新しい情報ゲートキーパーとして登場しつつある。
彼らの影響力は増大しているが、これらのシステムの引用パターンはいまだに理解されていない。
我々は,AI検索システムを対象としたヘッド・ツー・ヘッド評価プラットフォームであるAI Search Arenaのデータを分析し,このギャップに対処する。
データセットは、OpenAI、Perplexity、Googleの3大プロバイダにわたるモデルから24,000以上の会話と65,000のレスポンスで構成されている。
これらの応答に埋め込まれた366,000以上の引用のうち、9%が参照されたニュースソースである。
異なる提供者によるモデルは、異なるニュースソースを引用する一方で、引用行動における共有パターンを示す。
ニュースの引用は少数のメディアに大きく集中し、顕著なリベラルな偏見を示すが、低信頼の情報源はめったに引用されない。
ユーザの嗜好分析は、政治的傾きや引用されたニュースソースの品質がユーザの満足度に大きく影響しないことを明らかにする。
これらの発見は、現在のAI検索システムにおける重要な課題を明らかにし、その設計とガバナンスに重要な意味を持つ。
関連論文リスト
- Search Arena: Analyzing Search-Augmented LLMs [61.28673331156436]
クラウドソーシングで大規模で,24,000以上のペア化されたマルチターンユーザインタラクションの人為的なデータセットであるSearch Arenaを紹介した。
データセットはさまざまな意図や言語にまたがっており、人間の好みの投票数約12,000の完全なシステムトレースが含まれている。
分析の結果,引用されたコンテンツが属性付クレームを直接サポートしていない場合でも,ユーザの嗜好は引用数に影響されていることが明らかとなった。
論文 参考訳(メタデータ) (2025-06-05T17:59:26Z) - Impact of Fake News on Social Media Towards Public Users of Different Age Groups [0.0]
本研究では,偽ニュースがソーシャルメディア利用者にどのような影響を及ぼすかを検討した。
偽ニュースの識別・分類における機械学習モデルの有効性について検討した。
論文 参考訳(メタデータ) (2024-11-08T15:32:20Z) - Fairness and Bias in Multimodal AI: A Survey [0.20971479389679337]
人工知能(AI)システムにおける公平性とバイアスに対処することの重要性は、過度に強調できない。
我々は,LMM(Large Multimodal Model)における,LMM(Large Language Model)とLLM(Large Language Model)の比較的最小の妥当性と偏見について,ギャップを埋める。
我々は、両方のタイプのAIに関連するデータセットとモデルの50例と、それらに影響を与えるバイアスの課題を提示します。
論文 参考訳(メタデータ) (2024-06-27T11:26:17Z) - Generative AI Search Engines as Arbiters of Public Knowledge: An Audit of Bias and Authority [2.860575804107195]
本稿では, 生成型AIシステム(ChatGPT, Bing Chat, Perplexity)の監査研究について報告する。
7日間に4つのトピックに対する48の真正クエリを用いてシステム応答を収集し,感情分析,帰納的符号化,ソース分類を用いて分析した。
その結果,これらのシステムにまたがるシステム応答の性質を概観し,クエリとトピックに基づく感情バイアスの証拠と,情報源における商業的および地理的バイアスの証拠を提供する。
論文 参考訳(メタデータ) (2024-05-22T22:09:32Z) - Learning Unbiased News Article Representations: A Knowledge-Infused
Approach [0.0]
本研究では,グローバル・ローカル・コンテクストを用いて,ニュース記事の非バイアス表現を学習する知識注入型ディープラーニングモデルを提案する。
提案手法は,アルゴリズムによる政治的偏見を緩和し,記事の政治的傾きを最大73%の精度で予測する基礎的手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-09-12T06:20:34Z) - Evaluating Verifiability in Generative Search Engines [70.59477647085387]
生成検索エンジンは、インラインの引用とともに、ユーザークエリへの応答を直接生成する。
我々は,一般的な4つの生成検索エンジンの評価を行う。
既存の生成検索エンジンからの応答は流動的であり、情報的に見えるが、しばしばサポートされていない文や不正確な引用を含んでいる。
論文 参考訳(メタデータ) (2023-04-19T17:56:12Z) - Towards Corpus-Scale Discovery of Selection Biases in News Coverage:
Comparing What Sources Say About Entities as a Start [65.28355014154549]
本稿では,大規模ニュースコーパスにおけるニュースコンテンツから直接メディア選択バイアスのパターンを発見するために,スケーラブルなNLPシステムを構築する上での課題について検討する。
我々は,世界519のニュースソースから180万件のニュース記事のコーパスであるNELA-2020のケーススタディを通じて,フレームワークの能力を示す。
論文 参考訳(メタデータ) (2023-04-06T23:36:45Z) - Unveiling the Hidden Agenda: Biases in News Reporting and Consumption [59.55900146668931]
イタリアのワクチン論争に関する6年間のデータセットを構築し、物語と選択バイアスを特定するためにベイジアン潜在空間モデルを採用する。
バイアスとエンゲージメントの間に非線形な関係が見られ、極端な位置へのエンゲージメントが高くなった。
Twitter上でのニュース消費の分析は、同様のイデオロギー的な立場のニュースメディアの間で、一般的なオーディエンスを明らかにしている。
論文 参考訳(メタデータ) (2023-01-14T18:58:42Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z) - SirenLess: reveal the intention behind news [31.757138364005087]
本稿では,言語的特徴による誤ニュース検出のための視覚解析システムであるSirenLessを紹介する。
このシステムは、ニュースメタデータと言語機能を統合し、ニュース記事の意味構造を明らかにする新しいインタラクティブツールである、記事エクスプローラーを特徴とする。
我々は、SirenLessを用いて、異なるソースから18のニュース記事を分析し、誤ったニュース検出のためのいくつかの有用なパターンを要約する。
論文 参考訳(メタデータ) (2020-01-08T20:36:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。