論文の概要: Source Coverage and Citation Bias in LLM-based vs. Traditional Search Engines
- arxiv url: http://arxiv.org/abs/2512.09483v1
- Date: Wed, 10 Dec 2025 10:01:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.474128
- Title: Source Coverage and Citation Bias in LLM-based vs. Traditional Search Engines
- Title(参考訳): LLMと従来の検索エンジンのソースカバレッジとサイテーションバイアス
- Authors: Peixian Zhang, Qiming Ye, Zifan Peng, Kiran Garimella, Gareth Tyson,
- Abstract要約: 55,936のクエリと対応する検索結果を6つのLLM-SEと2つのTSEで分析する。
LLM-SEsはTSEよりも多様性の高いドメイン資源を引用していることを確認したが、実際、ドメインの37%はLLM-SEsに固有のものである。
私たちの調査結果は、エンドユーザ、Webサイトオーナー、開発者に対して、実用的な洞察を与えてくれます。
- 参考スコア(独自算出の注目度): 11.214205567807902
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LLM-based Search Engines (LLM-SEs) introduces a new paradigm for information seeking. Unlike Traditional Search Engines (TSEs) (e.g., Google), these systems summarize results, often providing limited citation transparency. The implications of this shift remain largely unexplored, yet raises key questions regarding trust and transparency. In this paper, we present a large-scale empirical study of LLM-SEs, analyzing 55,936 queries and the corresponding search results across six LLM-SEs and two TSEs. We confirm that LLM-SEs cites domain resources with greater diversity than TSEs. Indeed, 37% of domains are unique to LLM-SEs. However, certain risks still persist: LLM-SEs do not outperform TSEs in credibility, political neutrality and safety metrics. Finally, to understand the selection criteria of LLM-SEs, we perform a feature-based analysis to identify key factors influencing source choice. Our findings provide actionable insights for end users, website owners, and developers.
- Abstract(参考訳): LLMベースの検索エンジン (LLM-SEs) は情報検索のための新しいパラダイムを導入している。
従来の検索エンジン(TSE、Googleなど)とは異なり、これらのシステムは結果を要約し、しばしば限定的な引用透過性を提供する。
この移行の意義は、まだほとんど解明されていないが、信頼と透明性に関する重要な疑問を提起している。
本稿では,LLM-SEを大規模に検討し,55,936のクエリと対応する検索結果を6つのLLM-SEと2つのTSEで分析する。
我々は LLM-SE が TSE よりも多彩な領域資源を引用していることを確認した。
実際、ドメインの37%はLLM-SEに固有のものである。
LLM-SEは信頼性、政治的中立性、安全性の指標でTSEを上回りません。
最後に、LLM-SEの選択基準を理解するために、特徴に基づく分析を行い、ソース選択に影響を及ぼす重要な要因を特定する。
私たちの調査結果は、エンドユーザ、Webサイトオーナー、開発者に対して、実用的な洞察を与えてくれます。
関連論文リスト
- Rankers, Judges, and Assistants: Towards Understanding the Interplay of LLMs in Information Retrieval Evaluation [44.58099275559231]
大規模言語モデル(LLM)は、情報検索(IR)、ランキング、評価、AI支援コンテンツ作成にますます不可欠なものになっている。
本稿では,既存の研究を合成し,LLMに基づくローダとアシスタントがLLMベースの審査員にどのように影響するかを探求する新しい実験設計を提案する。
論文 参考訳(メタデータ) (2025-03-24T19:24:40Z) - ReSLLM: Large Language Models are Strong Resource Selectors for
Federated Search [35.44746116088232]
フェデレーション検索は、Retrieval-Augmented Generationパイプラインのコンテキストにおいて、ますます重要になる。
現在のSOTA資源選択手法は特徴に基づく学習手法に依存している。
ゼロショット環境でのフェデレーション検索における資源選択を促進するために,ReSLLMを提案する。
論文 参考訳(メタデータ) (2024-01-31T07:58:54Z) - TrustLLM: Trustworthiness in Large Language Models [446.5640421311468]
本稿では,大規模言語モデル(LLM)における信頼度に関する総合的研究であるTrustLLMを紹介する。
まず、8つの異なる次元にまたがる信頼性の高いLCMの原則を提案する。
これらの原則に基づいて、真理性、安全性、公正性、堅牢性、プライバシ、機械倫理を含む6つの次元にわたるベンチマークを確立します。
論文 参考訳(メタデータ) (2024-01-10T22:07:21Z) - Survey on Factuality in Large Language Models: Knowledge, Retrieval and
Domain-Specificity [61.54815512469125]
本調査は,大規模言語モデル(LLM)における事実性の重要課題に対処する。
LLMが様々な領域にまたがる応用を見出すにつれ、その出力の信頼性と正確性は重要となる。
論文 参考訳(メタデータ) (2023-10-11T14:18:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。