論文の概要: Answer Bubbles: Information Exposure in AI-Mediated Search
- arxiv url: http://arxiv.org/abs/2603.16138v1
- Date: Tue, 17 Mar 2026 05:41:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.114879
- Title: Answer Bubbles: Information Exposure in AI-Mediated Search
- Title(参考訳): 回答バブル:AIによる検索における情報公開
- Authors: Michelle Huang, Agam Goyal, Koustuv Saha, Eshwar Chandrasekharan,
- Abstract要約: バニラGPT,検索GPT,Google AI概要,従来のGoogle検索という,4つのシステムにわたる11,000のリアルタイム検索クエリに対する応答について検討する。
生成検索システムは,その引用に有意なテキストソース選択バイアスを示すことがわかった。
- 参考スコア(独自算出の注目度): 14.377773240202849
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative search systems are increasingly replacing link-based retrieval with AI-generated summaries, yet little is known about how these systems differ in sources, language, and fidelity to cited material. We examine responses to 11,000 real search queries across four systems -- vanilla GPT, Search GPT, Google AI Overviews, and traditional Google Search -- at three levels: source diversity, linguistic characterization of the generated summary, and source-summary fidelity. We find that generative search systems exhibit significant \textit{source-selection} biases in their citations, favoring certain sources over others. Incorporating search also selectively attenuates epistemic markers, reducing hedging by up to 60\% while preserving confidence language in the AI-generated summaries. At the same time, AI summaries further compound the citation biases: Wikipedia and longer sources are disproportionately overrepresented, whereas cited social media content and negatively framed sources are substantially underrepresented. Our findings highlight the potential for \textit{answer bubbles}, in which identical queries yield structurally different information realities across systems, with implications for user trust, source visibility, and the transparency of AI-mediated information access.
- Abstract(参考訳): ジェネレーティブ検索システムは、リンクベースの検索をAI生成の要約に置き換えている。
バニラGPT、検索GPT、Google AI概要、従来のGoogle検索の4つのシステムにわたる11,000のリアル検索クエリに対する応答を、ソースの多様性、生成されたサマリの言語的特徴、ソース・サマリーの忠実さの3レベルで検証する。
生成的検索システムは引用に有意な‘textit{source-selection}バイアスを示し,他者よりも特定の情報源を優先している。
検索を組み込むことは、AI生成サマリーにおける信頼言語を保ちながら、エピステママーカーを選択的に減衰させ、ヘッジを最大60\%削減する。
ウィキペディアやより長い情報源は不当に過剰に表現されているのに対して、引用されたソーシャルメディアコンテンツや否定的な枠付きソースは実質的に不足している。
本研究は,ユーザ信頼度,ソース可視性,AIによる情報アクセスの透明性など,同一クエリがシステム間で構造的に異なる情報現実をもたらす,‘textit{answer bubbles’ の可能性を強調した。
関連論文リスト
- SemanticCite: Citation Verification with AI-Powered Full-Text Analysis and Evidence-Based Reasoning [0.0]
本稿では,全文ソース解析による引用精度の検証を行うAIシステムであるSemanticCiteを紹介する。
提案手法は,複数の検索手法と,ニュアンスド・クレーム・ソース関係を抽出する4クラス分類システムを組み合わせたものである。
我々は、詳細なアライメント、機能分類、セマンティックアノテーション、およびバイオロメトリメタデータを備えた1000以上の引用からなる包括的なデータセットをコントリビュートする。
論文 参考訳(メタデータ) (2025-11-20T10:05:21Z) - Assessing Web Search Credibility and Response Groundedness in Chat Assistants [4.0127354590894955]
本稿では,アシスタントのWeb検索行動を評価するための新しい手法を提案する。
GPT-4o, GPT-5, Perplexity, Qwen Chatの5項目を100件のクレームで評価した。
論文 参考訳(メタデータ) (2025-10-15T16:55:47Z) - News Source Citing Patterns in AI Search Systems [6.976269683687743]
我々は,AI検索システムを対象としたヘッド・ツー・ヘッド評価プラットフォームであるAI Search Arenaのデータを分析した。
データセットは、OpenAI、Perplexity、Googleの3大プロバイダにわたるモデルから24,000以上の会話と65,000のレスポンスで構成されている。
異なる提供者によるモデルは、異なるニュースソースを引用する一方で、引用行動における共有パターンを示す。
論文 参考訳(メタデータ) (2025-07-07T02:17:57Z) - Generative AI Search Engines as Arbiters of Public Knowledge: An Audit of Bias and Authority [2.860575804107195]
本稿では, 生成型AIシステム(ChatGPT, Bing Chat, Perplexity)の監査研究について報告する。
7日間に4つのトピックに対する48の真正クエリを用いてシステム応答を収集し,感情分析,帰納的符号化,ソース分類を用いて分析した。
その結果,これらのシステムにまたがるシステム応答の性質を概観し,クエリとトピックに基づく感情バイアスの証拠と,情報源における商業的および地理的バイアスの証拠を提供する。
論文 参考訳(メタデータ) (2024-05-22T22:09:32Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Large Language Models for Information Retrieval: A Survey [83.75872593741578]
情報検索は、項ベースの手法から高度なニューラルモデルとの統合へと進化してきた。
近年の研究では、大規模言語モデル(LLM)を活用してIRシステムの改善が試みられている。
LLMとIRシステムの合流点を探索し、クエリリライト、リトリバー、リランカー、リーダーといった重要な側面を含む。
論文 参考訳(メタデータ) (2023-08-14T12:47:22Z) - Evaluating Verifiability in Generative Search Engines [70.59477647085387]
生成検索エンジンは、インラインの引用とともに、ユーザークエリへの応答を直接生成する。
我々は,一般的な4つの生成検索エンジンの評価を行う。
既存の生成検索エンジンからの応答は流動的であり、情報的に見えるが、しばしばサポートされていない文や不正確な引用を含んでいる。
論文 参考訳(メタデータ) (2023-04-19T17:56:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。