論文の概要: When Content is Goliath and Algorithm is David: The Style and Semantic Effects of Generative Search Engine
- arxiv url: http://arxiv.org/abs/2509.14436v1
- Date: Wed, 17 Sep 2025 21:19:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:52.976685
- Title: When Content is Goliath and Algorithm is David: The Style and Semantic Effects of Generative Search Engine
- Title(参考訳): コンテンツがゴリアスでアルゴリズムがダビデであるとき:生成検索エンジンのスタイルと意味的効果
- Authors: Lijia Ma, Juan Qin, Xingchen Xu, Yong Tan,
- Abstract要約: ジェネレーティブ検索エンジン(GE)は、大規模な言語モデル(LLM)を活用して、Webサイトを引用したAI生成サマリーを提供する。
Googleのジェネレーティブおよび従来型の検索プラットフォームとのインタラクションを通じてデータを収集する。
- 参考スコア(独自算出の注目度): 4.490010197356386
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Generative search engines (GEs) leverage large language models (LLMs) to deliver AI-generated summaries with website citations, establishing novel traffic acquisition channels while fundamentally altering the search engine optimization landscape. To investigate the distinctive characteristics of GEs, we collect data through interactions with Google's generative and conventional search platforms, compiling a dataset of approximately ten thousand websites across both channels. Our empirical analysis reveals that GEs exhibit preferences for citing content characterized by significantly higher predictability for underlying LLMs and greater semantic similarity among selected sources. Through controlled experiments utilizing retrieval augmented generation (RAG) APIs, we demonstrate that these citation preferences emerge from intrinsic LLM tendencies to favor content aligned with their generative expression patterns. Motivated by applications of LLMs to optimize website content, we conduct additional experimentation to explore how LLM-based content polishing by website proprietors alters AI summaries, finding that such polishing paradoxically enhances information diversity within AI summaries. Finally, to assess the user-end impact of LLM-induced information increases, we design a generative search engine and recruit Prolific participants to conduct a randomized controlled experiment involving an information-seeking and writing task. We find that higher-educated users exhibit minimal changes in their final outputs' information diversity but demonstrate significantly reduced task completion time when original sites undergo polishing. Conversely, lower-educated users primarily benefit through enhanced information density in their task outputs while maintaining similar completion times across experimental groups.
- Abstract(参考訳): ジェネレーティブ検索エンジン(GE)は、大規模言語モデル(LLM)を活用して、Webサイトを引用したAI生成サマリーを提供し、検索エンジン最適化のランドスケープを根本的に変更しながら、新しいトラフィック獲得チャネルを確立する。
GEの特徴を明らかにするために、Googleのジェネレーティブ検索プラットフォームと従来の検索プラットフォームとのインタラクションを通じてデータを収集し、両方のチャネルに約1万のWebサイトのデータセットをコンパイルする。
実験分析の結果,GE は LLM の予測可能性の向上と,選択したソース間の意味的類似性の向上を特徴とするコンテンツ引用の嗜好を示すことが明らかとなった。
検索拡張生成(RAG)APIを利用した制御実験により,本態性 LLM 傾向から引用嗜好が出現し,生成的表現パターンに沿った内容が好まれることが実証された。
ウェブサイトのコンテンツを最適化するためのLLMの適用により、ウェブサイト所有者によるLCMベースのコンテンツ研磨がAI要約をどう変えるかを探るため、さらなる実験を行い、このような研磨がAI要約内の情報の多様性をパラドックス的に促進することを示した。
最後に, LLMによる情報量増加によるユーザ・エンドへの影響を評価するため, 生成検索エンジンを設計し, Prolific の参加者を募集し, 情報検索・書き込みタスクを含むランダム化制御実験を行う。
その結果, 高度学習者は, 最終出力情報の多様性に最小限の変更しか示さないが, 元のサイトが磨きをかけると, タスク完了時間が大幅に短縮されることが判明した。
逆に、低教育のユーザは、主に、実験グループ間で同様の完了時間を維持しながら、タスク出力の情報密度を向上することで利益を得る。
関連論文リスト
- How Do LLM-Generated Texts Impact Term-Based Retrieval Models? [76.92519309816008]
本稿では,大規模言語モデル(LLM)が項ベース検索モデルに与える影響について検討する。
言語学的解析により,LLM生成テキストはよりスムーズで低周波なZipf勾配を示すことが明らかとなった。
本研究は,項分布がクエリと密接に一致した文書を優先して,項ベース検索モデルがソースバイアスを示すかどうかを考察する。
論文 参考訳(メタデータ) (2025-08-25T06:43:27Z) - Iterative Self-Incentivization Empowers Large Language Models as Agentic Searchers [74.17516978246152]
大規模言語モデル(LLM)は、従来の手法を進化させるために情報検索に広く統合されている。
エージェント検索フレームワークであるEXSEARCHを提案する。
4つの知識集約ベンチマークの実験では、EXSEARCHはベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2025-05-26T15:27:55Z) - Scent of Knowledge: Optimizing Search-Enhanced Reasoning with Information Foraging [7.047640531842663]
InForageは、動的情報探索プロセスとして検索強化推論を形式化する強化学習フレームワークである。
我々は,複雑な実世界のWebタスクに対する反復探索と推論のトラジェクトリをキャプチャするヒューマンガイドデータセットを構築した。
これらの結果は、堅牢で適応的で効率的な推論エージェントの構築におけるInForageの有効性を強調している。
論文 参考訳(メタデータ) (2025-05-14T12:13:38Z) - WeKnow-RAG: An Adaptive Approach for Retrieval-Augmented Generation Integrating Web Search and Knowledge Graphs [10.380692079063467]
本稿では,Web検索と知識グラフを統合したWeKnow-RAGを提案する。
まず,知識グラフの構造化表現と高次ベクトル検索の柔軟性を組み合わせることで,LLM応答の精度と信頼性を向上させる。
提案手法は,情報検索の効率と精度を効果的にバランスさせ,全体の検索プロセスを改善する。
論文 参考訳(メタデータ) (2024-08-14T15:19:16Z) - Crafting Knowledge: Exploring the Creative Mechanisms of Chat-Based
Search Engines [3.5845457075304368]
本研究の目的は,LLMを利用した検索エンジン,特にBing Chatが応答情報ソースを選択するメカニズムを解明することである。
Bing Chatは読みやすく、形式的に構造化されたコンテンツを好むだけでなく、より低いパープレキシティレベルを示す。
本調査では,RAG技術が引用するWebサイトと従来の検索エンジンの上位のWebサイトとの類似性を比較検討した。
論文 参考訳(メタデータ) (2024-02-29T18:20:37Z) - The Web Can Be Your Oyster for Improving Large Language Models [98.72358969495835]
大規模言語モデル(LLM)は、大量の世界の知識を符号化する。
我々はLLMを検索エンジンを用いて大規模ウェブで拡張することを検討する。
ウェブ上に拡張されたLLM UNIWEBを提案する。これは16の知識集約的なタスクに対して、統一されたテキスト・テキスト・フォーマットで訓練される。
論文 参考訳(メタデータ) (2023-05-18T14:20:32Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。