論文の概要: GEO: Generative Engine Optimization
- arxiv url: http://arxiv.org/abs/2311.09735v2
- Date: Tue, 28 May 2024 17:40:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-31 00:10:23.139799
- Title: GEO: Generative Engine Optimization
- Title(参考訳): GEO: ジェネレーティブエンジン最適化
- Authors: Pranjal Aggarwal, Vishvak Murahari, Tanmay Rajpurohit, Ashwin Kalyan, Karthik R Narasimhan, Ameet Deshpande,
- Abstract要約: 我々は、生成エンジン(GE)の統一的な枠組みを定式化する。
GEは大規模な言語モデル(LLM)を使用して情報を収集し、ユーザクエリに応答する。
我々は、GEレスポンスにおけるコンテンツの可視性を改善するために、コンテンツクリエーターを支援する最初の新しいパラダイムであるジェネレーティブエンジン最適化(GEO)を紹介します。
- 参考スコア(独自算出の注目度): 27.09775478861594
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The advent of large language models (LLMs) has ushered in a new paradigm of search engines that use generative models to gather and summarize information to answer user queries. This emerging technology, which we formalize under the unified framework of generative engines (GEs), can generate accurate and personalized responses, rapidly replacing traditional search engines like Google and Bing. Generative Engines typically satisfy queries by synthesizing information from multiple sources and summarizing them using LLMs. While this shift significantly improves \textit{user} utility and \textit{generative search engine} traffic, it poses a huge challenge for the third stakeholder - website and content creators. Given the black-box and fast-moving nature of generative engines, content creators have little to no control over \textit{when} and \textit{how} their content is displayed. With generative engines here to stay, we must ensure the creator economy is not disadvantaged. To address this, we introduce Generative Engine Optimization (GEO), the first novel paradigm to aid content creators in improving their content visibility in GE responses through a flexible black-box optimization framework for optimizing and defining visibility metrics. We facilitate systematic evaluation by introducing GEO-bench, a large-scale benchmark of diverse user queries across multiple domains, along with relevant web sources to answer these queries. Through rigorous evaluation, we demonstrate that GEO can boost visibility by up to 40\% in GE responses. Moreover, we show the efficacy of these strategies varies across domains, underscoring the need for domain-specific optimization methods. Our work opens a new frontier in information discovery systems, with profound implications for both developers of GEs and content creators.
- Abstract(参考訳): 大規模言語モデル (LLMs) の出現は, ユーザクエリに応答するための情報収集と要約に生成モデルを使用する, 検索エンジンの新たなパラダイムに根ざしている。
この新技術は、ジェネレーティブエンジン(GE)の統一的なフレームワークの下で形式化され、正確でパーソナライズされたレスポンスを生成し、GoogleやBingのような従来の検索エンジンを急速に置き換えます。
生成エンジンは通常、複数のソースから情報を合成し、LLMを使ってそれらを要約することでクエリを満足する。
この変更により、‘textit{user}ユーティリティと‘textit{generative search engine}トラフィックが大幅に改善されるが、第3のステークホルダーであるWebサイトとコンテンツクリエーターにとって大きな課題となる。
生成エンジンのブラックボックスと高速移動の性質を考えると、コンテンツクリエーターは、そのコンテンツを表示するtextit{when} と \textit{how} をほとんど、あるいは全くコントロールしていない。
生成エンジンが残るためには、創造者経済が不利益にならないようにしなければなりません。
これを解決するために、私たちは、可視化メトリクスの最適化と定義のための柔軟なブラックボックス最適化フレームワークを通じて、GEレスポンスにおけるコンテンツの可視性を改善するために、コンテンツクリエーターを支援する最初の新しいパラダイムであるジェネラティブエンジン最適化(GEO)を紹介します。
我々は,複数のドメインにまたがる多様なユーザクエリの大規模ベンチマークであるGEO-benchと,これらのクエリに応答する関連Webソースを導入することで,体系的な評価を容易にする。
厳密な評価により,GEOの可視性は最大40%向上することを示した。
さらに、これらの戦略の有効性はドメインによって異なり、ドメイン固有の最適化手法の必要性が強調されている。
私たちの研究は、情報発見システムにおける新たなフロンティアを開き、GEの開発者とコンテンツクリエーターの両方に深い影響をもたらします。
関連論文リスト
- GEM-RAG: Graphical Eigen Memories For Retrieval Augmented Generation [3.2027710059627545]
検索拡張生成のためのグラフィカル固有メモリ(GEM-RAG)について紹介する。
GEM-RAG は LLM が生成したユーティリティの質問を与えられたテキストコーパスにタグ付けすることで機能する。
我々は,UnifiedQA と GPT-3.5 Turbo を LLM として,SBERT を用いた GEM-RAG と OpenAI のテキストエンコーダを2つの標準QA タスクで評価した。
論文 参考訳(メタデータ) (2024-09-23T21:42:47Z) - Towards a Search Engine for Machines: Unified Ranking for Multiple Retrieval-Augmented Large Language Models [21.115495457454365]
uRAGは、複数の下流検索拡張生成システム(RAG)を提供する統合検索エンジンを備えたフレームワークである。
我々は、訓練に従事する18のRAGシステムと、uRAGを検索エンジンの新規ユーザとして使用する18の未知のRAGシステムからなる大規模な実験エコシステムを構築した。
論文 参考訳(メタデータ) (2024-04-30T19:51:37Z) - A Survey of Generative Search and Recommendation in the Era of Large Language Models [125.26354486027408]
ジェネレーティブ検索(検索)とレコメンデーションは、マッチング問題をジェネレーティブな方法で解決することを目的としている。
超知能生成型大規模言語モデルが検索と推薦の新しいパラダイムを生み出した。
論文 参考訳(メタデータ) (2024-04-25T17:58:17Z) - The Use of Generative Search Engines for Knowledge Work and Complex Tasks [26.583783763090732]
Bing Copilotを使うタスクのタイプと複雑さをBing Searchと比較して分析する。
発見は、従来の検索エンジンよりも認知の複雑さが高い知識作業タスクのために、人々が生成検索エンジンを使用していることを示している。
論文 参考訳(メタデータ) (2024-03-19T18:17:46Z) - Crafting Knowledge: Exploring the Creative Mechanisms of Chat-Based
Search Engines [3.5845457075304368]
本研究の目的は,LLMを利用した検索エンジン,特にBing Chatが応答情報ソースを選択するメカニズムを解明することである。
Bing Chatは読みやすく、形式的に構造化されたコンテンツを好むだけでなく、より低いパープレキシティレベルを示す。
本調査では,RAG技術が引用するWebサイトと従来の検索エンジンの上位のWebサイトとの類似性を比較検討した。
論文 参考訳(メタデータ) (2024-02-29T18:20:37Z) - Evaluating Robustness of Generative Search Engine on Adversarial Factual Questions [89.35345649303451]
生成検索エンジンは、人々がオンラインで情報を求める方法を変える可能性を秘めている。
しかし,既存の大規模言語モデル(LLM)が支援する生成検索エンジンからの応答は必ずしも正確ではない。
検索強化世代は、敵がシステム全体を回避できるため、安全上の懸念を増す。
論文 参考訳(メタデータ) (2024-02-25T11:22:19Z) - Large Language Models for Generative Information Extraction: A Survey [89.71273968283616]
大規模言語モデル(LLM)は、テキスト理解と生成において顕著な能力を示した。
各種IEサブタスクと技術の観点から,これらの作品を分類して概観する。
我々は,最も先進的な手法を実証的に分析し,LLMによるIEタスクの出現傾向を明らかにする。
論文 参考訳(メタデータ) (2023-12-29T14:25:22Z) - A Comprehensive Survey of AI-Generated Content (AIGC): A History of
Generative AI from GAN to ChatGPT [63.58711128819828]
ChatGPTおよびその他の生成AI(GAI)技術は、人工知能生成コンテンツ(AIGC)のカテゴリに属している。
AIGCの目標は、コンテンツ作成プロセスをより効率的かつアクセスしやすくし、高品質なコンテンツをより高速に生産できるようにすることである。
論文 参考訳(メタデータ) (2023-03-07T20:36:13Z) - Search-Engine-augmented Dialogue Response Generation with Cheaply
Supervised Query Production [98.98161995555485]
応答生成のために,任意の検索エンジンから膨大な動的情報にアクセス可能な対話モデルを提案する。
コアモジュールとして、クエリプロデューサを使用して、対話コンテキストからクエリを生成して、検索エンジンと対話する。
R@1とR@5のレートを62.4%と74.8%で達成できることを示す実験を行った。
論文 参考訳(メタデータ) (2023-02-16T01:58:10Z) - NeuralSearchX: Serving a Multi-billion-parameter Reranker for
Multilingual Metasearch at a Low Cost [4.186775801993103]
検索結果をマージし、文章をハイライトする多目的大規模階調モデルに基づくメタサーチエンジンであるNeuralSearchXについて述べる。
我々の設計選択は、幅広い公開ベンチマークで最先端の結果に近づきながら、競争力のあるQPSを備えたよりコスト効率の高いシステムに繋がったことを示す。
論文 参考訳(メタデータ) (2022-10-26T16:36:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。