論文の概要: What Generative Search Engines Like and How to Optimize Web Content Cooperatively
- arxiv url: http://arxiv.org/abs/2510.11438v1
- Date: Mon, 13 Oct 2025 14:10:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.39693
- Title: What Generative Search Engines Like and How to Optimize Web Content Cooperatively
- Title(参考訳): 生成検索エンジンが好きなものとWebコンテンツを協調的に最適化する方法
- Authors: Yujiang Wu, Shanshan Zhong, Yubin Kim, Chenyan Xiong,
- Abstract要約: Google AI概要やChatGPTといったジェネレーティブエンジンは、ユーザエクスペリエンスを大幅に強化する。
これらの急速な採用は、コンテンツプロバイダがより牽引力を得ようとしているため、ジェネレーティブエンジン最適化(GEO)の必要性も引き起こしている。
本稿では,検索したコンテンツを用いて応答生成を行う際に,生成エンジンの好みを自動的に学習するフレームワークであるAutoGEOを紹介する。
- 参考スコア(独自算出の注目度): 29.736392688493808
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: By employing large language models (LLMs) to retrieve documents and generate natural language responses, Generative Engines, such as Google AI overview and ChatGPT, provide significantly enhanced user experiences and have rapidly become the new form of search. Their rapid adoption also drives the needs of Generative Engine Optimization (GEO), as content providers are eager to gain more traction from them. In this paper, we introduce AutoGEO, a framework to automatically learn generative engine preferences when using retrieved contents for response generation, and rewrite web contents for more such traction. AutoGEO first prompts frontier LLMs to explain generative engine preferences and extract meaningful preference rules from these explanations. Then it uses preference rules as context engineering for AutoGEO$_\text{API}$, a prompt-based GEO system, and as rule-based rewards to train AutoGEO$_\text{Mini}$, a cost-effective GEO model. Experiments on the standard GEO-Bench and two newly constructed benchmarks using real user queries demonstrate the effectiveness of AutoGEO in enhancing content traction while preserving search utility. Analyses confirm the learned rules' robustness and abilities to capture unique preferences in variant domains, and AutoGEO systems' ability to embed them in content optimization. The code is released at https://github.com/cxcscmu/AutoGEO.
- Abstract(参考訳): ドキュメントを検索して自然言語応答を生成するために,大規模な言語モデル(LLM)を使用することで,Google AI概要やChatGPTなどの生成エンジンは,ユーザエクスペリエンスを大幅に向上し,検索の新たな形式となった。
これらの急速な採用は、コンテンツプロバイダがより牽引力を得ようとしているため、ジェネレーティブエンジン最適化(GEO)の必要性も引き起こしている。
本稿では,検索したコンテンツを用いた応答生成における生成エンジンの嗜好を自動的に学習するフレームワークであるAutoGEOを導入し,Webコンテンツの書き直しを行う。
AutoGEOはまず、生成エンジンの嗜好を説明し、これらの説明から意味のある嗜好ルールを抽出するよう、フロンティアのLLMに促す。
次に、AutoGEO$_\text{API}$のコンテキストエンジニアリング、プロンプトベースのGEOシステム、そしてコスト効率の良いGEOモデルであるAutoGEO$_\text{Mini}$をトレーニングするためのルールベースの報酬として、好みのルールを使用する。
実ユーザクエリを用いた標準GEO-Benchと2つの新たに構築されたベンチマーク実験は,検索ユーティリティを保ちながらコンテンツのトラクション向上にAutoGEOの有効性を示す。
分析は、学習したルールの堅牢性と、変種ドメインにおけるユニークな好みをキャプチャする能力、およびそれらをコンテンツ最適化に組み込むAutoGEOシステムの能力を確認する。
コードはhttps://github.com/cxcscmu/AutoGEO.comで公開されている。
関連論文リスト
- ImpRAG: Retrieval-Augmented Generation with Implicit Queries [34.72864597562907]
ImpRAGは、検索と生成を統一モデルに統合するクエリフリーなRAGシステムである。
我々は、ImpRAGが、多様な形式を持つ未確認タスクの正確なマッチスコアを3.6-11.5改善したことを示す。
論文 参考訳(メタデータ) (2025-06-02T21:38:21Z) - AutoGEEval: A Multimodal and Automated Framework for Geospatial Code Generation on GEE with Large Language Models [2.115331311872418]
AutoGEEvalは、大規模言語モデル(LLM)を利用したGoogle Earth Engine(GEE)プラットフォーム上でのコード生成タスクの評価フレームワークである。
GEE Python APIをベースに構築されたAutoGEEvalは、26のGEEデータタイプにまたがる1325のテストケースからなるベンチマークスイート(AutoGEEval-Bench)を確立する。
我々は、GEEコード生成における性能特性と潜在的な最適化経路について、汎用、推論、コード中心、地学特化モデルを含む18の最先端LCMを評価した。
論文 参考訳(メタデータ) (2025-05-19T09:35:58Z) - VisRAG: Vision-based Retrieval-augmented Generation on Multi-modality Documents [66.42579289213941]
Retrieval-augmented Generation (RAG) は、大規模言語モデルが外部知識ソースを生成に活用できる効果的な手法である。
本稿では、視覚言語モデル(VLM)に基づくRAGパイプラインを確立することにより、この問題に対処するVisRAGを紹介する。
このパイプラインでは、まず文書を解析してテキストを得る代わりに、VLMを画像として直接埋め込んで、VLMの生成を強化する。
論文 参考訳(メタデータ) (2024-10-14T15:04:18Z) - GEM-RAG: Graphical Eigen Memories For Retrieval Augmented Generation [3.2027710059627545]
検索拡張生成のためのグラフィカル固有メモリ(GEM-RAG)について紹介する。
GEM-RAG は LLM が生成したユーティリティの質問を与えられたテキストコーパスにタグ付けすることで機能する。
我々は,UnifiedQA と GPT-3.5 Turbo を LLM として,SBERT を用いた GEM-RAG と OpenAI のテキストエンコーダを2つの標準QA タスクで評価した。
論文 参考訳(メタデータ) (2024-09-23T21:42:47Z) - GEO: Generative Engine Optimization [50.45232692363787]
我々は、生成エンジン(GE)の統一的な枠組みを定式化する。
GEは大規模な言語モデル(LLM)を使用して情報を収集し、ユーザクエリに応答する。
生成エンジンは通常、複数のソースから情報を合成し、それらを要約することでクエリを満足する。
我々は、生成エンジン応答におけるコンテンツの可視性向上を支援するために、コンテンツ作成者を支援する最初の新しいパラダイムである生成エンジン最適化(GEO)を紹介する。
論文 参考訳(メタデータ) (2023-11-16T10:06:09Z) - Active Retrieval Augmented Generation [123.68874416084499]
外部知識資源から情報を取得することで、大きな言語モデル(LM)を拡張することは、有望な解決策である。
ほとんどの既存の検索拡張LMは、入力に基づいて一度だけ情報を検索する検索と生成のセットアップを採用している。
本稿では,将来的な内容を予測するために,文の予測を反復的に利用する汎用手法であるフォワード・フォワード・アクティブ・レトリヴァル・ジェネレーション・ジェネレーション(FLARE)を提案する。
論文 参考訳(メタデータ) (2023-05-11T17:13:40Z) - LasUIE: Unifying Information Extraction with Latent Adaptive
Structure-aware Generative Language Model [96.889634747943]
全ての典型的な情報抽出タスク(UIE)を1つの生成言語モデル(GLM)で普遍的にモデル化し、大きな可能性を明らかにした。
UIE のための構文知識のパワーを完全に解放する構造対応 GLM を提案する。
7つのタスクにわたるIEベンチマークが12以上あり、私たちのシステムはベースラインのUIEシステムよりも大幅に改善されていることを示しています。
論文 参考訳(メタデータ) (2023-04-13T04:01:14Z) - VEGA: Towards an End-to-End Configurable AutoML Pipeline [101.07003005736719]
VEGAは効率よく包括的なAutoMLフレームワークで、複数のハードウェアプラットフォームに互換性があり、最適化されている。
VEGAは既存のAutoMLアルゴリズムを改善し、SOTAメソッドに対して新しい高性能モデルを発見する。
論文 参考訳(メタデータ) (2020-11-03T06:53:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。