論文の概要: Role-Augmented Intent-Driven Generative Search Engine Optimization
- arxiv url: http://arxiv.org/abs/2508.11158v1
- Date: Fri, 15 Aug 2025 02:08:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:23.711879
- Title: Role-Augmented Intent-Driven Generative Search Engine Optimization
- Title(参考訳): 役割強化インテント駆動型生成検索エンジン最適化
- Authors: Xiaolu Chen, Haojie Wu, Jie Bao, Zhen Chen, Yong Liao, Hu Huang,
- Abstract要約: 本稿では,G-SEO(Role-Augmented Intent-Driven Generative Search Engine Optimization)法を提案する。
提案手法は,多種多様な情報的役割にまたがるリフレクティブ・リフレクティブ・リファインメントによる検索意図をモデル化し,ターゲットコンテンツの強化を可能にする。
実験結果から,検索意図がコンテンツ最適化に有効な信号であることが示された。
- 参考スコア(独自算出の注目度): 9.876307656819039
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Generative Search Engines (GSEs), powered by Large Language Models (LLMs) and Retrieval-Augmented Generation (RAG), are reshaping information retrieval. While commercial systems (e.g., BingChat, Perplexity.ai) demonstrate impressive semantic synthesis capabilities, their black-box nature fundamentally undermines established Search Engine Optimization (SEO) practices. Content creators face a critical challenge: their optimization strategies, effective in traditional search engines, are misaligned with generative retrieval contexts, resulting in diminished visibility. To bridge this gap, we propose a Role-Augmented Intent-Driven Generative Search Engine Optimization (G-SEO) method, providing a structured optimization pathway tailored for GSE scenarios. Our method models search intent through reflective refinement across diverse informational roles, enabling targeted content enhancement. To better evaluate the method under realistic settings, we address the benchmarking limitations of prior work by: (1) extending the GEO dataset with diversified query variations reflecting real-world search scenarios and (2) introducing G-Eval 2.0, a 6-level LLM-augmented evaluation rubric for fine-grained human-aligned assessment. Experimental results demonstrate that search intent serves as an effective signal for guiding content optimization, yielding significant improvements over single-aspect baseline approaches in both subjective impressions and objective content visibility within GSE responses.
- Abstract(参考訳): 大規模言語モデル(LLM)と検索型拡張生成(RAG)を駆使した生成検索エンジン(GSE)が情報検索を再構築している。
商用システム(BingChat、Perplexity.ai)は印象的なセマンティックシンセサイザー機能を示しているが、ブラックボックスの性質は基本的に検索エンジン最適化(SEO)の実践を損なう。
彼らの最適化戦略は、従来の検索エンジンで有効であり、生成的検索コンテキストと不一致であり、その結果、可視性が低下する。
このギャップを埋めるために,我々は,GSEシナリオに適した構造化最適化経路を提供する,ロール拡張Intent-Driven Generative Search Engine Optimization (G-SEO)法を提案する。
提案手法は,多種多様な情報的役割にまたがるリフレクティブ・リフレクティブ・リファインメントによる検索意図をモデル化し,ターゲットコンテンツの強化を可能にする。
本手法を現実的に評価するために,(1)現実世界の検索シナリオを反映したクエリの多様化によるGEOデータセットの拡張,(2)細粒度評価のための6レベルLLM拡張評価ルーブリックであるG-Eval 2.0の導入により,先行作業のベンチマーク限界に対処する。
実験の結果,検索意図がコンテンツ最適化の効果的なシグナルとなり,主観的印象とGSE応答における客観的コンテンツ視認性の両方において,単一アスペクトベースラインアプローチよりも顕著な改善が得られた。
関連論文リスト
- Careful Queries, Credible Results: Teaching RAG Models Advanced Web Search Tools with Reinforcement Learning [48.46951981642895]
我々は、ソース制限されたクエリを生成し、信頼できないコンテンツをフィルタリングする新しいRAGフレームワークであるWebFilterを提案する。
WebFilterは応答品質と検索精度を向上し,ドメイン内ベンチマークとドメイン外ベンチマークの両方で既存のRAGメソッドよりも優れていることを示す。
論文 参考訳(メタデータ) (2025-08-11T13:08:37Z) - Direct Retrieval-augmented Optimization: Synergizing Knowledge Selection and Language Models [83.8639566087953]
本稿では,2つの主要コンポーネントのエンドツーエンドトレーニングを可能にするDROという,直接検索拡張最適化フレームワークを提案する。
DROは、 (i) 文書置換推定と (ii) 再重み付けされ、段階的に改善されたRAGコンポーネントの2つのフェーズの間で交代する。
理論解析により,DROは強化学習における政策段階的な手法に類似していることが明らかとなった。
論文 参考訳(メタデータ) (2025-05-05T23:54:53Z) - DioR: Adaptive Cognitive Detection and Contextual Retrieval Optimization for Dynamic Retrieval-Augmented Generation [8.763986795098216]
Dynamic Retrieval-augmented Generation (RAG)は、大規模言語モデル(LLM)における幻覚の緩和に成功している。
本稿では,適応的認識検出と文脈的検索最適化という2つの主要コンポーネントからなる,革新的な動的RAG手法であるDioRを提案する。
論文 参考訳(メタデータ) (2025-04-14T13:02:53Z) - Lightweight and Direct Document Relevance Optimization for Generative Information Retrieval [49.669503570350166]
生成情報検索(GenIR)は、文書識別子(ドシデント)生成タスクとして文書検索を定式化する有望なニューラル検索パラダイムである。
既存のGenIRモデルはトークンレベルのミスアライメントに悩まされており、次のトークンを予測するためにトレーニングされたモデルは、ドキュメントレベルの関連性を効果的にキャプチャできないことが多い。
本稿では,トークンレベルのドシデント生成と文書レベルのドシデンス推定をペアのランク付けによる直接最適化により整合するダイレクトドキュメントレバレンス最適化(DDRO)を提案する。
論文 参考訳(メタデータ) (2025-04-07T15:27:37Z) - Token-level Proximal Policy Optimization for Query Generation [45.81132350185301]
State-of-the-art query generation methodは、文脈理解とテキスト生成における強力な能力にLarge Language Models(LLM)を利用する。
そこで本稿では,LLMのクエリ生成性能向上を目的としたノバルアプローチである,TOken-level Proximal Policy Optimization (TPPO)を提案する。
TPPOはReinforcement Learning from AI Feedback (RLAIF)パラダイムに基づいており、トークンレベルの報酬モデルとトークンレベルのポリシー最適化モジュールで構成されている。
論文 参考訳(メタデータ) (2024-11-01T16:36:14Z) - Learning to Rank for Multiple Retrieval-Augmented Models through Iterative Utility Maximization [21.115495457454365]
本稿では,複数検索拡張世代(RAG)エージェントを対象とした統合検索エンジンの設計について検討する。
本稿では,検索エンジンがRAGエージェントの検索結果を生成し,オフラインフェーズにおいて検索した文書の品質に関するフィードバックを収集する反復的手法を提案する。
我々は、これをオンライン環境に適応させ、リアルタイムなエージェントのフィードバックに基づいて、検索エンジンがその振る舞いを洗練できるようにする。
論文 参考訳(メタデータ) (2024-10-13T17:53:50Z) - Unleashing the Potential of Large Language Models as Prompt Optimizers: Analogical Analysis with Gradient-based Model Optimizers [108.72225067368592]
本稿では,大規模言語モデル(LLM)に基づくプロンプトの設計について検討する。
モデルパラメータ学習における2つの重要な要素を同定する。
グラディエントにインスパイアされた Prompt ベースの GPO を開発した。
論文 参考訳(メタデータ) (2024-02-27T15:05:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。