論文の概要: Role-Augmented Intent-Driven Generative Search Engine Optimization
- arxiv url: http://arxiv.org/abs/2508.11158v1
- Date: Fri, 15 Aug 2025 02:08:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:23.711879
- Title: Role-Augmented Intent-Driven Generative Search Engine Optimization
- Title(参考訳): 役割強化インテント駆動型生成検索エンジン最適化
- Authors: Xiaolu Chen, Haojie Wu, Jie Bao, Zhen Chen, Yong Liao, Hu Huang,
- Abstract要約: 本稿では,G-SEO(Role-Augmented Intent-Driven Generative Search Engine Optimization)法を提案する。
提案手法は,多種多様な情報的役割にまたがるリフレクティブ・リフレクティブ・リファインメントによる検索意図をモデル化し,ターゲットコンテンツの強化を可能にする。
実験結果から,検索意図がコンテンツ最適化に有効な信号であることが示された。
- 参考スコア(独自算出の注目度): 9.876307656819039
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Generative Search Engines (GSEs), powered by Large Language Models (LLMs) and Retrieval-Augmented Generation (RAG), are reshaping information retrieval. While commercial systems (e.g., BingChat, Perplexity.ai) demonstrate impressive semantic synthesis capabilities, their black-box nature fundamentally undermines established Search Engine Optimization (SEO) practices. Content creators face a critical challenge: their optimization strategies, effective in traditional search engines, are misaligned with generative retrieval contexts, resulting in diminished visibility. To bridge this gap, we propose a Role-Augmented Intent-Driven Generative Search Engine Optimization (G-SEO) method, providing a structured optimization pathway tailored for GSE scenarios. Our method models search intent through reflective refinement across diverse informational roles, enabling targeted content enhancement. To better evaluate the method under realistic settings, we address the benchmarking limitations of prior work by: (1) extending the GEO dataset with diversified query variations reflecting real-world search scenarios and (2) introducing G-Eval 2.0, a 6-level LLM-augmented evaluation rubric for fine-grained human-aligned assessment. Experimental results demonstrate that search intent serves as an effective signal for guiding content optimization, yielding significant improvements over single-aspect baseline approaches in both subjective impressions and objective content visibility within GSE responses.
- Abstract(参考訳): 大規模言語モデル(LLM)と検索型拡張生成(RAG)を駆使した生成検索エンジン(GSE)が情報検索を再構築している。
商用システム(BingChat、Perplexity.ai)は印象的なセマンティックシンセサイザー機能を示しているが、ブラックボックスの性質は基本的に検索エンジン最適化(SEO)の実践を損なう。
彼らの最適化戦略は、従来の検索エンジンで有効であり、生成的検索コンテキストと不一致であり、その結果、可視性が低下する。
このギャップを埋めるために,我々は,GSEシナリオに適した構造化最適化経路を提供する,ロール拡張Intent-Driven Generative Search Engine Optimization (G-SEO)法を提案する。
提案手法は,多種多様な情報的役割にまたがるリフレクティブ・リフレクティブ・リファインメントによる検索意図をモデル化し,ターゲットコンテンツの強化を可能にする。
本手法を現実的に評価するために,(1)現実世界の検索シナリオを反映したクエリの多様化によるGEOデータセットの拡張,(2)細粒度評価のための6レベルLLM拡張評価ルーブリックであるG-Eval 2.0の導入により,先行作業のベンチマーク限界に対処する。
実験の結果,検索意図がコンテンツ最適化の効果的なシグナルとなり,主観的印象とGSE応答における客観的コンテンツ視認性の両方において,単一アスペクトベースラインアプローチよりも顕著な改善が得られた。
関連論文リスト
- SAGEO Arena: A Realistic Environment for Evaluating Search-Augmented Generative Engine Optimization [11.467565046589414]
Search-Augmented Generative Engines (SAGE) が情報アクセスの新しいパラダイムとして登場した。
現在、SAGEOの総合的な調査を支援する評価環境はない。
ステージレベルのSAGEO分析のための現実的で再現可能な環境であるSAGEO Arenaを紹介する。
論文 参考訳(メタデータ) (2026-02-12T17:18:00Z) - MAESTRO: Meta-learning Adaptive Estimation of Scalarization Trade-offs for Reward Optimization [56.074760766965085]
大規模言語モデル(LLM)の整合性のための効率的なパラダイムとしてグループ相対政策最適化が登場している。
我々は,報酬スカラー化を動的潜在ポリシーとして扱い,モデルの終端隠蔽状態を意味的ボトルネックとして活用するMAESTROを提案する。
本稿では,軽量コンダクタネットワークがメタリワード信号としてグループ相対的優位性を生かしてポリシと共進化する,双方向最適化フレームワークにおけるコンテキスト的帯域幅問題としてこれを定式化する。
論文 参考訳(メタデータ) (2026-01-12T05:02:48Z) - Caption Injection for Optimization in Generative Search Engine [15.472540238931202]
ジェネレーティブ検索エンジン(GSE)は検索拡張生成(RAG)技術とLarge Language Models(LLM)を活用する
本稿では,画像からキャプションを抽出し,テキストコンテンツに注入する,最初のマルチモーダルG-SEO手法であるCaption Injectionを提案する。
実験結果から, キャプションインジェクションはテキストのみのG-SEOベースラインをG-Evalで有意に上回ることがわかった。
論文 参考訳(メタデータ) (2025-11-06T05:37:27Z) - Towards Context-aware Reasoning-enhanced Generative Searching in E-commerce [61.03081096959132]
そこで本稿では,複雑な状況下でのテキストバウンダリングを改善するための,文脈対応推論強化型生成検索フレームワークを提案する。
提案手法は,強力なベースラインに比べて優れた性能を示し,検索に基づく推薦の有効性を検証した。
論文 参考訳(メタデータ) (2025-10-19T16:46:11Z) - Careful Queries, Credible Results: Teaching RAG Models Advanced Web Search Tools with Reinforcement Learning [48.46951981642895]
我々は、ソース制限されたクエリを生成し、信頼できないコンテンツをフィルタリングする新しいRAGフレームワークであるWebFilterを提案する。
WebFilterは応答品質と検索精度を向上し,ドメイン内ベンチマークとドメイン外ベンチマークの両方で既存のRAGメソッドよりも優れていることを示す。
論文 参考訳(メタデータ) (2025-08-11T13:08:37Z) - Direct Retrieval-augmented Optimization: Synergizing Knowledge Selection and Language Models [83.8639566087953]
本稿では,2つの主要コンポーネントのエンドツーエンドトレーニングを可能にするDROという,直接検索拡張最適化フレームワークを提案する。
DROは、 (i) 文書置換推定と (ii) 再重み付けされ、段階的に改善されたRAGコンポーネントの2つのフェーズの間で交代する。
理論解析により,DROは強化学習における政策段階的な手法に類似していることが明らかとなった。
論文 参考訳(メタデータ) (2025-05-05T23:54:53Z) - DioR: Adaptive Cognitive Detection and Contextual Retrieval Optimization for Dynamic Retrieval-Augmented Generation [8.763986795098216]
Dynamic Retrieval-augmented Generation (RAG)は、大規模言語モデル(LLM)における幻覚の緩和に成功している。
本稿では,適応的認識検出と文脈的検索最適化という2つの主要コンポーネントからなる,革新的な動的RAG手法であるDioRを提案する。
論文 参考訳(メタデータ) (2025-04-14T13:02:53Z) - Lightweight and Direct Document Relevance Optimization for Generative Information Retrieval [49.669503570350166]
生成情報検索(GenIR)は、文書識別子(ドシデント)生成タスクとして文書検索を定式化する有望なニューラル検索パラダイムである。
既存のGenIRモデルはトークンレベルのミスアライメントに悩まされており、次のトークンを予測するためにトレーニングされたモデルは、ドキュメントレベルの関連性を効果的にキャプチャできないことが多い。
本稿では,トークンレベルのドシデント生成と文書レベルのドシデンス推定をペアのランク付けによる直接最適化により整合するダイレクトドキュメントレバレンス最適化(DDRO)を提案する。
論文 参考訳(メタデータ) (2025-04-07T15:27:37Z) - Token-level Proximal Policy Optimization for Query Generation [45.81132350185301]
State-of-the-art query generation methodは、文脈理解とテキスト生成における強力な能力にLarge Language Models(LLM)を利用する。
そこで本稿では,LLMのクエリ生成性能向上を目的としたノバルアプローチである,TOken-level Proximal Policy Optimization (TPPO)を提案する。
TPPOはReinforcement Learning from AI Feedback (RLAIF)パラダイムに基づいており、トークンレベルの報酬モデルとトークンレベルのポリシー最適化モジュールで構成されている。
論文 参考訳(メタデータ) (2024-11-01T16:36:14Z) - Learning to Rank for Multiple Retrieval-Augmented Models through Iterative Utility Maximization [21.115495457454365]
本稿では,複数検索拡張世代(RAG)エージェントを対象とした統合検索エンジンの設計について検討する。
本稿では,検索エンジンがRAGエージェントの検索結果を生成し,オフラインフェーズにおいて検索した文書の品質に関するフィードバックを収集する反復的手法を提案する。
我々は、これをオンライン環境に適応させ、リアルタイムなエージェントのフィードバックに基づいて、検索エンジンがその振る舞いを洗練できるようにする。
論文 参考訳(メタデータ) (2024-10-13T17:53:50Z) - Unleashing the Potential of Large Language Models as Prompt Optimizers: Analogical Analysis with Gradient-based Model Optimizers [108.72225067368592]
本稿では,大規模言語モデル(LLM)に基づくプロンプトの設計について検討する。
モデルパラメータ学習における2つの重要な要素を同定する。
グラディエントにインスパイアされた Prompt ベースの GPO を開発した。
論文 参考訳(メタデータ) (2024-02-27T15:05:32Z) - GEO: Generative Engine Optimization [50.45232692363787]
我々は、生成エンジン(GE)の統一的な枠組みを定式化する。
GEは大規模な言語モデル(LLM)を使用して情報を収集し、ユーザクエリに応答する。
生成エンジンは通常、複数のソースから情報を合成し、それらを要約することでクエリを満足する。
我々は、生成エンジン応答におけるコンテンツの可視性向上を支援するために、コンテンツ作成者を支援する最初の新しいパラダイムである生成エンジン最適化(GEO)を紹介する。
論文 参考訳(メタデータ) (2023-11-16T10:06:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。