論文の概要: Controlling Output Rankings in Generative Engines for LLM-based Search
- arxiv url: http://arxiv.org/abs/2602.03608v1
- Date: Tue, 03 Feb 2026 14:59:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.524319
- Title: Controlling Output Rankings in Generative Engines for LLM-based Search
- Title(参考訳): LLM検索のための生成エンジンの出力ランク付け制御
- Authors: Haibo Jin, Ruoxi Chen, Peiyan Zhang, Yifeng Luo, Huimin Zeng, Man Luo, Haohan Wang,
- Abstract要約: CORE は textbfControls textbfOutput textbfRankings in gtextbfEnerative Engines の最適化手法である。
COREは、出力ランキングに影響を与える主要な手段として、検索エンジンによって返されるコンテンツをターゲットにしている。
COREは15の製品カテゴリで、textbf91.4%の@Top-5、 textbf86.6%の@Top-3、 textbf80.3%の@Top-1の平均昇格率を達成した。
- 参考スコア(独自算出の注目度): 32.00097545087518
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The way customers search for and choose products is changing with the rise of large language models (LLMs). LLM-based search, or generative engines, provides direct product recommendations to users, rather than traditional online search results that require users to explore options themselves. However, these recommendations are strongly influenced by the initial retrieval order of LLMs, which disadvantages small businesses and independent creators by limiting their visibility. In this work, we propose CORE, an optimization method that \textbf{C}ontrols \textbf{O}utput \textbf{R}ankings in g\textbf{E}nerative Engines for LLM-based search. Since the LLM's interactions with the search engine are black-box, CORE targets the content returned by search engines as the primary means of influencing output rankings. Specifically, CORE optimizes retrieved content by appending strategically designed optimization content to steer the ranking of outputs. We introduce three types of optimization content: string-based, reasoning-based, and review-based, demonstrating their effectiveness in shaping output rankings. To evaluate CORE in realistic settings, we introduce ProductBench, a large-scale benchmark with 15 product categories and 200 products per category, where each product is associated with its top-10 recommendations collected from Amazon's search interface. Extensive experiments on four LLMs with search capabilities (GPT-4o, Gemini-2.5, Claude-4, and Grok-3) demonstrate that CORE achieves an average Promotion Success Rate of \textbf{91.4\% @Top-5}, \textbf{86.6\% @Top-3}, and \textbf{80.3\% @Top-1}, across 15 product categories, outperforming existing ranking manipulation methods while preserving the fluency of optimized content.
- Abstract(参考訳): 顧客が製品を検索し、選択する方法は、大きな言語モデル(LLM)の台頭とともに変化している。
LLMベースの検索(ジェネレーティブエンジン)は、ユーザーが自分で選択肢を探さなければならない従来のオンライン検索結果ではなく、ユーザーに直接製品レコメンデーションを提供する。
しかし、これらのレコメンデーションは、中小企業や独立系クリエーターの視認性を制限することで、LSMの最初の検索順序の影響を強く受けている。
本研究では, LLM 検索用 g\textbf{E}nerative Engines における \textbf{C}ontrols \textbf{O}utput \textbf{R}ankings の最適化手法である CORE を提案する。
LLMと検索エンジンの相互作用はブラックボックスであるため、COREは出力ランキングに影響を与える主要な手段として、検索エンジンによって返されるコンテンツをターゲットにしている。
特に、COREは、戦略的に設計された最適化コンテンツを追加して、検索されたコンテンツを最適化し、アウトプットのランキングを決定する。
本稿では,文字列ベース,推論ベース,レビューベースという3種類の最適化コンテンツを紹介する。
COREを現実的な環境で評価するために,Amazonの検索インターフェースから収集したトップ10のレコメンデーションに関連付けられた,15の製品カテゴリと200の製品を備えた大規模ベンチマークであるProductBenchを紹介した。
検索機能を持つ4つのLLM(GPT-4o, Gemini-2.5, Claude-4, Grok-3)の大規模な実験により、COREは、最適化されたコンテンツの流速を保ちながら、既存のランキング操作方法よりも優れた15の製品カテゴリにわたって、 \textbf{91.4\% @Top-5}, \textbf{86.6\% @Top-3}, \textbf{80.3\% @Top-1} の平均促進成功率を達成することを示した。
関連論文リスト
- OneSearch: A Preliminary Exploration of the Unified End-to-End Generative Framework for E-commerce Search [43.94443394870866]
OneSearchは、eコマース検索のための最初の産業向けエンドツーエンド生成フレームワークである。
OneSearchは運用費を75.40%削減し、Model FLOPsの利用を3.26%から27.32%に改善した。
このシステムはKuaishouの複数の検索シナリオにまたがって展開され、数百万のユーザーにサービスを提供している。
論文 参考訳(メタデータ) (2025-09-03T11:50:04Z) - Role-Augmented Intent-Driven Generative Search Engine Optimization [9.876307656819039]
本稿では,G-SEO(Role-Augmented Intent-Driven Generative Search Engine Optimization)法を提案する。
提案手法は,多種多様な情報的役割にまたがるリフレクティブ・リフレクティブ・リファインメントによる検索意図をモデル化し,ターゲットコンテンツの強化を可能にする。
実験結果から,検索意図がコンテンツ最適化に有効な信号であることが示された。
論文 参考訳(メタデータ) (2025-08-15T02:08:55Z) - Generative Product Recommendations for Implicit Superlative Queries [21.750990820244983]
Recommender Systemsでは、ユーザーは「トレイルランニングのためのベストシューズ」のような間接的、曖昧、または不明確なクエリを通じて、最高の製品を求めることが多い。
本研究では,大規模言語モデルがランキングに暗黙の属性を生成できるかを検討するとともに,そのようなクエリの製品レコメンデーションを改善するための理由についても検討する。
論文 参考訳(メタデータ) (2025-04-26T00:05:47Z) - Search-R1: Training LLMs to Reason and Leverage Search Engines with Reinforcement Learning [50.419872452397684]
Search-R1は推論フレームワークのための強化学習の拡張である。
リアルタイム検索とステップバイステップ推論の間に検索クエリを生成する。
性能は41%(Qwen2.5-7B)、20%(Qwen2.5-3B)で改善されている。
論文 参考訳(メタデータ) (2025-03-12T16:26:39Z) - Manipulating Large Language Models to Increase Product Visibility [27.494854085799076]
大規模言語モデル(LLM)は、ユーザクエリに適した自然言語応答を提供するために、検索エンジンに統合されつつある。
製品の可視性を高めるため,LCMからのレコメンデーションを操作できるかどうかを検討する。
論文 参考訳(メタデータ) (2024-04-11T17:57:32Z) - Large Language Models are Zero-Shot Rankers for Recommender Systems [76.02500186203929]
本研究では,レコメンダシステムのランキングモデルとして機能する大規模言語モデル(LLM)の能力を検討することを目的とする。
LLMにはゼロショットランキング能力があるが、歴史的相互作用の順序を理解するのに苦労していることを示す。
これらの問題は、特別に設計されたプロンプトとブートストラップ戦略によって緩和可能であることを実証する。
論文 参考訳(メタデータ) (2023-05-15T17:57:39Z) - ProphetNet-Ads: A Looking Ahead Strategy for Generative Retrieval Models
in Sponsored Search Engine [123.65646903493614]
生成的検索モデルは、ターゲットライブラリプレフィックスツリー(Trie)のパス上でトークンによる出力トークンを生成する
本稿では,これらの問題を解析し,ProphetNet-Adsと呼ばれる生成検索モデルの今後の戦略を提案する。
最近提案されたトリエ型LSTM生成モデルと比較すると,本モデルの結果と統合結果は,ビームサイズ5でそれぞれ15.58%と18.8%改善した。
論文 参考訳(メタデータ) (2020-10-21T07:03:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。