論文の概要: LESER: Learning to Expand via Search Engine-feedback Reinforcement in e-Commerce
- arxiv url: http://arxiv.org/abs/2509.05570v1
- Date: Sat, 06 Sep 2025 02:54:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.5885
- Title: LESER: Learning to Expand via Search Engine-feedback Reinforcement in e-Commerce
- Title(参考訳): LESER:eコマースにおける検索エンジンフィードバック強化による拡大学習
- Authors: Yipeng Zhang, Bowen Liu, Xiaoshuang Zhang, Aritra Mandal, Zhe Wu, Canran Xu,
- Abstract要約: eコマース検索におけるユーザクエリはしばしばあいまいで、短く、未特定である。
ニューラルネットワークの拡張やプロンプトベースのLLMアプローチといった既存の方法は、現実世界の設定では不足している。
本稿では,リアルタイム検索エンジンフィードバックを用いて文脈認識型LLMを微調整する新しいフレームワークであるLearning to Expanding Engine Reinforcement (LESER)を提案する。
- 参考スコア(独自算出の注目度): 6.294743632371883
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: User queries in e-commerce search are often vague, short, and underspecified, making it difficult for retrieval systems to match them accurately against structured product catalogs. This challenge is amplified by the one-to-many nature of user intent, where a single query can imply diverse and competing needs. Existing methods, including neural query expansion and prompting-based LLM approaches, fall short in real-world settings: they struggle to capture nuanced user intent, often generate outputs that violate platform constraints, and rely on workflows that are difficult to scale in production. We propose Learning to Expand via Search Engine-feedback Reinforcement (LESER), a novel framework that fine-tunes a context-aware LLM using real-time search engine feedback as supervision. LESER formulates query expansion as a retrieval optimization task and leverages Group Relative Policy Optimization to learn directly from relevance and coverage metrics. LESER is trained to reason over search results and produce high quality query expansions that align with platform rules and retrieval objectives. We evaluate LESER on large-scale, real-world e-commerce datasets, demonstrating substantial improvements in both offline and online settings. Our results show that LESER not only enhances semantic coverage and retrieval relevance but also delivers measurable gains in user engagement, making it a practical and scalable solution for modern search systems.
- Abstract(参考訳): 電子商取引検索におけるユーザクエリはしばしばあいまいで、短く、不明確であり、検索システムが構造化された製品カタログと正確に一致させることが困難である。
この課題は、単一のクエリが多様で競合するニーズを暗示する、ユーザ意図の1対多の性質によって増幅されます。
ニューラルクエリの拡張やプロンプトベースのLLMアプローチなど、既存の方法では、ユーザ意図のニュアンスを捉えるのに苦労し、プラットフォーム制約に違反するアウトプットを生成し、運用環境でのスケールアップが難しいワークフローに依存している、という現実的な設定が不足している。
本稿では,リアルタイム検索エンジンのフィードバックを教師として利用し,文脈認識型LLMを微調整する新しいフレームワークであるLearning to Expanding Engine-feedback Reinforcement (LESER)を提案する。
LESERは、クエリ拡張を検索最適化タスクとして定式化し、グループ相対ポリシー最適化を活用して、関連性やカバレッジメトリクスから直接学習する。
LESERは、検索結果を推論し、プラットフォームルールや検索目的に沿った高品質なクエリ拡張を生成するように訓練されている。
LESERを大規模な実世界のeコマースデータセットで評価し、オフラインとオンラインの両方で大幅に改善したことを示す。
この結果から,LESERはセマンティックカバレッジと検索関連性を向上するだけでなく,ユーザエンゲージメントの向上も実現し,現代の検索システムにとって実用的でスケーラブルなソリューションであることが示唆された。
関連論文リスト
- Reasoning-enhanced Query Understanding through Decomposition and Interpretation [130.19204432111277]
ReDIは、分解と解釈によるクエリ理解のための推論強化アプローチである。
我々は,大規模検索エンジンから実世界の複雑なクエリの大規模データセットをコンパイルした。
BRIGHT と BEIR の実験により、ReDI はスパースと密度の高い検索パラダイムの両方において、強いベースラインを一貫して超えることを示した。
論文 参考訳(メタデータ) (2025-09-08T10:58:42Z) - Iterative Self-Incentivization Empowers Large Language Models as Agentic Searchers [74.17516978246152]
大規模言語モデル(LLM)は、従来の手法を進化させるために情報検索に広く統合されている。
エージェント検索フレームワークであるEXSEARCHを提案する。
4つの知識集約ベンチマークの実験では、EXSEARCHはベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2025-05-26T15:27:55Z) - Towards Boosting LLMs-driven Relevance Modeling with Progressive Retrieved Behavior-augmented Prompting [23.61061000692023]
本研究では,検索ログに記録されたユーザインタラクションを活用して,ユーザの暗黙の検索意図に対する洞察を得ることを提案する。
ProRBPは,探索シナリオ指向の知識を大規模言語モデルと統合するための,プログレッシブ検索行動拡張型プロンプトフレームワークである。
論文 参考訳(メタデータ) (2024-08-18T11:07:38Z) - When Search Engine Services meet Large Language Models: Visions and Challenges [53.32948540004658]
本稿では,大規模言語モデルと検索エンジンの統合が,両者の相互に利益をもたらすかどうかを詳細に検討する。
LLM(Search4LLM)の改良と,LLM(LLM4Search)を用いた検索エンジン機能の向上という,2つの主要な領域に注目した。
論文 参考訳(メタデータ) (2024-06-28T03:52:13Z) - Can Long-Context Language Models Subsume Retrieval, RAG, SQL, and More? [54.667202878390526]
長文言語モデル(LCLM)は、従来、検索システムやデータベースといった外部ツールに依存していたタスクへのアプローチに革命をもたらす可能性がある。
実世界のタスクのベンチマークであるLOFTを導入し、文脈内検索と推論においてLCLMの性能を評価するために設計された数百万のトークンを出力する。
以上の結果からLCLMは,これらのタスクを明示的に訓練したことがないにも関わらず,最先端の検索システムやRAGシステムと競合する驚くべき能力を示した。
論文 参考訳(メタデータ) (2024-06-19T00:28:58Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。