論文の概要: Hint-Augmented Re-ranking: Efficient Product Search using LLM-Based Query Decomposition
- arxiv url: http://arxiv.org/abs/2511.13994v1
- Date: Mon, 17 Nov 2025 23:53:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:52.839628
- Title: Hint-Augmented Re-ranking: Efficient Product Search using LLM-Based Query Decomposition
- Title(参考訳): Hint-Augmented Re-level:LLMに基づくクエリ分解を用いた効率的な製品検索
- Authors: Yilun Zhu, Nikhita Vedula, Shervin Malmasi,
- Abstract要約: LLMは,eコマースクエリにおいて最下位の意図を明らかにすることができることを示す。
提案手法では,クエリを検索と同時に生成した属性値ヒントに分解する。
本手法はMAPにおける検索効率を10.9ポイント改善し,ベースライン上のMRRにおいて5.9ポイントのランク付けを行う。
- 参考スコア(独自算出の注目度): 20.966359103135762
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Search queries with superlatives (e.g., best, most popular) require comparing candidates across multiple dimensions, demanding linguistic understanding and domain knowledge. We show that LLMs can uncover latent intent behind these expressions in e-commerce queries through a framework that extracts structured interpretations or hints. Our approach decomposes queries into attribute-value hints generated concurrently with retrieval, enabling efficient integration into the ranking pipeline. Our method improves search performanc eby 10.9 points in MAP and ranking by 5.9 points in MRR over baselines. Since direct LLM-based reranking faces prohibitive latency, we develop an efficient approach transferring superlative interpretations to lightweight models. Our findings provide insights into how superlative semantics can be represented and transferred between models, advancing linguistic interpretation in retrieval systems while addressing practical deployment constraints.
- Abstract(参考訳): 検索クエリは、複数の次元にわたる候補を比較し、言語的理解とドメイン知識を必要とする。
LLMは、構造化された解釈やヒントを抽出するフレームワークを通じて、電子商取引クエリにおけるこれらの表現の背後にある潜在意図を明らかにすることができることを示す。
提案手法では,クエリを検索と同時に生成した属性値ヒントに分解することで,ランキングパイプラインへの効率的な統合を実現する。
本手法はMAPにおける検索効率を10.9ポイント改善し,ベースライン上のMRRにおいて5.9ポイントのランク付けを行う。
直接LLMに基づく再ランク付けは遅延の禁止に直面しているため、我々は軽量モデルへの効率的なアプローチの変換を行う。
本研究は,モデル間のセマンティクスの表現・伝達方法に関する知見を提供し,実用的な展開制約に対処しながら,検索システムにおける言語解釈を進めた。
関連論文リスト
- Reasoning-enhanced Query Understanding through Decomposition and Interpretation [87.56450566014625]
ReDIは、分解と解釈によるクエリ理解のための推論強化アプローチである。
我々は,大規模検索エンジンから実世界の複雑なクエリの大規模データセットをコンパイルした。
BRIGHT と BEIR の実験により、ReDI はスパースと密度の高い検索パラダイムの両方において、強いベースラインを一貫して超えることを示した。
論文 参考訳(メタデータ) (2025-09-08T10:58:42Z) - Data Fusion of Synthetic Query Variants With Generative Large Language Models [1.864807003137943]
本研究は,データ融合実験において,命令調整型大規模言語モデルによって生成される合成クエリ変種を用いることの実現可能性について検討する。
我々は、プロンプトとデータ融合の原則を生かした、軽量で教師なしで費用効率のよいアプローチを導入します。
解析の結果,合成クエリの変種に基づくデータ融合は,単一クエリのベースラインよりもはるかに優れており,擬似関連フィードバック手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-11-06T12:54:27Z) - Description-Based Text Similarity [59.552704474862004]
我々は、その内容の抽象的な記述に基づいて、テキストを検索する必要性を特定する。
そこで本研究では,近隣の標準探索で使用する場合の精度を大幅に向上する代替モデルを提案する。
論文 参考訳(メタデータ) (2023-05-21T17:14:31Z) - Large Language Models are Strong Zero-Shot Retriever [89.16756291653371]
ゼロショットシナリオにおける大規模検索に大規模言語モデル(LLM)を適用するための簡単な手法を提案する。
我々の手法であるRetriever(LameR)は,LLM以外のニューラルモデルに基づいて構築された言語モデルである。
論文 参考訳(メタデータ) (2023-04-27T14:45:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。