論文の概要: LEAPS: An LLM-Empowered Adaptive Plugin for Taobao AI Search
- arxiv url: http://arxiv.org/abs/2601.05513v1
- Date: Fri, 09 Jan 2026 03:41:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.832946
- Title: LEAPS: An LLM-Empowered Adaptive Plugin for Taobao AI Search
- Title(参考訳): LEAPS: Taobao AI検索のためのLLMベースのアダプティブプラグイン
- Authors: Lei Wang, Jinhang Wu, Zhibin Wang, Biye Li, Haiping Hou,
- Abstract要約: 我々は,従来の検索システムを"Broaden-and-Empower"パラダイムでシームレスにアップグレードするLEAPS(LLM-Empowered Adaptive for Taobao AI Search)を提案する。
新たな3段階のトレーニング戦略 – 逆データ拡張,後知識による微調整,多様性を考慮した強化学習 – を採用して,適応的および補完的なクエリの組み合わせを生成する。
2025年8月以降、Taobao AI Searchに完全にデプロイされている。
- 参考スコア(独自算出の注目度): 17.074638179635613
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid advancement of large language models has reshaped user search cognition, driving a paradigm shift from discrete keyword-based search to high-dimensional conversational interaction. However, existing e-commerce search architectures face a critical capability deficit in adapting to this change. Users are often caught in a dilemma: precise natural language descriptions frequently trigger zero-result scenarios, while the forced simplification of queries leads to decision overload from noisy, generic results. To tackle this challenge, we propose LEAPS (LLM-Empowered Adaptive Plugin for Taobao AI Search), which seamlessly upgrades traditional search systems via a "Broaden-and-Refine" paradigm. Specifically, it attaches plugins to both ends of the search pipeline: (1) Upstream, a Query Expander acts as an intent translator. It employs a novel three-stage training strategy--inverse data augmentation, posterior-knowledge supervised fine-tuning, and diversity-aware reinforcement learning--to generate adaptive and complementary query combinations that maximize the candidate product set. (2) Downstream, a Relevance Verifier serves as a semantic gatekeeper. By synthesizing multi-source data (e.g., OCR text, reviews) and leveraging chain-of-thought reasoning, it precisely filters noise to resolve selection overload. Extensive offline experiments and online A/B testing demonstrate that LEAPS significantly enhances conversational search experiences. Crucially, its non-invasive architecture preserves established retrieval performance optimized for short-text queries, while simultaneously allowing for low-cost integration into diverse back-ends. Fully deployed on Taobao AI Search since August 2025, LEAPS currently serves hundreds of millions of users monthly.
- Abstract(参考訳): 大規模言語モデルの急速な進歩は、ユーザ検索の認知を再構築し、個別のキーワードベースの検索から高次元の対話的相互作用へとパラダイムシフトを促した。
しかし、既存のeコマース検索アーキテクチャは、この変化に適応する上で重大な能力不足に直面している。
正確な自然言語記述はしばしばゼロ・リサートシナリオをトリガーする一方、クエリの強制的な単純化は、ノイズの多い汎用的な結果から決定オーバーロードにつながる。
この課題に対処するために,従来の検索システムを"Broaden-and-Refine"パラダイムでシームレスにアップグレードするLEAPS(LLM-Empowered Adaptive Plugin for Taobao AI Search)を提案する。
具体的には,検索パイプラインの両端にプラグインをアタッチする。 1) Upstreamでは,Query Expanderがインテントトランスレータとして機能する。
新たな3段階のトレーニング戦略 – 逆データ拡張,後知識による微調整,多様性を考慮した強化学習 – を採用して,候補製品セットを最大化するための適応的および補完的クエリの組み合わせを生成する。
2) 下流では、関連検証器がセマンティックゲートキーパーとして機能する。
マルチソースデータ(例:OCRテキスト、レビュー)を合成し、チェーン・オブ・シークレットの推論を活用することで、選択過負荷を解決するためにノイズを正確にフィルタする。
大規模なオフライン実験とオンラインA/Bテストにより、LEAPSは会話による検索体験を大幅に向上させることが示された。
重要なことは、その非侵襲的なアーキテクチャは、短いテキストクエリに最適化された確立された検索性能を保ちながら、同時に多様なバックエンドへの低コストな統合を可能にする。
2025年8月以降、Taobao AI Searchに完全にデプロイされている。
関連論文リスト
- Query Expansion in the Age of Pre-trained and Large Language Models: A Comprehensive Survey [21.764997953030857]
現代の情報検索は、多種多様な動的コーパスであいまいなクエリを調整しなければならない。
インジェクションのポイント、接地と相互作用、学習とアライメント、知識グラフの統合の4つの相補的な側面に沿って、最近の作業を組織化します。
この調査では、Web検索、バイオメディシン、eコマース、オープンドメイン質問応答/RAG、会話とコード検索、言語間設定など、7つの側面にわたる従来のQEと神経質なQEを比較した。
論文 参考訳(メタデータ) (2025-09-09T14:31:11Z) - Reasoning-enhanced Query Understanding through Decomposition and Interpretation [87.56450566014625]
ReDIは、分解と解釈によるクエリ理解のための推論強化アプローチである。
我々は,大規模検索エンジンから実世界の複雑なクエリの大規模データセットをコンパイルした。
BRIGHT と BEIR の実験により、ReDI はスパースと密度の高い検索パラダイムの両方において、強いベースラインを一貫して超えることを示した。
論文 参考訳(メタデータ) (2025-09-08T10:58:42Z) - Resource-Friendly Dynamic Enhancement Chain for Multi-Hop Question Answering [21.077964610022313]
この研究はDEC(Dynamic Enhancement Chain)と呼ばれる新しいフレームワークを提案する。
DECはまず複雑な質問を論理的に一貫性のあるサブクエストに分解し、幻覚のない推論連鎖を形成する。
その後、コンテキスト対応の書き換えによってこれらのサブクエストを反復的に洗練し、効率的なクエリの定式化を生成する。
論文 参考訳(メタデータ) (2025-06-21T11:55:27Z) - NExT-Search: Rebuilding User Feedback Ecosystem for Generative AI Search [108.42163676745085]
NExT-Searchは、きめ細かいプロセスレベルのフィードバックを生成AI検索に再導入するために設計された次世代パラダイムである。
NExT-Searchは2つの補完モードを統合している。
論文 参考訳(メタデータ) (2025-05-20T17:59:13Z) - Benchmarking Multimodal Retrieval Augmented Generation with Dynamic VQA Dataset and Self-adaptive Planning Agent [92.5712549836791]
マルチモーダル大規模言語モデル(MLLM)に固有の「ハロシン化」問題を緩和する上で,mRAG(Multimodal Retrieval Augmented Generation)が重要な役割を果たしている。
マルチモーダル検索のための自己適応型計画エージェントOmniSearchを提案する。
論文 参考訳(メタデータ) (2024-11-05T09:27:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。