論文の概要: LEAPS: An LLM-Empowered Adaptive Plugin for Taobao AI Search
- arxiv url: http://arxiv.org/abs/2601.05513v1
- Date: Fri, 09 Jan 2026 03:41:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.832946
- Title: LEAPS: An LLM-Empowered Adaptive Plugin for Taobao AI Search
- Title(参考訳): LEAPS: Taobao AI検索のためのLLMベースのアダプティブプラグイン
- Authors: Lei Wang, Jinhang Wu, Zhibin Wang, Biye Li, Haiping Hou,
- Abstract要約: 我々は,従来の検索システムを"Broaden-and-Empower"パラダイムでシームレスにアップグレードするLEAPS(LLM-Empowered Adaptive for Taobao AI Search)を提案する。
新たな3段階のトレーニング戦略 – 逆データ拡張,後知識による微調整,多様性を考慮した強化学習 – を採用して,適応的および補完的なクエリの組み合わせを生成する。
2025年8月以降、Taobao AI Searchに完全にデプロイされている。
- 参考スコア(独自算出の注目度): 17.074638179635613
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid advancement of large language models has reshaped user search cognition, driving a paradigm shift from discrete keyword-based search to high-dimensional conversational interaction. However, existing e-commerce search architectures face a critical capability deficit in adapting to this change. Users are often caught in a dilemma: precise natural language descriptions frequently trigger zero-result scenarios, while the forced simplification of queries leads to decision overload from noisy, generic results. To tackle this challenge, we propose LEAPS (LLM-Empowered Adaptive Plugin for Taobao AI Search), which seamlessly upgrades traditional search systems via a "Broaden-and-Refine" paradigm. Specifically, it attaches plugins to both ends of the search pipeline: (1) Upstream, a Query Expander acts as an intent translator. It employs a novel three-stage training strategy--inverse data augmentation, posterior-knowledge supervised fine-tuning, and diversity-aware reinforcement learning--to generate adaptive and complementary query combinations that maximize the candidate product set. (2) Downstream, a Relevance Verifier serves as a semantic gatekeeper. By synthesizing multi-source data (e.g., OCR text, reviews) and leveraging chain-of-thought reasoning, it precisely filters noise to resolve selection overload. Extensive offline experiments and online A/B testing demonstrate that LEAPS significantly enhances conversational search experiences. Crucially, its non-invasive architecture preserves established retrieval performance optimized for short-text queries, while simultaneously allowing for low-cost integration into diverse back-ends. Fully deployed on Taobao AI Search since August 2025, LEAPS currently serves hundreds of millions of users monthly.
- Abstract(参考訳): 大規模言語モデルの急速な進歩は、ユーザ検索の認知を再構築し、個別のキーワードベースの検索から高次元の対話的相互作用へとパラダイムシフトを促した。
しかし、既存のeコマース検索アーキテクチャは、この変化に適応する上で重大な能力不足に直面している。
正確な自然言語記述はしばしばゼロ・リサートシナリオをトリガーする一方、クエリの強制的な単純化は、ノイズの多い汎用的な結果から決定オーバーロードにつながる。
この課題に対処するために,従来の検索システムを"Broaden-and-Refine"パラダイムでシームレスにアップグレードするLEAPS(LLM-Empowered Adaptive Plugin for Taobao AI Search)を提案する。
具体的には,検索パイプラインの両端にプラグインをアタッチする。 1) Upstreamでは,Query Expanderがインテントトランスレータとして機能する。
新たな3段階のトレーニング戦略 – 逆データ拡張,後知識による微調整,多様性を考慮した強化学習 – を採用して,候補製品セットを最大化するための適応的および補完的クエリの組み合わせを生成する。
2) 下流では、関連検証器がセマンティックゲートキーパーとして機能する。
マルチソースデータ(例:OCRテキスト、レビュー)を合成し、チェーン・オブ・シークレットの推論を活用することで、選択過負荷を解決するためにノイズを正確にフィルタする。
大規模なオフライン実験とオンラインA/Bテストにより、LEAPSは会話による検索体験を大幅に向上させることが示された。
重要なことは、その非侵襲的なアーキテクチャは、短いテキストクエリに最適化された確立された検索性能を保ちながら、同時に多様なバックエンドへの低コストな統合を可能にする。
2025年8月以降、Taobao AI Searchに完全にデプロイされている。
関連論文リスト
- Rethinking On-policy Optimization for Query Augmentation [49.87723664806526]
本稿では,様々なベンチマークにおいて,プロンプトベースとRLベースのクエリ拡張の最初の体系的比較を示す。
そこで我々は,検索性能を最大化する擬似文書の生成を学習する,新しいハイブリッド手法 On-policy Pseudo-document Query Expansion (OPQE) を提案する。
論文 参考訳(メタデータ) (2025-10-20T04:16:28Z) - Towards Context-aware Reasoning-enhanced Generative Searching in E-commerce [61.03081096959132]
そこで本稿では,複雑な状況下でのテキストバウンダリングを改善するための,文脈対応推論強化型生成検索フレームワークを提案する。
提案手法は,強力なベースラインに比べて優れた性能を示し,検索に基づく推薦の有効性を検証した。
論文 参考訳(メタデータ) (2025-10-19T16:46:11Z) - DeepMMSearch-R1: Empowering Multimodal LLMs in Multimodal Web Search [61.77858432092777]
DeepMMSearch-R1は,オンデマンドでマルチターンWeb検索が可能な,最初のマルチモーダルな大規模言語モデルである。
DeepMMSearch-R1は、画像検索をより効果的にするために、入力画像の関連する作物に基づいてWeb検索を開始することができる。
我々は、アプローチの優位性を実証するために、知識集約型ベンチマークを幅広く実施する。
論文 参考訳(メタデータ) (2025-10-14T17:59:58Z) - Query Expansion in the Age of Pre-trained and Large Language Models: A Comprehensive Survey [21.764997953030857]
現代の情報検索は、多種多様な動的コーパスであいまいなクエリを調整しなければならない。
インジェクションのポイント、接地と相互作用、学習とアライメント、知識グラフの統合の4つの相補的な側面に沿って、最近の作業を組織化します。
この調査では、Web検索、バイオメディシン、eコマース、オープンドメイン質問応答/RAG、会話とコード検索、言語間設定など、7つの側面にわたる従来のQEと神経質なQEを比較した。
論文 参考訳(メタデータ) (2025-09-09T14:31:11Z) - Reasoning-enhanced Query Understanding through Decomposition and Interpretation [87.56450566014625]
ReDIは、分解と解釈によるクエリ理解のための推論強化アプローチである。
我々は,大規模検索エンジンから実世界の複雑なクエリの大規模データセットをコンパイルした。
BRIGHT と BEIR の実験により、ReDI はスパースと密度の高い検索パラダイムの両方において、強いベースラインを一貫して超えることを示した。
論文 参考訳(メタデータ) (2025-09-08T10:58:42Z) - Resource-Friendly Dynamic Enhancement Chain for Multi-Hop Question Answering [21.077964610022313]
この研究はDEC(Dynamic Enhancement Chain)と呼ばれる新しいフレームワークを提案する。
DECはまず複雑な質問を論理的に一貫性のあるサブクエストに分解し、幻覚のない推論連鎖を形成する。
その後、コンテキスト対応の書き換えによってこれらのサブクエストを反復的に洗練し、効率的なクエリの定式化を生成する。
論文 参考訳(メタデータ) (2025-06-21T11:55:27Z) - NExT-Search: Rebuilding User Feedback Ecosystem for Generative AI Search [108.42163676745085]
NExT-Searchは、きめ細かいプロセスレベルのフィードバックを生成AI検索に再導入するために設計された次世代パラダイムである。
NExT-Searchは2つの補完モードを統合している。
論文 参考訳(メタデータ) (2025-05-20T17:59:13Z) - LevelRAG: Enhancing Retrieval-Augmented Generation with Multi-hop Logic Planning over Rewriting Augmented Searchers [24.01783076521377]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)における幻覚を緩和するための重要な方法である
既存のRAGメソッドは通常、検索範囲を広げるためにハイブリッド検索を使用しながら、ユーザ意図を明確にし、マルチホップロジックを管理するためにクエリ書き換えを使用する。
本稿では,複雑なクエリをアトミックなクエリに分解する高レベル検索手法を提案する。
高精度なキーワード検索にスパース検索の長所を利用するために,Lucene構文を用いて検索精度を向上させるスパース検索手法を開発した。
論文 参考訳(メタデータ) (2025-02-25T12:09:16Z) - Benchmarking Multimodal Retrieval Augmented Generation with Dynamic VQA Dataset and Self-adaptive Planning Agent [92.5712549836791]
マルチモーダル大規模言語モデル(MLLM)に固有の「ハロシン化」問題を緩和する上で,mRAG(Multimodal Retrieval Augmented Generation)が重要な役割を果たしている。
マルチモーダル検索のための自己適応型計画エージェントOmniSearchを提案する。
論文 参考訳(メタデータ) (2024-11-05T09:27:21Z) - Leveraging Large Language Models for Multimodal Search [0.6249768559720121]
本稿では,Fashion200Kデータセット上での新たなパフォーマンスマイルストーンを実現する,新しいマルチモーダル検索モデルを提案する。
また,Large Language Models (LLM) を統合した新たな検索インタフェースを提案する。
論文 参考訳(メタデータ) (2024-04-24T10:30:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。