論文の概要: QP-OneModel: A Unified Generative LLM for Multi-Task Query Understanding in Xiaohongshu Search
- arxiv url: http://arxiv.org/abs/2602.09901v1
- Date: Tue, 10 Feb 2026 15:38:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.647801
- Title: QP-OneModel: A Unified Generative LLM for Multi-Task Query Understanding in Xiaohongshu Search
- Title(参考訳): QP-OneModel:Xiaohongshu Searchにおけるマルチタスククエリ理解のための統一生成LLM
- Authors: Jianzhao Huang, Xiaorui Huang, Fei Zhao, Yunpeng Liu, Hui Zhang, Fangcheng Shi, Congfeng Li, Zechen Sun, Yi Wu, Yao Hu, Yunhan Bai, Shaosheng Cao,
- Abstract要約: QP-OneModelはSNS検索エンジンにおけるユーザの意図とコンテンツの供給を橋渡しする。
新規な高忠実な意味信号として意図的記述を生成する。
また、32Bモデルを7.60%精度で上回り、より優れた一般化を示す。
- 参考スコア(独自算出の注目度): 19.376785819604923
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Query Processing (QP) bridges user intent and content supply in large-scale Social Network Service (SNS) search engines. Traditional QP systems rely on pipelines of isolated discriminative models (e.g., BERT), suffering from limited semantic understanding and high maintenance overhead. While Large Language Models (LLMs) offer a potential solution, existing approaches often optimize sub-tasks in isolation, neglecting intrinsic semantic synergy and necessitating independent iterations. Moreover, standard generative methods often lack grounding in SNS scenarios, failing to bridge the gap between open-domain corpora and informal SNS linguistic patterns, while struggling to adhere to rigorous business definitions. We present QP-OneModel, a Unified Generative LLM for Multi-Task Query Understanding in the SNS domain. We reformulate heterogeneous sub-tasks into a unified sequence generation paradigm, adopting a progressive three-stage alignment strategy culminating in multi-reward Reinforcement Learning. Furthermore, QP-OneModel generates intent descriptions as a novel high-fidelity semantic signal, effectively augmenting downstream tasks such as query rewriting and ranking. Offline evaluations show QP-OneModel achieves a 7.35% overall gain over discriminative baselines, with significant F1 boosts in NER (+9.01%) and Term Weighting (+9.31%). It also exhibits superior generalization, surpassing a 32B model by 7.60% accuracy on unseen tasks. Fully deployed at Xiaohongshu, online A/B tests confirm its industrial value, optimizing retrieval relevance (DCG) by 0.21% and lifting user retention by 0.044%.
- Abstract(参考訳): クエリ処理(QP)は、大規模ソーシャルネットワークサービス(SNS)検索エンジンにおけるユーザの意図とコンテンツの供給を橋渡しする。
従来のQPシステムは分離された差別モデル(例えばBERT)のパイプラインに依存しており、セマンティック理解の制限と高いメンテナンスオーバーヘッドに悩まされている。
大きな言語モデル(LLM)は潜在的な解決策を提供するが、既存のアプローチは、独立してサブタスクを最適化し、固有のセマンティック・シナジーを無視し、独立したイテレーションを必要とする。
さらに、標準的な生成手法では、厳密なビジネス定義に従うのに苦労しながら、オープンドメインコーパスと非公式なSNS言語パターンのギャップを埋めることができず、SNSシナリオの基盤を欠いていることが多い。
SNS ドメインにおけるマルチタスククエリ理解のための統一生成 LLM である QP-OneModel を提案する。
我々は異種サブタスクを統一シーケンス生成パラダイムに再構成し、マルチリワード強化学習における段階的な3段階アライメント戦略を採用する。
さらに、QP-OneModelは、クエリ書き換えやランキングなどの下流タスクを効果的に増強する、新しい高忠実なセマンティックシグナルとしてインテント記述を生成する。
オフライン評価では、QP-OneModelは差別的ベースラインよりも7.35%向上し、NER (+9.01%) と Term Weighting (+9.31%) でF1が大幅に上昇している。
また、32Bモデルを7.60%精度で上回り、より優れた一般化を示す。
Xiaohongshuで完全にデプロイされたオンラインA/Bテストは、その産業価値を確認し、検索関連度(DCG)を0.21%最適化し、ユーザーの保持率を0.04%引き上げた。
関連論文リスト
- SSVP: Synergistic Semantic-Visual Prompting for Industrial Zero-Shot Anomaly Detection [55.54007781679915]
本稿では,多種多様な視覚的エンコーディングを効率よく融合させ,モデルの微粒化知覚を高めるSynergistic Semantic-Visual Prompting (SSVP)を提案する。
SSVPは、MVTec-AD上で93.0%のImage-AUROCと92.2%のPixel-AUROCで最先端のパフォーマンスを達成し、既存のゼロショットアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2026-01-14T04:42:19Z) - RedOne 2.0: Rethinking Domain-specific LLM Post-Training in Social Networking Services [25.000215454344126]
ソーシャルネットワークサービス(SNS)は、大規模言語モデル(LLM)に固有の課題をもたらす
我々は、高速で安定した適応のために設計された、プログレッシブでRL優先のポストトレーニングパラダイムで訓練されたSNS指向のLLMであるRedOne 2.0を紹介する。
論文 参考訳(メタデータ) (2025-11-10T13:04:34Z) - CoT-Saliency: Unified Chain-of-Thought Reasoning for Heterogeneous Saliency Tasks [96.64597365827046]
本稿では,3つの運用上不均一なサリエンシタスクを共同で処理する,最初の統合フレームワークを提案する。
タスクの不均一性を橋渡しする視覚言語モデル(VLM)において、チェーン・オブ・ソート(CoT)推論プロセスを導入する。
我々は,全タスクにまたがる特別なSOTA手法と強力なクローズドソースVLMの整合性を示す。
論文 参考訳(メタデータ) (2025-11-01T04:37:01Z) - Fragile Mastery: Are Domain-Specific Trade-Offs Undermining On-Device Language Models? [0.0]
Generalized Edge Model (GEM) は、堅牢性と一般化を調和的にバランスさせることを目的としている。
GEMはSparse Cross-Attention Router (SCAR) を使用して、可変数のコンピューティングリソースに動的に割り当てる。
GPT-4 Liteと比較して、GEMはドメイン固有のパフォーマンスの尊重と同等性に対して、一般タスクレベルを7%向上させる。
論文 参考訳(メタデータ) (2025-03-16T18:30:26Z) - Networks of Networks: Complexity Class Principles Applied to Compound AI Systems Design [63.24275274981911]
多くの言語モデル推論コールからなる複合AIシステムは、ますます採用されている。
本研究では,提案した回答の生成と正当性検証の区別を中心に,ネットワークネットワーク(NoN)と呼ばれるシステムを構築した。
我々は,Kジェネレータを備えた検証器ベースの判定器NoNを導入し,"Best-of-K"あるいは"judge-based"複合AIシステムのインスタンス化を行う。
論文 参考訳(メタデータ) (2024-07-23T20:40:37Z) - An Empirical Study of Multimodal Model Merging [148.48412442848795]
モデルマージは、異なるタスクでトレーニングされた複数のモデルを融合してマルチタスクソリューションを生成するテクニックである。
我々は、モダリティ固有のアーキテクチャのビジョン、言語、およびクロスモーダルトランスフォーマーをマージできる新しい目標に向けて研究を行っている。
本稿では,重み間の距離を推定し,マージ結果の指標となる2つの指標を提案する。
論文 参考訳(メタデータ) (2023-04-28T15:43:21Z) - AvgOut: A Simple Output-Probability Measure to Eliminate Dull Responses [97.50616524350123]
機能エンジニアリングなしで、どの発話やトークンが退屈であるかを動的に認識する対話モデルを構築します。
最初のモデルMinAvgOutは、各バッチの出力分布を通して、ダイバーシティスコアを直接最大化する。
第2のモデルであるラベルファインチューニング(LFT)は、多様性スコアによって連続的にスケールされたラベルをソースシーケンスにプリペイドし、多様性レベルを制御する。
3つ目のモデルであるRLは強化学習を採用し、多様性スコアを報奨信号として扱う。
論文 参考訳(メタデータ) (2020-01-15T18:32:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。