論文の概要: QP-OneModel: A Unified Generative LLM for Multi-Task Query Understanding in Xiaohongshu Search
- arxiv url: http://arxiv.org/abs/2602.09901v1
- Date: Tue, 10 Feb 2026 15:38:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.647801
- Title: QP-OneModel: A Unified Generative LLM for Multi-Task Query Understanding in Xiaohongshu Search
- Title(参考訳): QP-OneModel:Xiaohongshu Searchにおけるマルチタスククエリ理解のための統一生成LLM
- Authors: Jianzhao Huang, Xiaorui Huang, Fei Zhao, Yunpeng Liu, Hui Zhang, Fangcheng Shi, Congfeng Li, Zechen Sun, Yi Wu, Yao Hu, Yunhan Bai, Shaosheng Cao,
- Abstract要約: QP-OneModelはSNS検索エンジンにおけるユーザの意図とコンテンツの供給を橋渡しする。
新規な高忠実な意味信号として意図的記述を生成する。
また、32Bモデルを7.60%精度で上回り、より優れた一般化を示す。
- 参考スコア(独自算出の注目度): 19.376785819604923
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Query Processing (QP) bridges user intent and content supply in large-scale Social Network Service (SNS) search engines. Traditional QP systems rely on pipelines of isolated discriminative models (e.g., BERT), suffering from limited semantic understanding and high maintenance overhead. While Large Language Models (LLMs) offer a potential solution, existing approaches often optimize sub-tasks in isolation, neglecting intrinsic semantic synergy and necessitating independent iterations. Moreover, standard generative methods often lack grounding in SNS scenarios, failing to bridge the gap between open-domain corpora and informal SNS linguistic patterns, while struggling to adhere to rigorous business definitions. We present QP-OneModel, a Unified Generative LLM for Multi-Task Query Understanding in the SNS domain. We reformulate heterogeneous sub-tasks into a unified sequence generation paradigm, adopting a progressive three-stage alignment strategy culminating in multi-reward Reinforcement Learning. Furthermore, QP-OneModel generates intent descriptions as a novel high-fidelity semantic signal, effectively augmenting downstream tasks such as query rewriting and ranking. Offline evaluations show QP-OneModel achieves a 7.35% overall gain over discriminative baselines, with significant F1 boosts in NER (+9.01%) and Term Weighting (+9.31%). It also exhibits superior generalization, surpassing a 32B model by 7.60% accuracy on unseen tasks. Fully deployed at Xiaohongshu, online A/B tests confirm its industrial value, optimizing retrieval relevance (DCG) by 0.21% and lifting user retention by 0.044%.
- Abstract(参考訳): クエリ処理(QP)は、大規模ソーシャルネットワークサービス(SNS)検索エンジンにおけるユーザの意図とコンテンツの供給を橋渡しする。
従来のQPシステムは分離された差別モデル(例えばBERT)のパイプラインに依存しており、セマンティック理解の制限と高いメンテナンスオーバーヘッドに悩まされている。
大きな言語モデル(LLM)は潜在的な解決策を提供するが、既存のアプローチは、独立してサブタスクを最適化し、固有のセマンティック・シナジーを無視し、独立したイテレーションを必要とする。
さらに、標準的な生成手法では、厳密なビジネス定義に従うのに苦労しながら、オープンドメインコーパスと非公式なSNS言語パターンのギャップを埋めることができず、SNSシナリオの基盤を欠いていることが多い。
SNS ドメインにおけるマルチタスククエリ理解のための統一生成 LLM である QP-OneModel を提案する。
我々は異種サブタスクを統一シーケンス生成パラダイムに再構成し、マルチリワード強化学習における段階的な3段階アライメント戦略を採用する。
さらに、QP-OneModelは、クエリ書き換えやランキングなどの下流タスクを効果的に増強する、新しい高忠実なセマンティックシグナルとしてインテント記述を生成する。
オフライン評価では、QP-OneModelは差別的ベースラインよりも7.35%向上し、NER (+9.01%) と Term Weighting (+9.31%) でF1が大幅に上昇している。
また、32Bモデルを7.60%精度で上回り、より優れた一般化を示す。
Xiaohongshuで完全にデプロイされたオンラインA/Bテストは、その産業価値を確認し、検索関連度(DCG)を0.21%最適化し、ユーザーの保持率を0.04%引き上げた。
関連論文リスト
- CORPGEN: Simulating Corporate Environments with Autonomous Digital Employees in Multi-Horizon Task Environments [1.6153514666902042]
実際の組織的な作業には、インターリーブ、依存関係、優先順位付けを伴って、多くの並行した長期タスクを管理する必要があります。
マルチ水平タスク環境(MHTEs: Multi-Horizon Task Environments: MHTEs): 数十のインターリーブタスクでコヒーレントな実行を必要とする問題クラス。
負荷が25%から100%になるにつれて、ベースラインCUAが16.7%から8.7%に低下する4つの障害モードを特定します。
マルチ水平ゴールアライメントのための階層的計画を通じて,これらの障害に対処するアーキテクチャに依存しないフレームワークであるCorpGenを提案する。
論文 参考訳(メタデータ) (2026-02-15T16:54:34Z) - Pailitao-VL: Unified Embedding and Reranker for Real-Time Multi-Modal Industrial Search [31.824675235862532]
Pailitao-VLは、リアルタイム産業検索のために設計された総合的なマルチモーダル検索システムである。
我々は,現在のSOTAソリューションにおける3つの重要な課題に対処する。
この研究は、大規模生産環境に高度なMLLMベースの検索アーキテクチャを展開するための、堅牢でスケーラブルな経路を示す。
論文 参考訳(メタデータ) (2026-02-14T10:13:48Z) - SSVP: Synergistic Semantic-Visual Prompting for Industrial Zero-Shot Anomaly Detection [55.54007781679915]
本稿では,多種多様な視覚的エンコーディングを効率よく融合させ,モデルの微粒化知覚を高めるSynergistic Semantic-Visual Prompting (SSVP)を提案する。
SSVPは、MVTec-AD上で93.0%のImage-AUROCと92.2%のPixel-AUROCで最先端のパフォーマンスを達成し、既存のゼロショットアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2026-01-14T04:42:19Z) - Towards a Science of Scaling Agent Systems [79.64446272302287]
エージェント評価の定義を定式化し,エージェント量,コーディネーション構造,モデル,タスク特性の相互作用として,スケーリング法則を特徴付ける。
協調指標を用いて予測モデルを導出し,R2=0をクロスバリデーションし,未知のタスク領域の予測を可能にする。
ツールコーディネーショントレードオフ: 固定的な計算予算の下では, ツールヘビータスクはマルチエージェントのオーバーヘッドから不均衡に悩まされ, 2) 能力飽和: 調整が減少または負のリターンを, 単一エージェントのベースラインが45%を超えると達成できる。
論文 参考訳(メタデータ) (2025-12-09T06:52:21Z) - RedOne 2.0: Rethinking Domain-specific LLM Post-Training in Social Networking Services [25.000215454344126]
ソーシャルネットワークサービス(SNS)は、大規模言語モデル(LLM)に固有の課題をもたらす
我々は、高速で安定した適応のために設計された、プログレッシブでRL優先のポストトレーニングパラダイムで訓練されたSNS指向のLLMであるRedOne 2.0を紹介する。
論文 参考訳(メタデータ) (2025-11-10T13:04:34Z) - CoT-Saliency: Unified Chain-of-Thought Reasoning for Heterogeneous Saliency Tasks [96.64597365827046]
本稿では,3つの運用上不均一なサリエンシタスクを共同で処理する,最初の統合フレームワークを提案する。
タスクの不均一性を橋渡しする視覚言語モデル(VLM)において、チェーン・オブ・ソート(CoT)推論プロセスを導入する。
我々は,全タスクにまたがる特別なSOTA手法と強力なクローズドソースVLMの整合性を示す。
論文 参考訳(メタデータ) (2025-11-01T04:37:01Z) - Fragile Mastery: Are Domain-Specific Trade-Offs Undermining On-Device Language Models? [0.0]
Generalized Edge Model (GEM) は、堅牢性と一般化を調和的にバランスさせることを目的としている。
GEMはSparse Cross-Attention Router (SCAR) を使用して、可変数のコンピューティングリソースに動的に割り当てる。
GPT-4 Liteと比較して、GEMはドメイン固有のパフォーマンスの尊重と同等性に対して、一般タスクレベルを7%向上させる。
論文 参考訳(メタデータ) (2025-03-16T18:30:26Z) - Networks of Networks: Complexity Class Principles Applied to Compound AI Systems Design [63.24275274981911]
多くの言語モデル推論コールからなる複合AIシステムは、ますます採用されている。
本研究では,提案した回答の生成と正当性検証の区別を中心に,ネットワークネットワーク(NoN)と呼ばれるシステムを構築した。
我々は,Kジェネレータを備えた検証器ベースの判定器NoNを導入し,"Best-of-K"あるいは"judge-based"複合AIシステムのインスタンス化を行う。
論文 参考訳(メタデータ) (2024-07-23T20:40:37Z) - An Empirical Study of Multimodal Model Merging [148.48412442848795]
モデルマージは、異なるタスクでトレーニングされた複数のモデルを融合してマルチタスクソリューションを生成するテクニックである。
我々は、モダリティ固有のアーキテクチャのビジョン、言語、およびクロスモーダルトランスフォーマーをマージできる新しい目標に向けて研究を行っている。
本稿では,重み間の距離を推定し,マージ結果の指標となる2つの指標を提案する。
論文 参考訳(メタデータ) (2023-04-28T15:43:21Z) - AvgOut: A Simple Output-Probability Measure to Eliminate Dull Responses [97.50616524350123]
機能エンジニアリングなしで、どの発話やトークンが退屈であるかを動的に認識する対話モデルを構築します。
最初のモデルMinAvgOutは、各バッチの出力分布を通して、ダイバーシティスコアを直接最大化する。
第2のモデルであるラベルファインチューニング(LFT)は、多様性スコアによって連続的にスケールされたラベルをソースシーケンスにプリペイドし、多様性レベルを制御する。
3つ目のモデルであるRLは強化学習を採用し、多様性スコアを報奨信号として扱う。
論文 参考訳(メタデータ) (2020-01-15T18:32:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。